С развитием технологий мошенники получили мощные инструменты — от правдоподобных сообщений и рассылок до генерации голосов и лиц. Основатель стартапа-разработчика ИИ-решений для бизнеса MAIA Олег Лупиков рассказал Life.ru про популярные схемы цифрового мошенничества, которыми пользуются современные хакеры, а также о том, как им противостоять.
Дипфейки: синтез голоса
В последнее время мошенники вооружились голосовыми сообщениями, которые создаёт искусственный интеллект. С их помощью они вымогают деньги от лица владельца аккаунта в соцсетях и мессенджерах. Подобный вариант позволяет эффективно выманивать суммы у знакомых и коллег.
К примеру, в 2020 году одна из японских компаний потеряла $35 млн — аферисты использовали голос руководителя и провернули с его помощью незамысловатую мошенническую схему.
Вариаций мошенничества с голосовыми дипфейками множество. И во всех случаях, как отмечает Лупиков, отличить голос от настоящего практически невозможно. К примеру, одна из схем может выглядеть так: аферисты звонят родственникам, записывают семпл их голоса, после чего загружают звуковую дорожку на специальные платформы, через которые ИИ синтезирует целую речь. После этого человеку приходит голосовое сообщение в мессенджере с просьбой помочь и перевести деньги по указанному номеру
Как распознать: обратите внимание на паузы, вздохи и интонацию говорящего. У робота речь поставленная и чёткая, без пауз. Жертвы чаще всего не замечают этих нюансов из-за паники. Чтобы избежать ловушки, перезвоните человеку, который просит о помощи, лучше это сделать в мессенджере, советует эксперт.
Дипфейки: видеозвонок с начальником
ИИ может не только генерировать голосовые сообщения, но и создавать настоящие видеоконференции. Данный формат не такой распространённый и требует более тщательной подготовки со стороны мошенников.
Подобный инцидент произошёл недавно в Гонконге. Финансовый работник получил письмо от руководителя с просьбой провести секретный перевод. Сомнения работника развеялись, когда его подключили к видеозвонку, на котором присутствовали все знакомые ему лица. В общей сложности обманутый финансист перевёл около 25,6 миллиона долларов. Когда махинации всплыли, сотрудник понял, что все люди, которых он видел на экране, были фейком.
Как распознать: фейковое видео может выдать плохое качество изображения. Можно проанализировать взгляд, мимику и речь — насколько она живая и нероботизированная. Если возникли подозрения, перезвоните. С семьёй и друзьями можно договориться о кодовом слове, которое во время разговора докажет, что вы — это вы.
Лжесотрудники по E-mail
Мошенники частенько представляются работниками и директорами фирм в письмах по E-mail. Ещё одна уловка — рассылки об оставленных завещаниях, победах в конкурсах и крупных выигрышах в лотерею. Схема в этом случае получается незамысловатая: мошенники используют подставные доменные имена, электронные адреса, которые напоминают оригинальные. Также цифровые мошенники мониторят аккаунты в соцсетях, чтобы собрать как можно больше подробной информации. И только после этого идут в атаку, вооружившись передовыми инструментами ИИ, подчёркивает Лупиков.
К примеру, в 2017 году мошенник из Литвы с помощью подобной фишинговой атаки обманул компании Google и Facebook* на сумму более $100 млн. Хакер писал письма от лица сотрудников азиатских фирм-партнёров. Работники корпораций получали письма из тайваньских компаний с поддельными счетами-фактурами и контрактами. В течение двух лет Google и Facebook* отправляли деньги на банковские счета мошенника.
Как распознать: большое количество файлов и ссылок, которые прикладывают к официальным письмам, увеличивает вероятность того, что сообщение фишинговое. Призывы как можно быстрее перейти по ссылке, напечатанные без пробела слова и грамматические ошибки — это инструменты, чтобы проскочить через спам-фильтры, они сразу же намекают на фишинг.
Может ли ИИ навредить человеку
По умолчанию каждая нейросеть запрограммирована на добро,
подчёркивает эксперт, но есть кейсы, когда преступники с помощью
уловок обходят "настройки". Кроме того, хакеры часто пользуются
По словам эксперта, сегодня, когда ИИ и модели глубокого обучения стали незаменимой вещью в повседневной жизни человека, злоумышленники чувствуют себя как никогда комфортно. Поэтому обмануть людей стало проще простого: например, в России за 2023 год практически на 30% выросло число ИТ-преступлений. Кроме того, ИИ постоянно развивается и учится, поэтому сегодняшние методы защиты от цифрового мошенничества могут потерять актуальность.
Но в любом случае лучше не переходить по подозрительным ссылкам и желательно установить двухфакторную аутентификацию в мессенджерах.
Кстати,
* Соцсеть запрещена в РФ; принадлежит корпорации Meta, признанной в России экстремистской.

Для комментирования авторизуйтесь!
Комментарии