
Мошенники всё активнее применяют дипфейки в схемах обмана россиян, и эта тенденция становится одной из самых опасных в цифровой среде. Член Комитета Госдумы по информационной политике, федеральный координатор партийного проекта «Цифровая Россия» Антон Немкин рассказал Life.ru, что современные нейросети позволяют с пугающей точностью копировать внешность, голос и мимику конкретного человека.
Одной из популярных схем мошенничества он назвал рассылку роликов о так называемых «социальных компенсациях», где якобы известный человек предлагает перейти по ссылке и ввести персональные данные. Жертвы верят картинке и голосу, поскольку они выглядят достоверно. Немкин подчеркнул, что это новая форма социальной инженерии, усиленная технологиями.
Эксперт добавил, что распознать дипфейк всё же возможно, если быть внимательным. Во время видеозвонка можно попросить собеседника поднять руку, повернуть голову или назвать точное время. Нейросети пока не способны адекватно воспроизводить такие действия, из-за чего появляются задержки, неестественные движения и сбои. Кроме того, стоит обращать внимание на мимику и интонацию – даже самые продвинутые дипфейки не идеально передают движение губ, паузы и эмоции
«Лучше перепроверить информацию по другим каналам связи, позвонить напрямую предполагаемому отправителю или обратиться в официальную организацию», – резюмировал парламентарий.
Комментарии