По словам эксперта, любые аудио, видео и фото из переписки способны стать исходным материалом для нейросетей, генерирующих поддельные записи. Мошенники могут получить доступ к таким данным, взломав аккаунт пользователя или его контактов.
«По сути, все медиаматериалы — аудио, видео, фото — могут служить образцами голоса и изображения человека для создания дипфейков с помощью нейросетей. Мошенники могут получить доступ к медиа в переписке пользователя, взломав аккаунт либо его самого, либо кого‑то из его контактов. Соответственно, чем больше таких медиа‑образцов мошенники смогут найти в переписке — тем более точной окажется копия и более правдоподобно будет выглядеть дипфейк», — пояснил Иванов.
Специалист рекомендует ограничить объём отправляемых аудио‑ и видеосообщений, а также включить двухфакторную аутентификацию для защиты аккаунта.
Главный способ защититься от мошенничества с дипфейками — проявлять бдительность.
«Если вы получили аудио‑ или видеосообщение с просьбой перевести деньги, эксперт советует связаться с отправителем по другому каналу и задать вопрос, ответ на который знает только этот человек и который не обсуждался в переписке», — отметил он.
При подтверждении мошенничества необходимо незамедлительно обратиться в поддержку мессенджера для блокировки взломанного аккаунта.
Статистика подтверждает остроту проблемы: по данным Pindrop, около 80 % жертв верят дипфейкам и пытаются перевести деньги злоумышленникам. При этом часть пользователей останавливается на этапе перевода, заметив несовпадение имени получателя.
Аналитики прогнозируют, что к концу 2025 года число случаев мошенничества с дипфейками в мире может вырасти на 162 %.
Ранее глава Ассоциации профессиональных пользователей соцсетей и мессенджеров (АППСИМ) Владимир Зыков рассказал о том, что мошенники в ближайшее время могут сфокусировать внимание на краже аккаунтов в WhatsApp*.
* Продукт Meta, деятельность признана экстремистской, запрещена на территории России по решению Тверского суда Москвы от 21.03.2022.