Дипфейки. Что это такое и как с ними бороться

Дипфейки. Что это такое и как с ними бороться

Развитие информационного общества в XXI веке породило понятие «фейков», фейковых новостей — неправдивой информации о важных событиях и людях, которая меняет развитие событий в выгодную сторону. Развитие технологии искусственного интеллекта привело к созданию дипфейков, deepfake — аудио- или видеозаписей, подделывающих голос и внешность человека. ИИ накладывает на другого человека маску, к примеру, политика. Создается видео, где политик фактически говорит чужими устами, но своим голосом, что очень сложно отличить от оригинала.

Хакеры используют машинное обучение ИИ, чтобы клонировать голос другого человека. Дипфейки используются и в мошенничестве — «клоны» могут убедить отправить деньги, куда не стоит. Клонированный голос звучит убедительно.

Компания NISOS, занимающаяся консалтингом в сфере безопасности, выпустила отчет, в котором анализируется один из случаев мошенничества с помощью дипфейков. Аудиозапись опубликовало издание Motherboard. Запись — голосовая почта одного из сотрудников неназванной технологической компании. Клонированный голос директора компании попросил сотрудника «немедленно помочь с завершением срочной коммерческой сделки».

Качество голоса нельзя назвать отличным. Даже с учетом плохого сигнала голос выглядит роботизированным. Но слова можно разобрать. Играет роль психологический фактор — младший сотрудник, получив сообщения от своего начальника, разнервничается и не будет думать о качестве звука.

«Вы могли бы сказать, что с аудио было что-то не так, — говорит исследователь из NISOS Дев Бадлу. — Похоже, что они в основном брали записи, вырезали слова, а потом составили их в новом порядке». Кроме того, подделку выявляет количество резких пиков и падений, которых нет в нормальной речи. Также не было фонового шума.

«Это определенно звучит как человек, — говорит Роб Волкерт, исследователь из компании NISOS, — но не как генеральный директор». По мнению Волкерта, хакеры пока исследуют, как такие записи будут влиять на потенциальных жертв.

Попытка мошенников не увенчалась успехом. Сотрудник, получивший аудиосообщение, почуял неладное, и уточнил ситуацию в юридическом отделе компании. Но в будущем такие атаки будут случаться все чаще, поскольку инструменты искусственного интеллекта становятся все более доступными.

Все, что вам нужно для создания голосового клона — это доступ к большому числу записей голоса. Чем больше есть данных и чем лучше качество голоса, тем правдоподобнее получится клонированный голос. Записи голоса многих руководителей компаний легко могут быть собраны из телефонных звонков, интервью и выступлений. И при достаточном ресурсе результат может выйти гораздо более убедительным, чем в примере выше.

Самый известный и первый зарегистрированный пример аудио-дипфейка случился в 2019 году, когда исполнительного директора британской энергетической компании «нагрели» на 220 тысяч евро, которые надо было отправить якобы венгерскому поставщику после звонка из головного офиса в Германии. CEO сказали, что это срочный перевод, и деньги нужно отправить в течение часа. Он так и сделал. Мошенников до сих пор не нашли.

Ранее в этом году Федеральная торговая комиссия США предупредила о росте числа подобного мошенничества. Но, по словам экспертов, есть легкий способ справиться с ними. Нужно просто положить трубку и связаться с тем человеком, от лица которого говорят мошенники. А вот рецепта, как бороться с дипфейками политиков, еще нет.

Content Protection by DMCA.com