Межрегиональный научно-исследовательский институт ООН по вопросам преступности и правосудия, Интерпол и компания Trend Micro, специализирующаяся на кибербезопасности, подготовили доклад под названием «Злонамеренное использование и злоупотребление искусственным интеллектом». Под этими терминами участники доклада подразумевают ботов, дипфейки и прочие инструменты с признаками искусственного интеллекта, использующиеся для взлома и манипуляций.
«Процесс» пересказывает суть доклада.
Дипфейки лиц, голоса и текста
Сейчас искусственный интеллект позволяет создавать дипфейки лиц и голоса. Голос позволяет манипулировать и вымогать деньги, а дипфейки фото — мошенничать как на документах, так и на общественном мнении и распространении фейковых новостей.
Иногда хакеры используют искусственный интеллект для повышения эффективности вредоносных программ. Комбинация алгоритмов ИИ с malware позволяет последнему ловчее обходить спам-фильтры и прочую защиту. Сейчас хакеры разрабатывают вредоносные программы на основе ИИ, которые будут мешать работе антивирусов и технологии распознавания лиц.
ИИ несет угрозу и для безопасности паролей. Алгоритмы дают возможность эффективнее их взломать, а капча уже не столь неуязвима от «роботов». Искусственный интеллект также применяют для улучшения качества шифрования. В аналогичном прошлогоднем докладе упоминалось 34 приложения для шифрования или взлома.
Еще один вариант создания фейка — генератор текста GPT-3. Он анализирует пример текста конкретного человека и имитирует его. Такие подделки можно использовать для написания текстовых «дипфейков» — писем с вымогательствами или дезинформацией.
Игра в имитацию
По докладу кажется, что нет технологичной сферы, куда бы не смог проникнуть искусственный интеллект. Алгоритмы способны проанализировать большие массивы данных и вычленить из них номера карт и телефонов. Эту информацию ИИ сможет извлечь даже из изображений.
Способность имитировать поведение человека поможет ботам втираться в доверие к доверчивым людям (это можно отнести к социальной инженерии) и «разводить» их. Нынешние боты в соцсетях видны невооруженным глазом, боты будущего будут мало отличаться от живого активного пользователя соцсетей. Искусственный интеллект даже будут использовать в играх для «читов» ради выигрыша.
Для телефонного мошенничества можно не нанимать колл-центры — их работу будут выполнять голосовые боты для автообзвонов. Еще один вариант использования ИИ — обман систем распознавания изображений будущей техники. Чтобы угнать беспилотные автомобили или дроны, хакеры будут взламывать виртуальную разметку их движения.
И главное — финансовые преступления. Мошенники смогут использовать искусственный интеллект для незаконной торговли криптовалютами, взломов систем алгоритмического трейдинга и для маскировки инсайдерской торговли. То есть для атак на высокотехнологичные финансовые операции.
Авторы доклада подчеркнули, что изученные ими способы применения искусственного интеллекта для мошенничества пока находятся в разработке, и использование их — дело ближайшего будущего.