
Технологія deepfake: наскільки реальною є загроза для фінансових систем?
Технологія deepfake: наскільки реальною є загроза для фінансових систем?
CEO fintech-компанії LeoGaming Альона Шевцова розповіла, як технологія deepfake може вплинути на фінансові системи, а також назвала головні сценарії застосування діпфейк технологій у фінансовому секторі.
Технології розвиваються, роблячи життя людей простішим і комфортнішим, але водночас розвиваються й способи обману. Прогрес у сфері штучного інтелекту дозволяє використовувати алгоритми нових форм шахрайства. Зараз за допомогою сервісів та програм можна замінити обличчя кіноактора у фрагменті відео своїм або навіть оживити фотографію, зробивши її анімованою. Це загальнодоступні технології для розваги, але є й інша сторона медалі. Створення підроблених фото-, аудіо- і навіть відеоматеріалів, що не відрізняються від оригінальних у сукупності з необмеженими можливостями ЗМІ, викликають побоювання. Одночасно з цим існує загроза впливу на фінансові системи за допомогою нових технологій deepfake.
Deepfake (діпфейк) — це технологія, в основі якої лежать штучний інтелект і машинне навчання. Вона використовує знайдені зображення, аудіо- та відеофайли для створення схожого візуального та голосового зображення людини. Головна персона в діпфейк-відео може говорити та діяти, видаючи себе за іншу людину. Такі відео стають більш реалістичними з кожним роком. Наприклад, у соціальних мережах став популярним обліковий запис, де діпфейк Тома Круза грає в гольф і показує фокуси. Після того, як відео стало вірусним, воно привернуло широку увагу до технології, але також зробило акценти на можливі проблеми, пов'язані з фальсифікацією особистості. Сильна сторона технологій на основі штучного інтелекту в тому, що згодом вони збирають все більше даних і стають розумнішими. Варто згадати, як у 2019 році кіберзлочинці змогли підробити голос генерального директора британської енергетичної компанії та викрасти €220 000.
Існує безліч сценаріїв застосування діпфейк технологій — від кібервимагання до підробки урядових заяв. Але є й способи, які можуть зашкодити фінансовим системам. Серед найбільш поширених — вхід до особистих облікових записів на фінансових онлайн-сервісах, банківських аккаунтах, оформлення кредитів за допомогою ідентифікації з технологією заміни обличчя та голосу в реальному часі. З поширенням та покращенням штучного інтелекту, такий спосіб стає більш доступним для шахрайських дій у фінансових установах.
Шахрайство із новими обліковими записами. Зазвичай такий вид махінації доступний у додатках. Існує можливість використовувати вкрадені посвідчення особи для відкриття нових банківських рахунків за допомогою діпфейків та обходу технологій ідентифікації. Якщо зловмисники матимуть можливість створювати підроблені посвідчення особи — така атака може стати глобальною проблемою для фінансових сервісів.
Шахрайство за допомогою штучної ідентифікації. Як правило, цей спосіб вкрай складно виявити, оскільки замість крадіжки чи підробки особистості, зловмисники об'єднують реальну та підроблену інформацію для “створення” абсолютно нової людини. Після цього можна, аналогічно до попереднього методу, створювати облікові записи у фінансових установах та отримувати гроші завдяки відкриттю кредитних ліній.
Технологія deepfake допомагає обійти систему безпеки під час ідентифікації особистості. Саме тому зараз багато банківських послуг використовують багаторівневий захист, де недостатньо тільки біометричних даних. Деякі послуги визначають "рухливість" людини: вас просять покрутити головою або зробити прості жести. Прикладом використання такої технології є український сервіс для самоізольованих людей “Вдома”.
Технології штучного інтелекту — зброя для шахраїв, що спеціалізуються на фінансових злочинах. Однак це не означає, що махінації стали легкою наживою для зловмисників. Технологія діпфейк ґрунтується на системі генеративно-змагальних мереж або GAN (Generative Adversarial Network), де одна нейромережа генерує підробки, а друга вчиться їх розпізнавати. Тому розв'язання проблеми приховано у її створенні, як би парадоксально це не було. Агентство передових оборонних дослідницьких проєктів Міністерства оборони США (DARPA) вже створює нові способи протидіяти діпфейкам, тому підготувало дві програми для їх виявлення. Вони знаходять невідповідності у зображеннях людей та аналізують контент на предмет цифрової, фізичної та семантичної цілісності. Підробку може видати різниця в парних прикрасах, нехарактерні риси обличчя або навіть фон. Такі деталі складно помітити за допомогою аналізу, який проводить людина.
Deepfake-технології розвиваються і в Україні, адже саме українські стартапери створили один із найпопулярніших додатків для заміни обличчя. Проте про масові загрози для фінансових сервісів говорити поки що зарано, адже якщо на заході технології з біометричною ідентифікацією широко поширені, то до нас ця тенденція тільки приходить.