Модель штучного інтелекту GPT5 може вийти наприкінці цього року, і зрівнятися з можливостями людського мозку

OpenAI: пропагандисти намагаються використовувати ChatGPT для впливу на вибори в США

Компанія OpenAI, розробниця чатбота ChatGPT, повідомила у звіті, опублікованому 9 жовтня, про низку спроб використання моделей штучного інтелекту для створення підробленого контенту, включаючи довгі статті та коментарі в соціальних мережах, спрямовані на вплив на вибори. Про це повідомляє Reuters.

OpenAI стверджує, що кіберзлочинці все частіше використовують інструменти штучного інтелекту, включаючи ChatGPT, для створення та посування шкідливого програмного забезпечення, а також створення підробленого контенту вебсайтів і платформ соцмереж. Цього року компанія нейтралізувала понад 20 таких спроб, включаючи ті, що мали на меті вплив на вибори в Руанді, Індії, Європейському Союзі та США.

Зокрема, компанія повідомила про іранську пропагандистську операцію з підробленими англомовними новинними сайтами, які нібито відображали різні політичні позиції американців, хоча невідомо, чи ці сайти коли-небудь взагалі залучали реальних людей. Згідно зі звітом, вони також використовували ChatGPT для створення публікацій у соцмережах на підтримку цих сайтів. Виявлені облікові записи OpenAI заблокувала в серпні.

У липні OpenAI заблокувала низку облікових записів із Руанди. За інформацією компанії, вони використовувалися для поширення «партизанських» повідомлень у соцмережі Х на користь репресивної партії «Патріотичний фронт», яка править країною з моменту закінчення геноциду на початку 1990-х років. Окремі повідомлення пропагандистської кампанії поширили понад 650 тис. разів.

Цього року OpenAI також заблокувала дві кампанії, скеровані на вплив на парламентські вибори в ЄС та на вибори в Індії.

За інформацією OpenAI, ці кампанії не досягнули істотної взаємодії з користувачами соцмереж, проте невідомо, чи люди, які стояли за кампаніями, не перейшли на ШІ-моделі інших компаній.