OpenAI відклала запуск свого онлайн-магазину чат-ботів GPT на наступний рік

Проти OpenAI та її чат-бота подано скаргу за поширення дезінформації

Проти OpenAI та її чат-бота подано скаргу за поширення дезінформації. Фальсифікація особистих даних неприпустима, стверджує Європейський центр цифрових прав. Персональні дані мають бути правильними, а технологія – відповідати вимогам законодавства.
Чат-боти зі штучним інтелектом, такі як ChatGPT, часто видають неточну інформацію про людей. Це проблема, оскільки Загальний регламент ЄС щодо захисту даних (GDPR) встановлює принцип точності інформації про людей.

Тому інформація про людей має бути точною і, за необхідності, оновлюватися. На думку noyb.eu, Європейського центру цифрових прав, ChatGPT суперечить цій директиві. Тому зараз подано відповідну скаргу проти OpenAI.

«ChatGPT часто надає фейковий контент, і навіть OpenAI не може це зупинити», – заявляє асоціація noyb.eu.

Крім фактичної точності, компанії також зобов’язані надати згаданим у матеріалах людям повний доступ до їхньої особистої інформації та її джерела. OpenAI публічно заявляє, що не знає ні звідки беруться дані, ні які дані ChatGPT зберігає про людей. Компанія нічого не може з цим вдіяти, оскільки фактична точність у великих мовних моделях залишається сферою активних досліджень. Щоб підштовхнути OpenAI до більш ефективної політики захисту даних, noyb.eu вирішив подати скаргу.

«Хоча компанія має у своєму розпорядженні великі дані щодо навчання, наразі вона не може гарантувати, що користувачі отримують правильну інформацію», – йдеться в повідомленні.

На думку Європейського центру цифрових прав, коли справа стосується особистих даних, слід запобігти «природній» галюцинації ChatGPT.