За повідомленням The Wall Street Journal, OpenAI вже має готове рішення для відстеження штучно згенерованого контенту за допомогою маркування водяними знаками, проте всередині компанії немає єдиної думки, чи варто його випускати.
З одного боку, надання офіційного способу виявлення контенту, згенерованого AI, здається компанії відповідальним кроком для запобігання зловживання нейромережею деякими користувачами. Наприклад, викладачам шкіл та інших навчальних закладів було б простіше утримати учнів від передачі текстових завдань чат-бота.
Але з іншого боку OpenAI остерігається втрати прибутку, так як багато користувачів відкрито заявляють, що працюватимуть з ChatGPT рідше, якщо для нього з’являться водяні знаки та інші методи виявлення.
«В опитуванні, замовленому компанією, “люди по всьому світу підтримали ідею інструменту виявлення AI з перевагою чотири до одного”», — пише The Verge, посилаючись на WSJ.
OpenAI вже з’ясувала, що водяні знаки не впливають на якість роботи штучного інтелекту компанії, а точність виявлення становить 99% зі стійкістю до методів фальсифікації, наприклад, перефразування.