У США створили чіпи проти депресії

Microsoft обмежила можливості нейромережевого чат-бота Bing через його суперечки з користувачами

Нейромережевий чат-бот Bing від Microsoft почав сперечатися з користувачами, заперечувати очевидні факти та видавати провокативні відповіді. Про це свідчать повідомлення розробників, які тестують роботу штучного інтелекту, онлайн-форумі Reddit.

Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ

Чат-бот Bing є спільною розробкою Microsoft та стартапа OpenAI на основі сенсаційного чат-бота зі штучним інтелектом ChatGPT. Програма завоювала світову популярність зрозумілими та «людськими» відповідями на різні питання користувачів.

Пости на форумі Reddit включали скріншоти спілкування з Bing, коли чат-бот заперечував очевидні факти, заплутувався у розмові чи взагалі був неадекватним.

У корпорації Microsoft заявили, що вони ще вчать штучний інтелект відповідати більш виразно і точно, оскільки Bing все ще може давати несподівані чи некоректні відповіді з різних причин.

Вже через два дні після цього Microsoft оголосила про обмеження чату 50 «ходами» на день. «Ходом» компанія називає обмін репліками, який містить запитання користувача та відповідь від Bing.

Аналогічні проблеми мали місце у Google, коли вони запустили свій власний чат-бот Bard, але зазнали критики за помилку, яку ШІ здійснив у рекламі. Це призвело до падіння акцій Google більш ніж на 7% та втрати $100 млрд.

 

Content Protection by DMCA.com