В США создали чипы против депрессии

Microsoft ограничила возможности нейросетевого чат-бота Bing из-за его споров с пользователями

Нейросетевой чат-бот Bing от Microsoft начал спорить с пользователями, отрицать очевидные факты и выдавать провокативные ответы. Об этом свидетельствуют сообщения разработчиков, тестирующих работу искусственного интеллекта, на онлайн-форуме Reddit.

Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ

Чат-бот Bing является совместной разработкой Microsoft и стартапа OpenAI на основе сенсационного чат-бота с искусственным интеллектом ChatGPT. Программа завоевала мировую популярность понятным и «человечным» ответам на самые разные вопросы пользователей.

Посты на форуме Reddit включали скриншоты общения с Bing, когда чат-бот отрицал очевидные факты, запутывался в беседе или вообще был неадекватным.

В корпорации Microsoft заявили, что они еще учат искусственный интеллект отвечать более внятно и точно, поскольку Bing все еще может давать неожиданные или некорректные ответы по разным причинам.

Уже через два дня после этого Microsoft объявила об ограничении чата 50 ходами в день. «Ходом» компания называет обмен репликами, содержащий вопросы пользователя и ответ от Bing.

Аналогичные проблемы имели место у Google, когда они запустили свой собственный чат-бот Bard, но подверглись критике за ошибку, которую ИИ совершил в рекламе. Это привело к падению акций Google более чем на 7% и потери $100 млрд.

 

 

Content Protection by DMCA.com