Не все гаразд. Як Facebook модерує пости за допомогою штучного інтелекту

Не все гаразд. Як Facebook модерує пости за допомогою штучного інтелекту

«Набагато простіше створити систему штучного інтелекту, яка буде шукати соски, ніж знаходити мову ворожнечі». Так у 2018 році засновник Facebook Марк Цукерберг прокоментував рішення проблеми з недоречним або тим, що порушує стандарти Facebook, контентом.

Алгоритми штучного інтелекту Facebook для виявлення nudes дійсно працюють ефективно. З січня по березень 2020 року у Facebook видалили 39,5 млн постів та коментарів із сексуальним контентом. 99,2% було видалено автоматично, без скарг користувачів. Потім від людей надійшло 2,5 мільйона апеляцій, після чого Facebook відновив 613 000 постів та коментарів.

Але штучний інтелект не завжди настільки вправний. У алгоритмів є проблеми з історичними фото та картинами. Як повідомляє Guardian Australia, Facebook заблокував акаунт користувача за публікацію фото 1890-х років з корінними австралійцями у кайданах. Він опублікував фотографію у відповідь на заяву прем’єр-міністра Австралії про те, що в країні не було рабства. Згодом прем’єр відмовився від своїх слів.

У Facebook зізналися, що блокування фото було помилковим, і відновили зображення. При цьому соцмережа не дає опублікувати матеріал Guardian про блокування, як і історію про блокування цього матеріалу. Про це розповіли десятки читачів Guardian. Деяких з них Facebook навіть заблокував за спробу опублікувати посилання на матеріал.

Ця ситуація виявилася помилкою штучного інтелекту. Але людям, які намагалися поділитися фотографією або посиланням, здавалося, що це справа рук персоналу Facebook, що блокує посилання на ЗМІ, але при цьому залишає на місці провокаційні пости президента США Дональда Трампа.

Проблема з модерацією в Facebook очевидна, але соцмережа намагається позбутися її. З огляду на моторошні історії про те, що модератори соцмережі на аутсорсі страждають від посттравматичного стресового розладу через необхідність переглядати контент Facebook цілими днями, не дивно, що керівництво соцмережі намагається автоматизувати цей процес.

Поки Facebook використовує штучний інтелект для виявлення наготи, але коли мова заходить про hate speech, дезінформацію та інший подібний контент, алгоритми можуть давати збій. Вони все ще знаходяться на стадії розробки.

Ідея Цукерберга про блокування сосків полягає у тому, що штучному інтелекту набагато легше один раз розпізнати і потім постійно блокувати зображення без втручання людини, ніж аналізувати текст та намагатися визначити, чи є він мовою ворожнечі.

Штучний інтелект робитиме помилки, але є надія, що врешті-решт він навчиться модерувати. І цікаво буде побачити, які помилки алгоритм зробить при перевірці фото в рамках боротьби з дезінформацією, поширюваною про коронавірусну пандемію.

У квітні Facebook позначив дезінформаційними мітками 50 мільйонів постів на тему COVID-19 після фактчекінга 7,5 тисячі статей. З 1 березня соцмережа видалила рекламу 2,5 мільйонів товарів «від коронавірусу»: масок для обличчя та антисептиків.

Коли пост піддається фактчекінгу та дезінформація в ньому підтверджується, прикріплене до посту фото «запам’ятовується». Наступного разу, коли хтось поділиться таким же зображенням, до нього буде прикріплена мітка про дезінформацію, незалежно від того, чи посилається пост на матеріал.

Дезінформація все ще пробивається до Facebook — щоб зрозуміти це, досить подивитися на конспірологічні групи, присвячені пандемії. Масштаби Facebook ускладнюють пошук шкідливого контенту. Аудиторія соцмережі настільки велика і різноманітна, що алгоритмам складно визначити, який контент є прийнятним в різних культурах. Задані стандарти якості могли б ефективно працювати для меншої аудиторії, але не для 2,5 мільярда користувачів. Такого розміру число користувачів Facebook досягло на початку 2020 року. Це дорівнює третині населення планети.

За матеріалами The Guardian

Content Protection by DMCA.com