Як США використовують штучний інтелект без упереджень у судовій системі

Як США використовують штучний інтелект без упереджень у судовій системі

Коронакриза вдарила не тільки по бізнесу. Навесні в Нью-Йорку призупинили пілотний проект із застосування штучного інтелекту у судовій системі. Розроблений алгоритм оцінки ризиків покликаний рекомендувати ту чи іншу міру запобіжного заходу для людей, які перебувають під слідством. У проекту дві основні мети — скорочення навантаження на в’язниці та ліквідація людської упередженості при винесенні рішень.

Після перерви на півроку алгоритми знову взялися до роботи. Їх розробили з урахуванням об’ємної бази даних вже завершених справ, алгоритми радять суддям, чи відпустити людини, щодо якої проводять слідчі дії, під заставу, або позбавити волі до суду.

Історія з судовим штучним інтелектом почалася у 2014 році. Тоді новообраний нью-йоркський мер-демократ Білл де Блазіо пообіцяв місту реформи в різних сферах, зокрема в судовій. Серед обіцянок мера — скорочення навантажень на пенітенціарну систему.

«Там містилося занадто багато людей, які вчинили навіть незначні злочини», — зазначила виданню WSJ глава слідчого управління Нью-Йорка Елізабет Глейзер. За її словами, однією з причин цього був високий консерватизм суддів.

У 2017 році слідче управління дало двом незалежним одна від одної дослідницьким компаніям доступ до бази даних по більш ніж 1,6 мільйона кримінальних справ 2009-2015 років. У них були дані про людей, які перебували під слідством — їх вік, стать, місце проживання, расова та етнічна приналежність, і злочини, в яких їх підозрювали. Крім того, база даних давала можливість скласти картину поведінки підозрюваного. У цьому дослідникам допомагали деталі — наприклад, чи добровільно підозрюваний назвав поліцейським при затриманні свою адресу та номер телефону. Такі люди також добровільно з’являлися до суду, якщо перед цим їх відпустили під заставу.

Аналіз сотень тисяч справ дав можливість обом дослідницьким компаніям скласти десятки моделей поведінки підозрюваних. Після чого компанії вирішили працювати разом. У ході співпраці дослідники виключили більшість моделей поведінки, залишивши в основному ті, що збіглися.

Результатом роботи стало створення системи, що нагадує давно працюючий у США рейтинг оцінки кредитоспроможності фізичних осіб. Спочатку штучний інтелект мав помітно скоротити суддівську упередженість при прийнятті рішень, пов’язану з расовою або етнічною приналежністю підслідних. Колишні проекти, які розробляли до 2013 року, радили відпускати під заставу 30,8% чорних підозрюваних проти близько 40% білих, співвідношення у новій розробці становить 86,7% чорних та 90,7% латиноамериканців проти 89,7% білих. Так расовий показник був зведений до нуля.

З дати запуску, листопаду 2019-го, по березень 2020-го, коли робота системи була зупинена через локдаун, штучний інтелект порекомендував звільнити під заставу 83,9% чорних, 83,5% білих та 85,8% латиноамериканців. Робота штучного інтелекту підтвердила припущення про те, що люди з більш високим «рейтингом» значно частіше відвідують суд після звільнення під заставу.

Ця система — не перша подібна в історії американської судової системи. Але перша, яку можна назвати вдалою. У 2014 році в штаті Нью-Джерсі запустили пілотний проект, який знизив навантаження на в’язниці майже вдвічі. Але ця система не впоралася з расовим нерівністю — чорні ставали її «жертвами» у 50% випадків проти 30% у білих.

У червні 2019 роки команда з 27 вчених з основних університетів США — Гарварда, Колумбійського університету, Прінстона та Массачусетського технологічного інституту, опублікували відкритий лист з побоюваннями щодо неточності алгоритмів, які оцінюють ризики щодо підслідних. Вчені вважають, що дані, які аналізує алгоритм, не можна назвати нейтральним способом оцінки поведінки можливого злочинця.

У листі вчені підкреслюють, що алгоритми оцінки ризиків, що містять історичні відомості з самого початку спотвореним ставленням до расової та етнічної ідентичності, видаватимуть спотворені результати. Вчені «настійно рекомендували» почати реформи іншого роду. На їхню думку, проблему расової нерівності в штучному інтелекті для судової системи не можна вирішити технічними засобами.

На початку 2020 року NGO Pretrial Justice Institute, ініціатива-співзасновник проекту в Нью-Джерсі, публічно визнала свої помилки та назвала свої ж минулі прогнози щодо оцінки штучним інтелектом неточними. Неурядова організація визнала, що досудова оцінка ризиків за допомогою алгоритмів може бути неточною, оскільки ґрунтується на історичних даних, що включають расизм. І ці методи лише погіршують нерівність.

За матеріалами The Wall Street Journal

Content Protection by DMCA.com