Apple не перевірятиме фото на гаджетах своїх користувачів

Американська компанія Apple відмовилася від програми зі сканування фотографій користувачів з приводу жорстокого поводження з дітьми. Про це заявив старший віце-президент Apple Крейг Федерігі в інтерв’ю газеті The Wall Street Journal.

«Сексуальному насильству над дітьми можна запобігти й до того, як це станеться. Саме з цього погляду ми спрямовуємо тепер наші зусилля щодо захисту дітей», – зазначив топ-менеджер.

Він зазначив, що забезпечення безпеки даних користувачів має вирішальне значення, а Apple приділить особливу увагу захисту дітей через надання батькам інструментів для захисту їхніх неповнолітніх синів та дочок у месенджері iMessage.

У розмові з кореспондентом WSJ Джоанною Штерн Федерігі також зазначив, що відмова від проекту побічно пов’язана із запровадженням наскрізного шифрування даних на iCloud.

У Apple анонсували сканування особистих фотографій користувачів у галереях iCloud Photos за допомогою системи Child Sexual Abuse Material (CSAM) Detection ще 2021 року. Передбачалося, що система почне працювати на всіх гаджетах компанії з виходом нової версії операційної системи для кожного з пристроїв.

Проте нововведення викликало різку критику правозахисників та користувачів гаджетів Apple, які побачили загрозу конфіденційності цих людей. Після цього Apple відклала використання системи на невизначений термін.