Apple не будет проверять фото на гаджетах своих пользователей

Американская компания Apple отказалась от программы по сканированию фотографий пользователей по поводу жестокого обращения с детьми. Об этом заявил старший вице-президент Apple Крэйг Федериги в интервью газете The Wall Street Journal.

«Сексуальное насилие над детьми можно предотвратить и до того, как это произойдет. Именно с этой точки зрения мы направляем теперь наши усилия по защите детей», – отметил топ-менеджер.

Он отметил, что обеспечение безопасности данных пользователей имеет решающее значение, а Apple уделит особое внимание защите детей посредством предоставления родителям инструментов для защиты их несовершеннолетних сыновей и дочерей в мессенджере iMessage.

В разговоре с корреспондентом WSJ Джоанной Штерн Федериги также отметил, что отказ от проекта косвенно связан с введением сквозного шифрования данных на iCloud.

В Apple анонсировали сканирование личных фотографий пользователей в галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection еще в 2021 году. Предполагалось, что система заработает на всех гаджетах компании с выходом новой версии операционной системы для каждого из устройств.

Однако нововведение вызвало резкую критику правозащитников и пользователей гаджетов Apple, увидевших угрозу конфиденциальности этих людей. После этого Apple отложила использование системы на неопределенный срок.

Content Protection by DMCA.com