Apple опубликовала официальное заявление по поводу критики инструмента для поиска на iOS запрещенных фотографий с насилием над детьми (CSAM).
После новостей о запуске технологии, эксперты и простые пользователи выразили обеспокоенность насчет конфиденциальности, ведь фото теперь будут просматривать сотрудники Apple.
В ответ на это компания заявила, что не будет сканировать всю библиотеку фото пользователей и открывать к ним доступ властям различных государств.
«Давайте все проясним: применение этой технология ограничивается обнаружением CSAM [контента с сексуальным насилием над детьми], хранящихся в iCloud, и мы не будем выполнять запросы какого-либо правительства о ее расширении», — говорится в заявлении.
В технологии Apple будет использоваться криптография для сравнения изображений с известной базой данных, предоставленной Национальным центром пропавших без вести и эксплуатируемых детей (National Center for Missing & Exploited Children).
Apple заявила, что эта система разрабатывалась много лет и не предназначена для государственного контроля за гражданами.