Apple опублікувала офіційну заяву з приводу критики інструменту для пошуку на iOS заборонених фотографій з насильством над дітьми (CSAM).
Після новин про запуск технології, експерти та прості користувачі висловили стурбованість щодо конфіденційності, адже фото тепер будуть переглядати співробітники Apple.
У відповідь на це компанія заявила, що не буде сканувати всю бібліотеку фото користувачів і відкривати до них доступ владі різних держав.
«Давайте все з’ясуємо: застосування цієї технології обмежується виявленням CSAM [контенту з сексуальним насильством над дітьми], що зберігається в iCloud, і ми не будемо виконувати запити будь-якого уряду про її розширення», – йдеться в заяві.
В технології Apple буде використовуватися криптографія для порівняння зображень з відомою базою даних, наданої Національним центром зниклих без вести і експлуатованих дітей (National Center for Missing & Exploited Children).
Apple заявила, що ця система розроблялася багато років і не призначена для державного контролю за громадянами.