Apple удалила упоминания о системе CSAM со страницы, посвященной безопасности детей. Тем не менее, работа над функцией продолжается.
В августе Apple рассказала о планах ввести функцию борьбы с запрещенным контентом, которая заключается в сканировании библиотек фотографий iCloud пользователей на предмет материалов сексуального насилия над детьми (Child Sexual Abuse Material, CSAM). При обнаружении подозрительного контента программа отправит материалы сотрудникам компании на проверку.
Планы Apple подверглись жесткой критике со стороны многих людей и организаций, включая исследователей безопасности, Эдварда Сноудена, Electronic Frontier Foundation, бывшего начальника службы безопасности Facebook, политиков, правозащитников и даже некоторых сотрудников самой Apple. Большая часть критики обрушилась на использование опасной технологии, граничащей со слежкой. Многие также отметили ее неэффективность при выявлении изображений сексуального насилия над детьми.
Поначалу Apple пыталась развеять недоразумения и успокоить пользователей, опубликовав подробную информацию о разработке, документы и интервью с руководителями. В конечном итоге компания решила отложить развертывание CSAM.
Apple заявила, что это решение было «основано на отзывах клиентов, правозащитников, исследователей и других».
«Мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей», — это заявление появилось в сентябре на странице Apple, посвященной безопасности детей, но теперь исчезло вместе со всеми упоминаниями о CSAM.
Тем не менее, пользователи Reddit заметили, что описание проекта и техническая документация по-прежнему доступны. Официальный представитель Apple Шейн Бауэр подтвердил The Verge, что, хотя функция больше не упоминается на сайте, планы компании не изменились, что означает, что обнаружение CSAM все-таки появится в будущем.