Как стать автором
Обновить

Apple убрала любые упоминания сканирования чужих фото на предмет детской порнографии, но планов не поменяла

Время на прочтение2 мин
Количество просмотров1.3K

Apple удалила упоминания о системе CSAM со страницы, посвященной безопасности детей. Тем не менее, работа над функцией продолжается.

В августе Apple рассказала о планах ввести функцию борьбы с запрещенным контентом, которая заключается в сканировании библиотек фотографий iCloud пользователей на предмет материалов сексуального насилия над детьми (Child Sexual Abuse Material, CSAM). При обнаружении подозрительного контента программа отправит материалы сотрудникам компании на проверку.

Планы Apple подверглись жесткой критике со стороны многих людей и организаций, включая исследователей безопасности, Эдварда Сноудена, Electronic Frontier Foundation, бывшего начальника службы безопасности Facebook, политиков, правозащитников и даже некоторых сотрудников самой Apple. Большая часть критики обрушилась на использование опасной технологии, граничащей со слежкой. Многие также отметили ее неэффективность при выявлении изображений сексуального насилия над детьми.

Поначалу Apple пыталась развеять недоразумения и успокоить пользователей, опубликовав подробную информацию о разработке, документы и интервью с руководителями. В конечном итоге компания решила отложить развертывание CSAM.

Apple заявила, что это решение было «основано на отзывах клиентов, правозащитников, исследователей и других».

«Мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей», — это заявление появилось в сентябре на странице Apple, посвященной безопасности детей, но теперь исчезло вместе со всеми упоминаниями о CSAM.

Тем не менее, пользователи Reddit заметили, что описание проекта и техническая документация по-прежнему доступны. Официальный представитель Apple Шейн Бауэр подтвердил The Verge, что, хотя функция больше не упоминается на сайте, планы компании не изменились, что означает, что обнаружение CSAM все-таки появится в будущем.

Теги:
Хабы:
Всего голосов 7: ↑7 и ↓0+7
Комментарии1

Другие новости

Истории

Работа

Ближайшие события

Конференция «IT IS CONF 2024»
Дата20 июня
Время09:00 – 19:00
Место
Екатеринбург
Summer Merge
Дата28 – 30 июня
Время11:00
Место
Ульяновская область