Как стать автором
Поиск
Написать публикацию
Обновить

Apple отложила планы вводить сканирование пользовательских фотографий

Время на прочтение2 мин
Количество просмотров1.9K
imageКоллизия для тестовой версии алгоритма сканирования Apple NeuralHash. Изображения имеют одинаковый хэш 59a34eabe31910abfb06f308.

3 сентября 2021 года Apple отложила на неопределенное время планы по сканированию всех фотографий пользователей в iCloud на предмет содержания материалов о сексуальном насилии над детьми. Функции «Расширенная защита для детей» появится в iOS 15 только через несколько месяцев, после доработки ее алгоритма. Вероятно, это произойдет в следующем году, а не в конце 2021 года, как планировала компания изначально. На этот шаг Apple пошла после критики правозащитных организаций и ИБ-экспертов, а также по отзывам недовольных клиентов.

Apple уточнила, что не отказывается от своих планов по внедрению критически важной функции безопасности для защиты детей и ограничения распространения изображений с сексуальным насилием над детьми. Компания собирается изучить всю информацию по реакции общества на эту функцию и внесет необходимые улучшения в алгоритм NeuralHash. Будет ли Apple проводить консультации с кем-либо, компания не уточнила.

18 августа разработчик Асухариет Игвар обнаружил в скрытых API-интерфейсах iOS в iOS 14.3 код алгоритма NeuralHash и опубликовал его на GitHub. Код был спрятан внутри API в MobileNetV3. На то, что он принадлежит именно к NeuralHash, указывают два фактора: файлы моделей имеют тот же префикс, что и в документации Apple, и проверяемые части кода работают аналогично описанию NeuralHash от Apple.

15 августа Apple раскрыла начальный порог срабатывания триггера системы сканирования фотографий пользователей на предмет содержания материалов о сексуальном насилии над детьми, отправленных в iCloud. Эта функция для безопасности детей появится в iOS 15. Учетная запись пользователя попадет под подозрение, если на его смартфоне будет обнаружено 30 и более совпадений хэшей изображений жестокого обращения с детьми, включая детскую порнографию, с базой данных ФБР и организации «Национальный центр пропавших без вести и эксплуатируемых детей».

6 августа разработчики, эксперты по информационной безопасности, криптографы, исследователи, ученые, юристы и обычные пользователи со всего мира призывали Apple в открытом письме отказаться от планов сканировать весь личный контент на устройствах пользователей. Они считают, что это подрывает конфиденциальность пользователей в экосистеме компании и механизм работы системы сквозного шифрования. Открытое письмо уже подписали на GitHub более 9 тысяч частных лиц и организаций, в том числе Фонд свободы прессы, Нью-Йоркская публичная библиотека и экс-сотрудник ЦРУ Эдвард Сноуден.

В начале августа СМИ сообщили, что Apple начнет сканировать iPhone на предмет фото жестокого обращения с детьми. Apple признала наличие проблемы с тем, как пользователи приняли это нововведение. Компания считает, что новая система анализа фотографий на iPhone и поиск там незаконных и запрещённых изображений является частью «важной миссии» по обеспечению безопасности детей, но при этом сохраняется глубокая приверженность Apple к конфиденциальности пользователей.
Теги:
Хабы:
Всего голосов 20: ↑20 и ↓0+20
Комментарии4

Другие новости

Ближайшие события