Как стать автором
Обновить

Apple сканирует фотографии в iCloud на предмет жестокого обращения с детьми

Время на прочтение1 мин
Количество просмотров19K


Apple в постоянном режиме с помощью специального программного обеспечения проводит автоматический скрининг всего контента, загружаемого в облачный сервис iCloud пользователями. ПО анализирует данные на предмет сексуального насилия над несовершеннолетними. Об этом рассказала Джейн Хорват, старший директор Apple по вопросам конфиденциальности, на выставке CES 2020.

«Apple использует технологию сопоставления изображений, чтобы помочь найти и сообщить о материалах о сексуальном насилии над детьми. Подобно спам-фильтрам в электронной почте наши системы используют электронные подписи для поиска подозрительных изображений. Учетные записи, которые используются для хранения таких фотографий, нарушают наши условия обслуживания и подлежат незамедлительному удалению», — пояснила представитель компании.

Джейн Хорват не уточнила, как именно анализируется облачный контент пользователей в Apple. Многие IT-компании, например, Facebook, Twitter и Google, используют систему PhotoDNA от Microsoft, в которой части анализируемых изображений сравниваются с базой данных ранее идентифицированных изображений.


В самом конце 2019 года Apple внесла изменения в свою политику конфиденциальности, добавив, что может осуществлять предварительный просмотр или сканирование загруженного контента для выявления потенциально незаконного контента, в том числе контента с сексуальным насилием.

Ранее в августе 2019 года Apple приостановила программу оценки качества Siri, в которой речь пользователей прослушивали реальные люди.
Теги:
Хабы:
Если эта публикация вас вдохновила и вы хотите поддержать автора — не стесняйтесь нажать на кнопку
Всего голосов 16: ↑15 и ↓1+14
Комментарии115

Другие новости

Истории

Ближайшие события