Как стать автором
Обновить

Apple начнет сканировать iPhone на предмет фото жестокого обращения с детьми

Время на прочтение3 мин
Количество просмотров10K
Всего голосов 13: ↑11 и ↓2+16
Комментарии105

Комментарии 105

Сразу возник вопрос: а какой смысл в принципе делать или хранить такие фото?

НЛО прилетело и опубликовало эту надпись здесь

Всё-таки "жестокое обращение" это не совсем тоже самое что и детская порнография.


И лично мне очень интересно по каким признакам его собираются определять. По наличию синяков? Так я в детстве весь в синяках ходил хотя родители меня ни разу даже пальцем не тронули. То есть банально контактный вид спорта и набор синяков для ребёнка гарантирован. А потом доказывай в органах ювенальной юстиции что ты не верблюд...

То есть если я всё правильно понимаю, то мы имеем вот такое:


Речь не идет о сканировании всех ваших фотографий, которые хранятся на устройстве. Есть база хешей уже известных фотографий, содержащих противоправный контент, и будут сравниваться именно эти хеши.

И получается человеку надо именно скачать откуда-то какую-то противоправную фотку чтобы у него появились проблемы. А сам он при этом может делать что угодно с детьми и держать у себя эти фотки и система не среагирует?


Я бы сказал что эта система скорее подходит для того чтобы правообладатели боролись с пиратским контентом. А в контексте обнаружения жестокого обращения с детьми она практически бессмыслена.

А в контексте обнаружения жестокого обращения с детьми она практически бессмыслена.

Жестоким обращением в мировой практике является и хранение детской порнографии. Считается, что каждый такой случай - это акт эксплуатации запечатлённой жертвы.

Эта система предназначена именно для выявления уже известной детской порнографии, хранение которой во многих странах мира является уголовным преступлением.

Можно обоснованно предположить, что это компромисс между Apple и властями, которые иначе просто не дадут реализовать e2e-шифрование резервных копий (да, резервные копии iCloud до сих пор не используют e2e-шифрование).

В таком случае я бы сказал что данная новость на хабре, и особенно её заголовок, очень сильно вводят в заблуждение. Как минимум меня уж точно :)

Никогда такого не было и вот опять.

а кто нибудь прояснит, как можно изображения сравнивать по хэшу? ты одно и то же изображение перекодировал тем же алгоритмом в другой битрейт - и хэш стал другой. я уж не говорю - про фотографию фотографии - где еще наложился шум, геометрическое искажение и цветовая деформация?

Как я понимаю там не сравнивают изображения в том виде как вы это понимаете. Там сравнивают конкретные файлы. Ну если верить ссылке.

См. "Перцептивные хэш-алгоритмы", на хабре статья есть, но очень уж старая... https://habr.com/ru/post/120562/

У меня есть фото голых детей. Как моих детей, так и меня самого в детском возрасте и даже фото голых родителей моих, когда они детьми были. Меня теперь посадят или начнут принудительно лечить отклонения?

Если Ваши фотографии не попали в базу американского национального центра пропавших без вести и эксплуатируемых детей, то ничего Вам не будет.
У меня есть фото голых детей. Как моих детей, так и меня самого в детском возрасте и даже фото голых родителей моих, когда они детьми были.

вы отстали от жизни ) почитайте УК, сейчас такие фотки считается за ЦП
Под материалами и предметами с порнографическими изображениями несовершеннолетних в настоящей статье и статье 242.2 настоящего Кодекса понимаются материалы и предметы, содержащие любое изображение или описание в сексуальных целях:
полностью или частично обнаженных половых органов несовершеннолетнего;
несовершеннолетнего, совершающего либо имитирующего половое сношение или иные действия сексуального характера;
полового сношения или иных действий сексуального характера, совершаемых в отношении несовершеннолетнего или с его участием;
совершеннолетнего лица, изображающего несовершеннолетнего, совершающего либо имитирующего половое сношение или иные действия сексуального характера.

По мне так должен бы возникать вопрос "а не уху ели ли Apple сканировать личные файлы пользователей?". Легко прикрыться детьми, их "защитой, благом и вообще", но это - чистой воды тотальная слежка и презумпция виновности.

А у меня другой вопрос: то есть, уже существует механизм залива на телефоны без разрешения пользователя. Про обновления, замечу, в статье ни слова. Способ доставки уже не обсуждается, обсуждается реакция. Нда…

Залива, простите, чего?

Приложения без участия пользователя

Этот способ называется «автоматическое обновление».
Ваш кэп.

Это скорее не обновление а просто установка приложения

Если приложение идет, как часть ОС — то именно обновление. Механизм старый и понятный.
Я не пользую технику от Apple, поэтому не знаю, насколько часты и прозрачны их минорные обновления и багофиксы. Если оно происходит примерно как в десятке (которую я тоже не пользую, но больше наслышан), то там между делом прозрачно для пользователя можно установить хоть слона мытого.

Та даже на андроиде появлялось nearby share без обновлений

Без обновлений? Гугл сервисы обновляются по несколько раз в месяц.

У яблока это будет в одной из прошивок.

У меня выключены авто обновления

У меня тоже выключены. И прошивка полностью руками пересобрана без части гугл-мусора (google search, music, books, play games и т.д.), телеметрия выключена, где можно.

Тем не менее, google play store я оставил, и пакеты
com.google.android.gms
com.android.vending
обновлены 2021-08-04, хотя я никаких разрешений не давал.

Прекрасно но альтернатив нет(

Ни слова об автообновлении не говорено. + я могу отказаться обновляться, а они хотят. Их хотелки более приоритетные для их оборудования, чем мои, имхо.
До этого, я позволю себе напомнить, некоторое время назад (запись в вк за 4 июн 2020, в одной из групп), было:
Во время массовых беспорядков в США, мародеры разграбили Apple Store. Все украденные iPhone компания Apple заблокировала и вывела на экран просьбу вернуть устройство обратно в магазин с предупреждением, что местоположение гаджета отслеживается и данные могут быть переданы властям.

Судя по всему, в смартфоны Apple изначально встроена система, которая блокирует работу устройств при их прохождении «мимо кассы» и отдалении от магазина.

Про обновления тут речей не шло. Поэтому есть о чем задуматься.
Вы можете отказаться обновляться, но их хотелки приоритетнее. Но про обновления речи не шло. Но украденные айфоны заблокировали.

Я ничего не понял.
Ну, тогда ой. Потом поймете.

Если вы про логику сверки - она прилетит с iOS 15. Если вы про базу хешей - она, да, будет периодически обновляться с серверов Apple.

я так понимаю, этот вопрос нужно задавать тем, кто делает и хранит.

какой смысл в принципе делать или хранить такие фото

Какие «такие»? Которые некая проприетарная «neuralMatch» которая ещё и непредсказуемым образом обновляется извне, сочтёт завтра неправильными? Странное сочетание параметров в нейронке и ваш аккаунт на Apple, где куплено музыки на тысячу долларов, превращается в тыкву? А ещё некоторые разработчики используют учётки Apple чтоб зарабатывать на хлеб, в том числе и своим детям. Прошлогодние баталии вокруг Трампа показали как быстро в Интернете меняются мнения что такое хорошо и что такое плохо.

Было во времена Советского Союза такое понятие — «это не телефонный разговор», и казалось что кануло в прошлое и никогда уже не вернётся. Добро пожаловать в дивный новый мир!

Прошлогодние баталии вокруг Трампа показали как быстро в Интернете меняются мнения что такое хорошо и что такое плохо.

Может, у вас ещё и мемчики про негров на телефоне хранятся? Рискуете, гражданин. Сами знаете, как быстро базы обновляются. А то что - инструмент-то есть уже, почему бы и не применить для хорошего дела.

Там еще смешнее. Если ДЕЛАТЬ новые — вполне может быть что не сдектит ничего.
Судя по статья в ArsTechnica и ссылкам на документы Apple — там взята база таких фото и на ней натренирована нейросеть. Причем чтобы возникли проблемы — надо много таких фото загрузить в iCloud Photos. Если НЕ грузить — проблемы не будет.
И да, Google давно именно это и делает (только без хитрых схем с клиентскими хешами и "надо много") — пример — https://www.theverge.com/2014/8/5/5970141/how-google-scans-your-gmail-for-child-porn
Так что решение Apple как минимум не хуже чем то что гугл творит.
Другое дело что такое лучше вообще прикрыть.
А то дальше что — РКН сделает реестр облачных сервисов фотографий и потребует проверять там хеши картинок из реестра запрещенных в РФ картинок (где разумеется будет только опасная для детей информация картинки с deviantart и из аниме ) и сообщать?
Яндекс возьмет под козырек.
Гугл будут штрафовать (а потом они может и выполнят

Фото в iCloud сканируются уже давно, тут дело именно в том, что сканироваться будут фотографии на пользовательском устройстве.

Что будет если такую фотку или несколько отправить человеку мессенжером, например с телеграмма? Она же у него сохранится локально на телефоне. Как раз по созданию нового файла триггернется проверка.

Человек увидит, удалит, но как я понимаю поздно уже будет, галочка "предполагаемый педофил" уже поставлена и привет проверка, блокировка, менты..

Можно много людей подставить таким образом, это лучше чем наркотики подбрасывать.

Ну, Эпл заявляет, что сканироваться будут только фото перед отправкой в iCloud, если фоточки телеграма туда не отправляются - человек, если верить Эплу, в безопасности. Только вот у меня верить Эплу на слово нет никакого желания, а механизмов проверки и контроля Эпл не предоставляет.

А потом ещё дальше больше разных групп, за которыми следить надо и так далее до борьбы с любым инакомыслием.

Да. Подобные инициативы корпораций точно не нужно поощрять. Вполне вероятно, что мы увидим больше Open Source решений от маленьких компаний по типу Pine64 в ближайшее время.

В вашем смартфоне преобладают фото белых гетеросексуальных мужчин и женщин. Вы расист и гомофоб... Мы сообщили, куда следует.

Блокировки в Рунете тоже сначала на благо детей проталкивались, беспроигрышная тема.

НЛО прилетело и опубликовало эту надпись здесь
Прямо киберпанк какой-то. Мегакорпорации навязывают всем свои правила и законы.
> Вводимый механизм правозащитники считают новым опасным инструментом в руках тоталитарных режимов

А, то есть в руках демократических режимов это нормальный, совершенно безопасный инструмент? Ясно-понятно.

Надо понимать что это другое.
Вы тут не путайте тоталитарную слежку с демократической заботой о детях, ладно?
Да и вообще, Apple — частная компания, что хочет то и делает, не нравится — не покупайте.


</ sarcasm>

не нравится — не покупайте

А вот это уже вполне себе здравая мысль, да грустно вот, что, как говорится, пипл хавает. Мы тут возмущаемся, а большинству плевать, что там куда грузится — интернет безлимитный, производительности хватает чтобы в фоне прогнать все фоточки и посчитать их хэши, никто ничего и не заметит.

не нравится — не покупайте.

Так и делаю :)

Гугл - имеем целый сайт где описано как мы сканируем контент на всех наших сервисах с конкретной статистикой. В 2014 еще были новости как ловили педофилов.
Пользователи - <ничего не замечают>

Apple - будем сканировать как в Гугле
Пользователи - <ну все, Apple на костер>

Google сканирует фото на моем телефоне с андройдом?

Пруфы?

На телефоне с андройдом — нет, и даже на телефоне с андроидом нет. В облаках, куда попадают фотки с телефонов на андройдах и андроидах — да.
Почти так же и у Эпл — фотографии будут сравниваться с базой педофильных фотографий перед отправкой в облако. Как у Гугла, только часть обработки переложена с сервера на телефон.

>В облаках, куда попадают фотки с телефонов на андройдах и андроидах — да.

Они туда не попадают, если их туда не заливать.

>Как у Гугла, только часть обработки переложена с сервера на телефон.

Тут есть принципиалная разница, что они свои щупальца засовывают в телефон пользователя. Они могут у себя сканировать, чтобы не хранить на своих серверах контент.

Они туда не попадают, если их туда не заливать.

Совершенно верно. Как и у Эпла.

При этом у Эпла теперь будут сканироваться даже те фото, которые в облака не попадают. В отличие от.

Они будут сканироваться перед тем как отправиться в облако, в процессе подготовки к этому.

Окей, перефразирую: теперь нам придется верить Эплу на слово, что механизм, имеющий возможность сканировать что угодно на предмет чего угодно на девайсе пользователя, будет сканировать только фото и только перед отправкой в облако.

Окей, перефразирую: теперь нам придется верить Эплу на слово

Вам можно и не верить. Если яблоко такое сделает (оно в контексте приватности никогда не врало и не делало как-то иначе, а вот Гугл со своим оффлайн-шпионажем и штрафами дело другое), репорт не будет иметь юридической силы, так как компания делала действия, не поставив в известность пользователей (клиентов). Дело даже не сможет дойти до суда.

Они будут сканироваться перед тем как отправиться в облако, в процессе подготовки к этому.
А где это написано? В статье я вижу
Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений


upd. нашёл ниже цитаты на заявление от apple
Они туда не попадают, если их туда не заливать.
Как минимум пересылка через мессенджеры тоже проверяется.

Другими словами яблоко сканирует только в том случае, если пользователь хочет пересылать фото через сервера яблока. Параноики могут не пользоваться сервисами яблока как и сервисами Гугла, тогда никто нигде ничего не будет сканировать. Тревогу и факелы можно отменять.

только часть обработки переложена с сервера на телефон

Это и есть ключевое отличие
Локальная обработка контента с использованием машинного обучения с загрузкой для ручной обработки?

"Как в Гугле" (фото, загруженные в облако) Эпл сканирует уже давно. А вот анальный зонд на устройстве пользователя - это новое изобретение, до которого пока даже Гугл не додумался.

ну давайте уже вешайте камеры в каждую квартиру, система глубокого анального наблюдения. В 8 утра еще дрыхнешь в кровате, а не за рабочим местом - добровольно-принудительное поднятие. Работаешь не эффективно, отвлекаешься на котиков - биг дата тебя уволила. Увидел краем глаза в интернете экстремиский материал и твое лицо не выразило достаточного осуждение - сгенерировался протокол и отправился в органы.

Система будет постоянно сравнивать фотографии на iPhone и в облаке iCloud с базой из 200 тысяч собранных правозащитниками изображений жестокого обращения с детьми. Каждое фото будет отмечаться, и, если наберется определенное число подозрительных снимков, Apple расшифрует эти файлы для проверки специалистами-людьми.
Кажется, до такого уровня шпионажа даже Google с его таргетированной рекламой ещё далеко. Какую ОС теперь на телефон ставить? JingOS?

PedoOS.

А если серьёзно, то в новости очень нагнетено. Сверка будет производиться перед загрузкой изображений в облако iCloud. Крупные облачные хранилища (Dropbox, Onedrive, GDrive, и даже Discord) уже давно используют PhotoDNA, но почему-то к ним претензий у комментаторов нет, а вот клятая эппл ррря.

Серьёзно, если вы не хотите, чтобы вашу детскую порнографию (а там ищется уже известный контент, признанный детским порно, то есть, не частные фото вашего голозадого отпрыска) обнаружили, а вас посадили, то, наверное, не слишком умно открыто заливать её в облака?

Вы не поняли, искать будут в самом телефоне, а не в iCloud…
Ну и сегодня это сверка по хэшам, завтра — анализ ИИ. Послезавтра не только ЦП, и не только iPhone…
Вам неужели нравится, когда охранник в супермаркете потрошит вашу сумку, пусть даже вы туда ничего крамольного на клали? :))

Искать будут в телефоне перед заливкой в iCloud.

Ну и сегодня это сверка по хэшам, завтра — анализ ИИ. Послезавтра не только ЦП, и не только iPhone…

Сегодня вы занимаетесь сексом по обоюдному согласию, а завтра начнёте насиловать. Давайте вас ошельмуем уже сегодня. Я помню времена, когда это было анекдотом, а сейчас это уже всерьёз выдают как аргумент.

сегодня это сверка по хэшам, завтра — анализ ИИ
Завтра уже наступило. Я не знаю, кто выдумал «сверку по хэшам», но в разных источниках, в том числе и в этом посте, говорится о некоем «neuralMatch», что по названию уже не похоже на алгоритм хэширования.
Искать будут в телефоне перед заливкой в iCloud.
Можете привести источник? В статье написано, что сканировать будут все фотографии на устройстве.

То же самое пишет theguardian.com: Apple will scan photo libraries stored on iPhones in the US for known images of child sexual abuse

upd. нашёл ниже цитаты на заявление от apple

"По хэшам" - это чтобы народ расслабился, на самом деле устройства на iOS уже давно анализируют фото, находят на них объекты, тэгируют и систематизируют фото. Включая распознавание лиц и текстов.

Да, это удобно - набрав "Вася Пупкин", можно получить все фото с ним (если ранее отметили, что этот человек на фото - Вася). Или по слову "козел" - получить натурально все фото с козлами. Или "ресторан" - все фото, похожие на ресторанную обстановку.

Но, судя по этой статье, этот инструмент можно использовать и в другую сторону - находить злых обидчиков детей и котиков, а также тех, у кого на телефоне есть фото нужных людей или интересных документов... Да уж...

И все папы идут строем в тюрьму ;) (фото из мемов "с папой веселее").

Большинство ограничения прав и свобод проталкиваются под лозунгом защиты детей...

Я сначала, по наивности, думал что это только в тоталитарных режимах такое, ан нет - и вполне демократические этим тоже балуются...

Да, очень удобно - и никто против не скажет, а иначе - "Вы что - за педофилию/порнографию/ жестокое обращение (нужное подчеркнуть) с детьми?!"

и никто против не скажет

Скажут. И уже говорят.

Очередное насилие ученого над редактором хабра...

  1. Не жестокого обращения, а детской порнографии (сексуального контента с участием детей).

  2. Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.

Источник?
Не жестокого обращения, а детской порнографии (сексуального контента с участием детей).
Везде видел формулировку «child abuse», в буквальном переводе «злоупотребление детьми». Трактовать можно достаточно широко.
Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
Про хэши, кажется, уже на хабре додумали. Сама технология называется «neuralMatch», что сильно не похоже на название технологии сравнения хэшей.
Источник?

www.apple.com/child-safety, www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf
Сама технология называется «neuralMatch», что сильно не похоже на название технологии сравнения хэшей.

Тем не менее, это остается сравнением хэшей, просто хэши не тупые типа MD5. Разным изображениям будут соответствовать разные хэши. А вот одному и тому же изображению — один хэш, даже если это изображение в другом формате, в другом разрешении или в другой цветовой палитре.
Offtop
Тем не менее, это остается сравнением хэшей, просто хэши не тупые типа MD5.
«Умные хэши» в «умном телефоне» в «умном доме»…
Разным изображениям будут соответствовать разные хэши. А вот одному и тому же изображению — один хэш, даже если это изображение в другом формате, в другом разрешении или в другой цветовой палитре.
Вы сейчас магию описываете. Что по-Вашему «разные изображения»? Если изображение обрезать, оно станет другим, или останется «одним и тем же»? А если поверх изображения что-то нарисовать?
Тут в комментариях уже приводили ссылку на статью, описывающую как работают перцептивные хэши.
статью, описывающую как работают перцептивные хэши
Да, но именно перцептивные хэши, во многих случаях, будут разными для оригинального изображения и изображения «в другой цветовой палитре». Перцептивные хэши, в отличие от криптографических (которые Вы назвали «тупыми»), допускают сравнение для нахождения похожих изображений, и именно этого ответа я от Вас добивался.
Возможность такого сравнения побочным эффектом предоставляет возможность по хэшу создать изображение-коллизию (об этом уже был комментарий), хэш которого будет совпадать с оригинальным, при этом само изображение в некоторой степени будет похоже на оригинальное, это обусловлено самим алгоритмом. Чем более точным будет алгоритм, тем больше он будет содержать информации об оригинале изображения, тем ближе будет к оригиналу изображение-коллизия. Чем менее точным будет алгоритм, тем больше Ваших фото посмотрит «специалист Apple» из-за подозрений алгоритма.

Так я отвечал на Ваш второй пункт:
2. Не сканировать все фото в поисках признаков этой самое порнографии, а сравнивать хэши фотографий при загрузке с телефона в облако с хешами из базы известных педофильных фотографий.
Перцептивные хэши нацелены на уменьшение необходимого объёма информации для сравнения двух изображений, у них нет цели безвозвратно сокрыть оригинал, как у криптографических хэшей, поэтому сравнение именно перцептивных хэшей, а не изображений, не может быть сильным аргументом в пользу конфиденциальности.

Более того, по Вашей ссылке в технических деталях Apple утверждают, что до алгоритма ещё и нейронку там зачем-то используют, что выглядит ещё сомнительнее.
НЛО прилетело и опубликовало эту надпись здесь
Да, neuralMatch — это вся система целиком. Но основана она на хэшах — neuralHash.

А потом на лица подозреваемых перейдут?

Когда-то говорили что на Хабре люди с хорошим логическим мышлением, но комментарии подтверждают обратное - в пресс-релизе сказано, что проверки фото будут проводиться перед отправкой в iCloud, то есть есть улавливаете разницу?

Но зачем читать оригинальные источники, если можно сразу накинуть на вентилятор.

To help address this, new technology in iOS and iPadOS* will allow Apple to detect known CSAM images stored in iCloud Photos.
...
Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. The device creates a cryptographic safety voucher that encodes the match result along with additional encrypted data about the image. This voucher is uploaded to iCloud Photos along with the image.

The Messages app will add new tools to warn children and their parents when receiving or sending sexually explicit photos.

When receiving this type of content, the photo will be blurred and the child will be warned, presented with helpful resources, and reassured it is okay if they do not want to view this photo. As an additional precaution, the child can also be told that, to make sure they are safe, their parents will get a message if they do view it. Similar protections are available if a child attempts to send sexually explicit photos. The child will be warned before the photo is sent, and the parents can receive a message if the child chooses to send it.

Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit. The feature is designed so that Apple does not get access to the messages.
Судя по упоминанию машинного обучения, а так же анализе отправляемых файлов, становится понятно, что это не просто список хешей, загружаемых на устройство.
Using another technology called threshold secret sharing, the system ensures the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content. The threshold is set to provide an extremely high level of accuracy and ensures less than a one in one trillion chance per year of incorrectly flagging a given account.

Only when the threshold is exceeded does the cryptographic technology allow Apple to interpret the contents of the safety vouchers associated with the matching CSAM images. Apple then manually reviews each report to confirm there is a match, disables the user’s account, and sends a report to NCMEC. If a user feels their account has been mistakenly flagged they can file an appeal to have their account reinstated.
А здесь прямо говорится, что при превышении некоего показателя, система в штатном режиме будет загружать файлы яблоку, чтобы там сотрудники в ручном режиме просматривали чужие данные.

А вот описание вполне конкретного события, когда пострадавший и обвинённый был одним лицом.

становится понятно, что это не просто список хешей, загружаемых на устройство

Так это разный функционал в разных местах. Вот пдфка с техническими деталями.

Кстати понятна позиция почему не сканируют на сервере:

The system is significantly more privacy-preserving than cloud-based scanning, as it only reports users who have a collection of known CSAM stored in iCloud Photos.

НЛО прилетело и опубликовало эту надпись здесь

То, как Apple будет использовать эту технологию - иррелевантно, ибо в любой момент может быть изменено. Важно то, что теперь у Apple будет техническая (и юридическая) возможность сканировать контент на устройстве пользователя. Последующая загрузка контента в iCloud не является техническим требованием: сам матчинг происходит на конечном устройстве, потому в случае положительного матча ничего не мешает айфону отправить подозрительный контент напрямую товарищу майору.

То, как Apple будет использовать эту технологию - иррелевантно, ибо в любой момент может быть изменено. Важно то, что теперь у Apple будет техническая (и юридическая) возможность сканировать контент на устройстве пользователя.

Такой уровень аргументов можно употребить вообще к кому угодно. Гугол сканирует контент (фото, видео, ссылки и т.д.) вообще на всех своих сервисах серверно, так как имеет доступ. В Яблока нету доступа к вашим айклауд фото, если они не были задетекчены по педо-базе и не перешли некоторый "порог". То есть это максимальный уровень приватности в данной ситуации - Яблоко серверно не сканирует ваш контент и не собирается этого делать, иначе делали бы как Гугл последние 10 лет.

Последующая загрузка контента в iCloud не является техническим требованием: сам матчинг происходит на конечном устройстве, потому в случае положительного матча ничего не мешает айфону отправить подозрительный контент напрямую товарищу майору.

Это лишь выдумки. Яблоко не сканирует фото, если они не отправляются в айклауд вообще никак. Это четко написано в документах, прикрепленных к пресс-релизу. Если они будут делать иначе - это не будет иметь никакой юридической силы в США. Гадать на кофейной гущи что они могут что-то там поменять в любой момент уровень детсада, не более. Им тогда проще делать как в Гугле и вообще не париться, но они пошли другим путем, поэтому их и уважают за максимальную приватность забугром.

Apple уже сканирует фото в iCloud на предмет цп, пример статьи. То есть в этом плане ничем принципиально не отличается от Гугла. Соответственно, в плане прайваси этот ход ничего не добавляет, а вот в плане возможностей абьюза - добавляет очень многое.

Apple уже сканирует фото в iCloud на предмет цп

Ваша ссылка ссылается на статью в The Telegraph, где в низу пишут что никаких фактов про iCloud нет. То есть это просто догадки журналистов в стиле желтой прессы:

Update January 9, 2020

This story originally said Apple screens photos when they are uploaded to iCloud, Apple's cloud storage service. Ms Horvath and Apple's disclaimer did not mention iCloud, and the company has not specified how it screens material, saying this information could help criminals.

факты из вашей ссылки:
1. Jane Horvath, Apple’s chief privacy officer, said at a tech conference that the company uses screening technology to look for the illegal images. The company says it disables accounts if Apple finds evidence of child exploitation material, although it does not specify how it discovers it
2. Speaking at the Consumer Electronics Show in Las Vegas, Ms Horvath said removing encryption was “not the way we’re solving these issues” but added: “We have started, we are, utilising some technologies to help screen for child sexual abuse material.”
И, вишенка на торте:
3. Apple made a change to its privacy policy last year that said it may scan images for child abuse material

Т.е. компания хочет на двух стульях усидеть: клиентам сказать, что она всё шифрует. Моралфагам сказать, что цп пресекается. И тумана побольше напустить, мол, мы вам не скажем, как же это всё на самом деле работает.

Замечу, что это публикация января 2020 года, когда о детектировании порнушки на устройстве пользователя и речи не шло, поэтому iCloud там подразумевается (или какая ваша интерпретация?)

поэтому iCloud там подразумевается (или какая ваша интерпретация?)

Сканируется iCloud Mail, так как письма на серваки приходят незашифрованными (есть статья как они уже передавали педофилов в руки правосудия). Там и скрининг входящего на сервер контента, а iCloud Photo на стороне сервера как не сканировали из-за приватности, так и не планируют (о чем сказано в техническом документе, прикрепленном к пресс-релизу).

Похоже, так и есть. В истории 2019-2020 года всякие СМИ типа Wired нагнетают про сканирование фотографий, приплетают всякие хеши и PhotoDNA, а если перейти к источникам, кроме проверки e-mail ничего не находится.

в пресс-релизе сказано, что проверки фото будут проводиться перед отправкой в iCloud,

Ключевые слова - перед отправкой, т.е. таки еще на телефоне пациента.

это не будет иметь никакой юридической силы в США

Это не может использоваться в суде, но может быть использовано для того, чтобы обратить более пристальное внимание в поисках улик, уже имеющих юридическую силу.

Страшно то, что данная система легко атакуется — то есть вам отправляют безобидную, с виду, фотографию, хэш которой будет совпадать с хэшем из базы — и всё, за вами выехали.

Эту фотку еще нужно сохранить в галерею, а не просто получить в каком-то вацапе/MMS, где все данные лежат в контексте песочницы программы. Да и что-то не видно новостей про Гугл, который сканирует все фотки (и весь остальной контент) серверно. Пользователей Андроида еще легче "атаковать".

а не просто получить в каком-то вацапе/MMS, где все данные лежат в контексте песочницы программы.

Из FAQ:
By default, photos and videos you receive through WhatsApp will automatically be saved in the WhatsApp folder of your iPhone's Photos.

Помимо этого, это может быть банально какое-нибудь расписание, которое вы сохраните не задумываясь, даже если автосохранение выключено. Ну а принимая во внимание софт а-ля Pegasus, позволяющий удаленно загружать любую информацию без ведома пользователя, становится совсем плохо.
Да и что-то не видно новостей про Гугл, который сканирует все фотки (и весь остальной контент) серверно. Пользователей Андроида еще легче «атаковать».

Всё таки сканирование облачных файлов и сканирование на устройстве это две большие разницы. Обратите внимание, что даже для Гугла и Майкрософта, оффлайн сканирование пользовательских данных является насколько сильным нарушением приватности, что они не смогли себе это позволить. В этом смысле иронично, что такой шаг был сделан компанией, всё продвигающей себя как privacy-friendly.

Отдельно добавлю, что в силу специфики технологии, совпадения ищутся по отдельным элементам фотографии. Есть ли у вас уверенность, что ваше ню-селфи не будет расценена нейронкой как ЦП?

С подобными проприетарным черными ящиками от Apple, мы буквально получаем тотальную слежку, к которой столько лет стремились спецслужбы с появлением персональной криптографии. Нет никакой уверенности, что следующий апдейт на начнёт выявлять фото содержащие, например, копирайт или порочащие Компартию Китая материалы. Причем понимают это даже в самом Apple.

В качестве дополнительного материала рекомендую ознакомится с тредом Matthew Green, криптографа из Johns Hopkins.

Всё таки сканирование облачных файлов и сканирование на устройстве это две большие разницы. Обратите внимание, что даже для Гугла и Майкрософта, оффлайн сканирование пользовательских данных является насколько сильным нарушением приватности, что они не смогли себе это позволить.

В этом смысле иронично, что такой шаг был сделан компанией, всё продвигающей себя как privacy-friendly

Как раз все с точностью до наоборот. Эппл не трогает ваши данные на своих серверах из-за уважения к приватности, когда Гугл и Майкрософт сканируют все подряд на своих серверах. То есть если человек понимает разницу между этими двумя подходами и для него главное это приватность, то понятно что он выберет яблоко (как и рекомендовал еще много лет назад Сноуден).

По вотсапу - так же логи хранятся в айклауде по умолчанию, значит следователи просто посмотрят что фото пришло от левого контакта и было автоматически сохранено - нету умысла, нету дела.

Есть ли у вас уверенность, что ваше ню-селфи не будет расценена нейронкой как ЦП?

Гугл делает эти сканы годами, что-то не видно новостей о false positives. Яблоко четко сказало какая точность:

The system is very accurate, with an extremely low error rate of less than one in one trillion account per year.

То есть если даже попали на ошибку, еще нужно пройти "порог" (иметь очень много разных фото), чтобы работники эпл технически смогли расшифровать их и сравнить с экземплярами в БД.

С подобными проприетарным черными ящиками от Apple, мы буквально получаем тотальную слежку

Нету никакой слежки. Поэтому правительство США использовало инструменты хакерских компаний для взлома айфонов за огромные деньги. Реальная слежка есть в Гугла и ведется разбирательство:

Arizona Attorney General Mark Brnovich sued Google on Wednesday, alleging the tech giant violated its users’ privacy by collecting information about their whereabouts even if they had turned off such digital tracking.

В качестве дополнительного материала рекомендую ознакомится с тредом Matthew Green, криптографа из Johns Hopkins.

В треде только параноидальные домыслы автора.

Как раз все с точностью до наоборот. Эппл не трогает ваши данные на своих серверах из-за уважения к приватности, когда Гугл и Майкрософт сканируют все подряд на своих серверах. То есть если человек понимает разницу между этими двумя подходами и для него главное это приватность, то понятно что он выберет яблоко (как и рекомендовал еще много лет назад Сноуден).

Во-первых, а вы статью то читали? Apple собирается сканировать файлы на самих девайсах, без возможности opt-out, что существенно отличается от добровольной загрузки файлов в облако.
Во-вторых, Apple отказалась от e2e в iCloud как раз для возможности сканирования пользовательских файлов под давлением FBI, e2e шифруются только отдельные категории, вроде memoji.
Гугл делает эти сканы годами, что-то не видно новостей о false positives.

Хотелось бы ссылку где будет указано, что гугл использует для этого Perceptual Image Hashes, аналогичные эппловскому neuralMatch.
Яблоко четко сказало какая точность

Apple может, вобще говоря, заявлять какую угодно точность, это черный ящик, алгоритмы они не раскрывают.
Нету никакой слежки. Поэтому правительство США использовало инструменты хакерских компаний для взлома айфонов за огромные деньги.

А правительства других стран использовали Pegasus для убийства журналистов и полит активистов, что впрочем не отменяет факта использования предложенной Apple технологии, как mass surveillance tool — буквально по определению.
В треде только параноидальные домыслы автора.

Отличный аргумент, теперь я спокоен.

Во-первых, а вы статью то читали? Apple собирается сканировать файлы на самих девайсах, без возможности opt-out, что существенно отличается от добровольной загрузки файлов в облако.

Я читаю первоисточники (пресс-релиз и прикрепленные технические документы). Яблоко, согласно всем документам, сканирует фото только и только перед прямой отправкой в iCloud Photo. Нигде не упоминается какое-либо превентивное сканирование, кроме желтушной прессы, кривых переводов и авторских отсебятин.

Во-вторых, Apple отказалась от e2e в iCloud как раз для возможности сканирования пользовательских файлов под давлением FBI

Это тоже лишь домыслы журналистов. Телеграмм так же не делает E2E потому что сперва UX, а потом безопасность. Темы проблем синхронизации и утраченного доступа избиты вдоль и впоперек.

Хотелось бы ссылку где будет указано, что гугл использует для этого Perceptual Image Hashes, аналогичные эппловскому neuralMatch.

У них еще больше технологий:

We identify and report CSAM with a combination of specialized, trained teams of people and cutting-edge technology. We use both hash-matching software like CSAI Match (a technology developed by YouTube engineers to identify re-uploads of previously identified child sexual abuse in videos) and machine learning classifiers that can identify never-before-seen CSAM imagery. 

Apple может, вобще говоря, заявлять какую угодно точность, это черный ящик, алгоритмы они не раскрывают.

Учитывая репутацию Яблока и борьбу за приватность в западном мире это больше похоже на параною из стран, где всегда велась желтушная пропаганда против яблока (страны СНГ). Это же можно сказать и про Гугл, что о они дают доступ напрямую FBI/NSA/CIA, так как Гугл вечно уличен в скрытом шпионаже своих пользователей.

не отменяет факта использования предложенной Apple технологии, как mass surveillance tool

По сравнению с тем, что у других компаний, подход в Яблока максимально обеспечивающий приватность и неприкосновенность личных данных. Поэтому все, кто беспокоится за приватность и не хочет страдать с полуработающими пикселями на GrapheneOS выбирают Яблоко (как и рекомендовал Сноуден, а он уж то точно знал).

Главное помнить про рекламу на баннерах.

Apple - конфиденциальность.

Если вы об этой рекламе, то она не противоречит данной новости. Если вы не отправляете фото в айклауд, ничего не сканируется.

https://uploads.disquscdn.com/images/cefc3d01cedfee029b24155fac39921e924cca52743827091921ed008c4b2bcd.jpg

НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории