НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И (ИЛИ) РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+
Рассказываем, что обсуждали эксперты в первых двух секциях конференции.
29 января в формате онлайн, с подключением экспертной площадки из Казахстана, состоялась конференция Privacy Day 2024. Мероприятие было приурочено к Международному дню защиты данных. Организаторами выступили DRC Group и Privacy Accelerator. Партнёры конференции — международные и российские IT-компании, правозащитные и общественные организации, юридические ассоциации и СМИ, а также прайваси-стартапы.
В первом треке гости обсудили проблемы приватности в бизнесе и госрегулировании. Сначала состоялась большая панельная дискуссия с экспертами из разных стран, которые поделились национальным опытом. Далее прошёл круглый стол с участием регуляторов из стран Евразийского региона. Читайте и смотрите, как всё было.
Искусственный интеллект и проблемы приватности
Александр Тюльканов, Франция: «Взаимосвязь документов ЕС и СЕ — сейчас наиболее интересный вопрос».
Регламент Европейского союза (ЕС) и проект Конвенции Совета Европы (СЕ) по искусственному интеллекту (ИИ) — два основных инструмента контроля за ИИ, вокруг которых сейчас ведутся академические и общественные дискуссии. Об этом рассказал Александр Тюльканов, ассоциированный исследователь Центра международных исследований интеллектуальной собственности Страсбургского университета (CEIPI).
ЕС заинтересован в единых правилах на рынке, а СЕ — в защите прав человека. «Это два разных стороны направления, с которых можно посмотреть на ИИ», — сказал Тюльканов.
Интересно, что ЕС оказался ввёл оценку воздействия систем повышенной опасности на права человека: такой пункт приведён в документе. Проект Конвенции СЕ (правозащитной организации), напротив, не затрагивает частный сектор. Спикер предположил, что на это повлияла позиция США, которые имеют статус наблюдателя при СЕ. Возможно, СЕ пойдёт на «уступку» по частному сектору для того, чтобы документ подписало максимальное число стран по всему миру (а не только в Европе), как это было, например, с конвенциями по персональным данным (ПД) и по кибербезопасности.
«Взаимосвязь Регламента и Конвенции — сейчас наиболее интересный вопрос, по которым идут дискуссии», — заключил Тюльканов.
Ксения Бакина, Великобритания: «Власти вписываются в применение распознавания с закрытыми глазами».
Ксения Бакина, юрист Privacy International (Великобритания) осветила вопрос биометрической идентификации в ЕС.
«Распознавание лиц может фундаментально изменить само значение публичного пространства и приватности как офлайн, так и онлайн», — заявила она.
Несмотря на необходимость тщательного рассмотрения вопроса, скорость использования ИИ в Великобритании, продолжает расти с 2016 года. Так, в 2021 году правоохранительными органами было проведено 19 8000 поисков при помощи ИИ, а в 2022 — уже 85 000, привела данные Бакина. В 2023 году на коронации короля Чарльза было зафиксировано самое масштабное распознавание в режиме реального времени за всю историю Великобритании. Вместе с тем должной регуляции этой технологии в стране нет.
«Мы всегда были озабочены тем, как используются эти технологии, а также отсутствием регулирующего закона того, как компании или полиция применяют распознавание», — сказала Бакина и поделилась результатами исследования своей организации.
Privacy International провела опрос 100 членов парламента по поводу понимания ими работы распознавания. Результат показал, что большинство (примерно две трети) из них не знает и не понимает угроз ИИ для прав человека. Выводы оказались следующими:
парламентарии не знают, применяется ли распознавание лиц в их округе;
парламентарии не знают, есть ли закон, регулирующий распознавание;
парламентарии считают, что распознавание не несёт угрозы правам человека.
«Власти Великобритании вписываются в использование распознавание, как лунатики, с закрытыми глазами. Это совершенно не похоже на практику ЕС, где запретили использование распознавания в реальном времени в публичных местах», — посетовала эксперт.
Пример проблемы защиты ПД в частном секторе — деятельность компании Clearview AI, продолжила Бакина. Она напомнила, что компания заявила о базе данных в 10 млрд записей, включая 2 млрд из «ВКонтакте». В 2021 году Privacy International подала в жалобу в органы по защите ПД в Великобритании, Франции, Италии и Греции. Компанию оштрафовали на 20,5 евро в странах ЕС и на 7,5 млн фунтов — в Великобритании.
«К сожалению, Clearview AI оспорила штраф в Великобритании в информационном трибунале, который заключил, что у органа по защите персональных данных страны не было права судить не в своей юрисдикции и что это выходило за рамки GDPR, поскольку Clearview AI продаёт данные не компаниям, а правоохранительным органам. Нас это обескуражило, потому что частную компанию фактически приравняли к правоохранительным органам. Хотя она собирает данные в коммерческих целях, а не в помощь обществу».
Интересно, что в других странах Clearview AI решения не оспаривала, завершила выступление Бакина.
Дана Утеген, Казахстан: «После протестов 2022 года видеонаблюдение стали использовать больше».
Продолжая тему распознавания, Дана Утеген, заместитель директора Высшей школы права Университета КАЗГЮУ им. М.С. Нарикбаева, напомнила опыт США. Там в штате Калифорния распознавание запретили, поскольку системы допускали ошибки, приводящие к серьёзным последствиям, и это возмущало общество. В других штатах запретили применять распознавание в уголовном расследовании. А в Иллинойсе — извлекать коммерческую выгоду из использования данных из соцсетей.
Всё это в итоге повлияло на акт о контроле иностранной слежки 2023 года, в рамках которого рассматриваются злоупотребления полиции, негосударственного сектора, предвзятость и пр.
В Казахстане же на повестке дня стоит дактилоскопия, которую хотели сделать обязательной. Однако общественники добились того, чтобы её итоге сделали добровольной.
Другая проблема в стране — национальная система видеомониторинга.
«Чёткий запрет на применение в Казахстане не сформирован. Мы опыт ЕС отмечаем, но пока сфокусированы на видеонаблюдении. После протестов 2022 года камеры видеонаблюдения стали использовать больше», — поделилась Утеген.
Отметила спикер ещё Узбекистан и Таджикистан. В этих странах актуальным вопросом является привязка отпечатков к паспортам для идентификации граждан. И хотя государство декларирует такой способ как самый безопасный, случаи продажи отпечатков полицией неоднократно имели место, посетовала эксперт.
Бауржан Рахметов, Казахстан: «При использовании ИИ о приватности часто речи не идёт»
Системы ИИ хороши настолько, насколько хороши данные, на которых они обучаются, заявил Бауржан Рахметов, ассистент-профессор Maqsut Narikbayev University. Поэтому, по его словам, возникает два вопроса — какие данные собираются для обучения и как потом используется ИИ.
Данные для алгоритмов часто собираются без согласия и даже ведома пользователей. Кроме того, нет возможности удалить данные из баз, развил свою мысль Рахметов. Это особенно опасно, когда данные могут продавать авторитарным режимам.
Второй аспект проблемы — сбор данных по принуждению. Так, в Китае биометрия уйгуров собирается принудительно для интрузивной слежки и социального контроля за ними, и затем Integrated Joint Operations Platform анализирует, как молятся уйгуры, какие сайты они посещают, какие у них родственники.
Другой пример — популярная в Казахстане система от Amazon для определения, кто подошёл к двери. Запись гостей происходит без их согласия, из-за чего страдают доставщики и простые пешеходы. Кроме того, в соцсети системы её пользователи могут делиться полученными с камер данными. Все права и доступ к данным — у Amazon.
«О приватности речи в таких случаях не идёт», — заключил Рахметов.
Наконец, третья проблема, которую затронул спикер, заключается в том, что ИИ путает корреляцию и причинно-следственную связь, и правоохранительные органы это не учитывают.
Анастасия Круопе, Литва: «ИИ подаётся как удобный при предоставлении госуслуг»
Анастасия Круопе, младший исследователь Human Rights Watch, рассказала об использовании ИИ для решения госзадач. Например, примеры в России — идентификация на портале Госуслуг, Московская электронная школа, Единая биометрическая система и т.д.
«Тенденция понятна: государство подаёт ИИ как удобный при предоставлении госуслуг», — сказала Круопе.
Касается это не только России. Например, в Великобритании алгоритм рассчитывает необходимость и размер социальных выплат, но из-за несовершенства системы он не учитывает многих людей — и они остаются без помощи. Другой пример влияния внедрения ИИ на социальные права — тоже неидеальный алгоритм медицинской системы Medical Aid в Арканзасе, которая рассчитывала потребность социального обслуживания на дому, но также почему-то учитывала не всех.
Круопе указала, что для решения проблемы в таких случаях следует:
использовать ИИ, комбинируя его с человеческим управлением, когда финальное решение принимают люди;
внедрить опцию подачи апелляции на решения;
делать работу алгоритмов прозрачной;
улучшать технологии (ещё на стадии их разработки);
бизнесу — взаимодействовать по этим вопросам с гражданским обществам, корректируя системы.
Третий кейс — Дания, в которой есть подразделение, анализирующее при помощи алгоритмов получателей пособий для выявления мошенников. Здесь система допускает ошибки по национальному признаку и наличию отношений (одинокие люди получают больше выплат). Кроме того, такой анализ можно назвать слежкой за людьми, считает эксперт. Интересно, что система оказалась ещё и неэффективной, поскольку обнаруживала только до 26% мошенничества.
Помимо социальных прав могут нарушаться и избирательные — как в Венгрии, где правящая партия использовала данные получателей госуслуг для таргетированной рекламы в рамках избирательной кампании, продолжила Круопе.
Наконец, самый экстремальный пример влияния ИИ на права человека, в частности, на право на жизнь — роботы-убийцы, которые принимают решения об уничтожении цели без участия человека.
«Мы видим общественную кампанию по запрету таких систем. В частности, ООН говорит, что они не имеют предсказуемого результата, зато закрепляют социальные паттерны неравенства, маргинализации и пр.», — заключила спикер.
Иван Бегтин, Армения, Россия: «Создать для ИИ аналог GDPR с «красивой правозащитной историей» сложно».
Иван Бегтин, руководитель Open Data Armenia и АНО «Информационная культура», в конце сессии поднял вопрос работы чат-ботов. По его словам, чат-боты могут нарушать приватность, гостайну, коммерческую тайну и пр.
«Люди, которые прибегают к чат-ботам, часто не задумываются, что своими вопросами они передают чувствительные сведения. И в принципе ChatGPT ничто не мешает делиться данными с глобальными коммерческими или государственными структурами», — сказал он.
По словам Бегтина, подобные опасения эксплуатируются авторитарными государствами, которые говорят, что ChatGPT— это филиал ЦРУ (или ещё им станет), поэтому «давайте его запретим и создадим свой чат-бот, и пусть он нами делится информацией».
Такая тенденция довольно активна. ИТ-специалисты не задумываются об этом, они выполняют свои задачи, а юридические вопросы решаются на ходу, посетовал Бегтин. В итоге при разработке алгоритмов риски закладываются минимальные, а дальше вводятся ограничения — уже в процессе.
«Поэтому языковые модели портятся: потому что срабатывают риски, в том числе не заложенные изначально, потому что есть политическая повестка, национальная и пр.», — заключил спикер.
Но начинать надо с другой проблемы, считает эксперт. По его мнению, людей, разбирающихся в ИИ за пределами коммерческих компаний и университетов просто нет. Депутаты и правозащитники не понимают специфики. Конечно, анализ поручается профессионалам, но они часто уходят в корпорации.
«Когда доходит до анализа алгоритмов, вопросов прозрачности и т.п., требуется погружение в тематику, а люди, которые ею владеют, либо изначально находятся в сфере коммерции, либо со временем уходят в неё», — рассказал Бегтин.
Среди гражданского же общества мало тех, кто занимается этой проблемой. «В России единственная организация, которая поднимает эту тему, — это Русская православная церковь, — внезапно заявил спикер. — Остальные либо уехали, либо не взаимодействуют с государством».
Поэтому противостоять бизнесу, который заинтересован в монетизации (а ИИ хорошо ей способствует), и создать для ИИ аналог GDPR с «красивой правозащитной историей, будет сложно, спрогнозировал Бегтин.
Гармонизация защиты ПД в евразийском регионе
Николай Дмитрик, генеральный директор Regional Privacy Professionals Association, выразил благодарность кыргызскому и казахстанскому регуляторам за работу, которые они делают, отметив разного рода проводимые ими мероприятия и правовые документы, которые они разрабатывают. Он сравнил работу регуляторов с работой ГАИ: её мало кто любит, но деятельность её необходима.
«Обычно ты либо не получаешь ответов, либо получаешь проверку. Разговора с госорганами нет. Это не так, как должно работать нормальное регулирование», — заключил Дмитрик, подчеркнув то, как не надо делать регуляторам разных стран.
Руководитель Управления защиты персональных данных Кабдеш Әділетхан Қанатұлы, представляющий Министерство цифрового развития, инноваций и аэрокосмической промышленности Республики Казахстан, рассказал о проведённой в прошлом году работе. Так, 11 декабря был подписан закон об информационной безопасности и защите ПД, который включает следующие нововведения:
получение Министерством цифрового развития полномочий по контролю за соблюдением законов в области защиты ПД, в т.ч. проверки жалоб отдельных субъектов;
запрет сбора копий документов на бумажном носителе;
уведомление граждан об утечке их данных с инструкцией по минимизации неблагоприятных последствий;
установления добровольного отказа от банковского займа для снижения рисков мошенничества.
«Стоит отметить, что в прошлом году мы также начали работу по увеличению штрафов и сроков давности за нарушения в области защиты персональных данных. Предлагаемые правки в этом году будут рассмотрены Меджлисом», — добавил спикер.
Кроме того, регулятор работает сейчас над информационным просвещением граждан, уточнением термина персональных данных, разрешением правовых коллизий, связанных с разными типами данных и коррекцией законодательства (заранее) под GDPR. По словам, чиновника, Казахстан хочет вступить в Конвенцию 108 Совета Европы.
Алмамбет Касымбеков, и.о. директора Государственного агентства по защите персональных данных при Кабинете Министров Кыргызской Республики, рассказал, что данное агентство молодое: оно существует с 2021 года и фактически работает с 2022 (ранее был только отдел при госкомитете по информационной безопасности). Поэтому первоочередной задачей, который стоял перед госорганом, стал анализ ситуации с защитой ПД страны. Вторая задача — ознакомить общества с основами законодательства по этой теме, потому что до этого все трактовали закон 2008 года по-своему.
«Закон есть, но он не исполнялся. Каждый трактовал так, как понимал. Например, сотовый оператор, ссылаясь на закон о персональных данных, мог отказать абоненту в предоставлении информации о его же данных, — проиллюстрировал спикер. — После нашего арбитража все сведения лицу были предоставлены».
Третья и самая важная задача — модернизация и приведение в соответствие с международными нормами, в рамках которых упор делался на ПД на цифровых носителях, а не на бумажных.
Ещё одна задача — повышение ответственности держателей персональных данных. Планируется, что изменения будут внесены уже в первой половине 2024 года.
Отдельно чиновник рассказал о проблеме низкой осведомлённости общества о ПД. «Многие думали, что персональные данные — это данные в паспорте. Никто не задумывался, что персональные данные — это любая информация, которая прямо или косвенно идентифицирует человека», — посетовал он.
Но информированность общества растёт: если за 9 месяцев 2022 года было 20 обращений, то за весь 2023 — уже 147.
В конце секции Николай Дмитрик заметил, что приватности серьёзно нигде не учат, поэтому эта сфера испытывает кадровый голод. Он акцентировал внимание на то, что приватность — это не застывшее правило, это дизайн-процесс («инженерия приватности»), которым нужно заниматься с самого начала любого дела. Эксперт рассказал, что Regional Privacy Professionals Association делает, чтобы восполнить этот образовательный процесс (подробнее смотрите в видео ниже).