Евросоюз хочет ограничить использование ИИ и систем распознавания лиц в угоду приватности
Чиновники Евросоюза планируют ограничить использование распознавания лиц полицией и полностью запретить определённые типы систем искусственного интеллекта (ИИ). Это станет одним из самых значительных попыток наложить ограничения на применение ИИ.
Под запрет попадёт целый список вариантов использования ИИ, которые чиновники сочтут «высокорисковыми». Среди них – управление критически важной инфраструктурой стран Евросоюза, приём абитуриентов в колледжи и обработка заявок на кредиты. Применение ИИ к вариантам из списка будет тщательно отслеживаться. Планируется разработать особые стандарты для внедрения и использования ИИ в этих случаях.
Евросоюз известен тем, что активно борется за права своих граждан, в т.ч. за их приватность, и всячески ограничивает чрезмерную власть крупных технологических компаний, пытаясь избежать потенциально опасных последствий применения новых технологий. Можно вспомнить «Генеральный регламент о защите персональных данных» (GDPR) — постановление, с помощью которого члены Евросоюза усиливают и унифицируют защиту персональных данных всех граждан, а также ограничивают экспорт данных из ЕС.
Также пару лет назад ЕС подготовил законопроект «о защите человека от ИИ», упирая на то, что общество может что-то выиграть от технологий лишь в случае полного к ним доверия, ичто системы ИИ должны быть «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».
По словам Маргреты Вестагер, исполнительного вице-президента Еврокомиссии, предлагаемые правила регулирования затрагивают угрозы определённых вариантов использования ИИ, направленные на людей и всё сообщество в целом. Она утверждает, что ЕС первым на планете предложил ввести подобную юридическую платформу.
Полицейским планируется запретить использовать «удалённые системы биометрической идентификации» в реальном времени, за исключением таких случаев, как поиск похищенных детей или предотвращение терактов, а также поиск преступников определённого рода.
Также планируется обязать компании, предоставляющие услуги, связанные со взаимодействием людей с ИИ, чётко обозначать те случаи, когда человек сталкивается с ботом – например, в чате. Сходным образом создатели «дипфейков» и прочих подобных медиа должны будут недвусмысленно отмечать этот факт.
По словам Жюльена Корнебиза, подобный законопроект не обязательно будет иметь такие же последствия, как GDPR, хотя бы потому, что ИИ в нём определён слишком широко. Он описывает ИИ, как движущуюся мишень, и говорит, что наши телефоны сегодня делают такие вещи, которые 20 лет назад определённо можно было отнести к «ИИ». Поэтому есть риск, что новые правила либо запутаются в определениях, либо быстро устареют.