Как стать автором
Обновить

Законы робототехники Азимова нуждаются в обновлении для ИИ

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров2.1K
Автор оригинала: DARIUSZ JEMIELNIAK
XHAFER GASHI/ISTOCK
XHAFER GASHI/ISTOCK

Предложение четвертого закона робототехники

В 1942 году легендарный писатель-фантаст Айзек Азимов представил свои Три закона робототехники в своем рассказе «Застрявший». Эти законы позже были популяризированы в его знаменитом сборнике рассказов Я, Робот.

Первый закон: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

Второй закон: Робот должен подчиняться приказам человека, если только эти приказы не противоречат Первому закону.

Третий закон: Робот должен заботиться о своей безопасности, пока это не противоречит Первому или Второму закону.

Хотя эти законы были изначально созданы в художественных произведениях, они на протяжении десятилетий формировали дискуссии об этике роботов. По мере того как системы ИИ — которые можно рассматривать как виртуальных роботов — становятся все более сложными и распространенными, некоторые технологи находят подход Азимова полезным для размышлений о необходимых мерах защиты ИИ, взаимодействующего с людьми.

Однако существующие три закона недостаточны. Сегодня мы вступаем в эпоху беспрецедентного сотрудничества человека и ИИ, которую Азимов едва ли мог предвидеть. Быстрое развитие возможностей генеративного ИИ, особенно в области создания текста и изображений, создало проблемы, выходящие за рамки первоначальных опасений Азимова, связанных с физическим вредом и подчинением.

Глубокие фейки, дезинформация и мошенничество

Распространение обмана, осуществляемого с помощью ИИ, вызывает особую тревогу. Согласно отчету ФБР за 2024 год о киберпреступности, преступления, связанные с цифровыми манипуляциями и социальной инженерией, привели к потерям, превышающим $10,3 миллиарда. Европейское агентство по кибербезопасности в своем Обзоре угроз 2023 года выделяет глубокие фейки (синтетические медиа, выглядящие достоверно) как возникающую угрозу цифровой идентичности и доверию.

Дезинформация в социальных сетях распространяется как лесной пожар. Я подробно изучал этот вопрос во время пандемии и могу сказать, что развитие генеративных инструментов ИИ сделало их обнаружение все более трудным. Чтобы усугубить ситуацию, статьи, созданные ИИ, могут быть такими же убедительными или даже более убедительными, чем традиционная пропаганда, и создание убедительного контента с помощью ИИ требует минимальных усилий.

Глубокие фейки становятся все более распространенными в обществе. Ботнеты могут использовать текст, речь и видео, созданные ИИ, чтобы создать ложное впечатление массовой поддержки любых политических вопросов. Боты теперь способны совершать и принимать телефонные звонки, выдавая себя за людей. Мошеннические звонки ИИ, имитирующие знакомые голоса, становятся все более обычным явлением, и в любой момент мы можем ожидать бум видеозвонков на основе аватаров, созданных ИИ, что позволит мошенникам выдавать себя за близких людей и нацеливаться на наиболее уязвимые группы населения. Лично мой собственный отец был удивлен, когда увидел видео, где я говорю на беглом испанском языке, ведь он знал, что я всего лишь гордый новичок в этом языке (уже 400 дней на Duolingo!). Достаточно сказать, что видео было изменено с помощью ИИ.

Еще более тревожно то, что дети и подростки формируют эмоциональные связи с агентами ИИ и иногда не могут отличить взаимодействия с реальными друзьями от взаимодействий с ботами в интернете. Уже были случаи самоубийств, связанных с взаимодействием с чатботами ИИ.

В своей книге 2019 года Human Compatible выдающийся компьютерный ученый Стюарт Рассел утверждает, что способность систем ИИ обманывать людей представляет собой фундаментальную угрозу социальному доверию. Эта проблема отражена в недавних инициативах политики, особенно в AI Act Европейского Союза, который включает положения, требующие прозрачности в взаимодействиях ИИ и раскрытия контента, созданного ИИ. Во времена Азимова люди не могли себе представить, как искусственные агенты могут использовать онлайн-инструменты и аватары для обмана людей.

Поэтому мы должны добавить еще один закон к законам Азимова.

Четвертый закон: Робот или ИИ не должен обманывать человека, выдавая себя за человека.

Путь к доверительному ИИ

Нам нужны четкие границы. Хотя сотрудничество человека и ИИ может быть конструктивным, обман со стороны ИИ подрывает доверие и приводит к потере времени, эмоциональному стрессу и неправильному использованию ресурсов. Искусственные агенты должны идентифицировать себя, чтобы наши взаимодействия с ними были прозрачными и продуктивными. Контент, созданный ИИ, должен быть четко обозначен, если он не был значительно отредактирован и адаптирован человеком.

Реализация этого Четвертого закона потребует:

  1. Обязательного раскрытия ИИ в прямых взаимодействиях,

  2. Четкой маркировки контента, созданного ИИ,

  3. Технических стандартов для идентификации ИИ,

  4. Юридических рамок для обеспечения выполнения,

  5. Образовательных инициатив для повышения грамотности в области ИИ.

Конечно, все это легче сказать, чем сделать. Огромные исследовательские усилия уже направлены на поиск надежных способов водяного знака или обнаружения текста, аудио, изображений и видео, созданных ИИ. Создание той прозрачности, о которой я говорю, остается нерешенной проблемой.

Но будущее сотрудничества человека и ИИ зависит от поддержания четких различий между человеческими и искусственными агентами. Как отмечено в Этическом согласованном дизайне IEEE за 2022 год, прозрачность систем ИИ является фундаментальной для создания общественного доверия и обеспечения ответственного развития искусственного интеллекта.

Сложные истории Азимова показывали, что даже роботы, пытавшиеся следовать правилам, часто сталкивались с непредвиденными последствиями своих действий. Тем не менее, наличие систем ИИ, пытающихся следовать этическим принципам Азимова, стало бы очень хорошим началом.

Теги:
Хабы:
+6
Комментарии19

Публикации

Ближайшие события