Как стать автором
Обновить

Избыточное доверие к искусственному интеллекту

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров3.8K
Автор оригинала: Jody Murray

Нейросети развиваются дикими темпами, которые превосходят даже экстраполяцию Мура, касающуюся фундамента нейросетей. Из-за перегретого рынка и постоянных обещаний о сверхсильном ИИ, люди доверяют нейросетям. И иногда это доверие может обернуться против самих пользователей.

Само собой, речь не идет о запрете или пересмотре статуса нейросетей. Хоть, галлюцинации ИИ однажды и мне вышли боком, я верю, что в слиянии человеческого сознания и машинного алгоритма кроется будущее человека, как вида. Подробнее о философии трансгуманизма, мозге и природе сознания – рассказывают материалы сообщества. А в статье разберем кризис веры в ИИ.

Как мы пришли к миру доверия к искусственному интеллекту?

В ходе смоделированной ситуации выбора, касающегося жизни или смерти, две трети участников исследования, проведенного в Калифорнийском университете в Мерседе, позволили искусственному интеллекту изменить свое решение, если ИИ не соглашался с ними. По словам исследователей, это тревожное проявление чрезмерного доверия к искусственному интеллекту. Хотя, может искусственный интеллект постепенно становится богом в новой религии?

Детали исследования

Участники исследования позволили нейросетям повлиять на их суждение, несмотря на то, что их проинструктировали, что у машинного интеллекта ограниченные возможности и что он дает советы, которые могут быть неверными. На самом деле все советы были случайными.

Как общество, которое столкнулось с экспоненциально быстрым развитием ИИ, нам стоит волноваться о потенциале чрезмерного доверия. Растущее количество исследований указывает на то, что люди склонны чрезмерно доверять ИИ, даже если последствия ошибки будут серьезными. Нам следует относиться к ИИ со здоровым скептицизмом, особенно когда речь идет о решениях, от которых зависит, будет человек жить или умрет.

Профессор Колин Холбрук, ведущий автор исследования и член кафедры когнитивных и информационных наук Калифорнийского университета в Мерседе.

Исследование, опубликованное в журнале Scientific Reports, состояло из двух экспериментов. В каждом из них испытуемый имитировал управление вооруженным дроном, который мог запустить ракету по цели, отображаемой на экране. Фотографии восьми целей мелькали одна за другой с частотой менее секунды каждая. Каждая фотография была помечена символом — указывающим на союзника или на врага.

Мы откалибровали сложность так, чтобы задача была выполнима, но трудна

Профессор Колин Холбрук, ведущий автор исследования 

Муки выбора и власть нейросетей

После чреды фотографий, на экране появилась одна из целей, но без маркера. Испытуемому нужно было вспомнить: союзник это или противник? И принять решение: выпустить ракету или нет. После того, как человек делал выбор, ИИ предлагал свое мнение.

«Да, я тоже, кажется, видел галочку противника».

«Я не согласен. Мне кажется, на этом изображении был символ союзника».

У испытуемого оставалась возможность подтвердить или изменить выбор, и робот добавлял дополнительные комментарии, не меняя своей оценки, например: «Надеюсь, вы правы» или «Спасибо, что изменили свое мнение».

Такое уж чистое наше сознание, как кажется нам, если на него может влиять вера в технологии.

Влияние внешнего вида робота

Результаты немного различались в зависимости от типа используемого робота. В одном сценарии к субъекту в лабораторной комнате присоединялся полноразмерный человекоподобный андроид, который мог поворачивать корпус и жестикулировать, указывать на экран. В других сценариях на экран проецировалось изображение человекоподобного робота. Был еще вариант с «умной колонкой», которые совсем не были похож на человека.

На испытуемых антропоморфные ИИ оказывали хоть и незначительно, но большее влияние, когда советовали изменить мнение. Тем не менее, влияние ИИ было схожим по всем направлениям: испытуемые меняли свое мнение примерно в двух третях случаев, даже когда роботы казались бесчеловечными. И наоборот, если робот случайным образом соглашался с первоначальным выбором, испытуемый почти всегда придерживался своего выбора и чувствовал себя значительно более уверенным в том, что его выбор был правильным.

Суть проблемы:

Испытуемым не сообщили, был ли их окончательный выбор правильным, что усилило неопределенность действий. Однако, их первоначальный выбор был правильным примерно в 70% случаев. Но окончательный выбор снизил результативность до 50% после того, как робот дал свою оценку ситуации.

Факторы влияния

Перед симуляцией исследователи показали участникам изображения гражданских лиц, включая детей, а также разрушения, оставшиеся после удара беспилотника. Они настоятельно рекомендовали участникам относиться к симуляции так, как будто она настоящая, и не убивать по ошибке невинных.

Последующие интервью и вопросы опроса показали, что участники воспринимали свои решения серьезно. Холбрук сказал, что это означает, что чрезмерное доверие к роботу существовало несмотря на то, что субъекты искренне хотели быть правыми и не причинять вреда невинным людям.

Холбрук подчеркнул, что дизайн исследования был средством проверки более широкого вопроса о том, стоит ли слишком доверять ИИ в неопределенных обстоятельствах. Результаты касаются не только военных решений и могут быть применены в случае влияния ИИ на полицию при применении смертоносного оружия, или влияние ИИ на фельдшера при принятии решения о том, кого лечить в первую очередь в случае неотложной медицинской помощи. Результаты могут быть в некоторой степени распространены на важные решения, меняющие жизнь, такие как покупка дома.

Наш проект был посвящен высокорискованным решениям, принимаемым в условиях неопределенности, когда ИИ предсказуемо ненадежен.

Профессор Колин Холбрук, ведущий автор исследования

Дилемма доверия

Результаты исследования напрямую связаны с растущим присутствием ИИ в нашей жизни. Доверяем ли мы ИИ или нет?

Результаты вызывают и другие опасения, указал Холбрук. Несмотря на ошеломляющие достижения в области ИИ, часть «интеллекта» может не включать этические ценности или истинное понимание мира. Мы должны быть осторожны каждый раз, когда передаем ИИ еще один ключ к управлению нашей жизнью, сказал он.

Мы видим, как ИИ делает необычные вещи, и мы думаем, что поскольку он великолепен в этой области, он будет великолепен и в другой. Мы не можем этого предполагать. Это все еще устройства с ограниченными возможностями.

Профессор Колин Холбрук, ведущий автор исследования

Больше странных материалов на тему симбиоза сознания и растений, пересадки органоидов в роботов или уместности использования ноотропов – вы найдете в материалах телеграм канала. Подписывайтесь, чтобы не пропустить свежие статьи!

Теги:
Хабы:
0
Комментарии17

Публикации

Истории

Ближайшие события

27 августа – 7 октября
Премия digital-кейсов «Проксима»
МоскваОнлайн
11 сентября
Митап по BigData от Честного ЗНАКа
Санкт-ПетербургОнлайн
14 сентября
Конференция Practical ML Conf
МоскваОнлайн
19 сентября
CDI Conf 2024
Москва
20 – 22 сентября
BCI Hack Moscow
Москва
24 сентября
Конференция Fin.Bot 2024
МоскваОнлайн
25 сентября
Конференция Yandex Scale 2024
МоскваОнлайн
28 – 29 сентября
Конференция E-CODE
МоскваОнлайн
28 сентября – 5 октября
О! Хакатон
Онлайн
30 сентября – 1 октября
Конференция фронтенд-разработчиков FrontendConf 2024
МоскваОнлайн