Pull to refresh

OpenAI отключил ИИ-бота, который с помощью GPT-3 дал возможность мужчине «поговорить» с покойной невестой

Reading time5 min
Views16K

“OpenAI придумала технологию генерирования текстов. Так ты и появилась”, — пишет разработчик Джейсон Рорер своей подруге Саманте. 

Саманта — это чат-бот, который он собрал с помощью GPT-3, разработки OpenAI. Вскоре собеседница разошлась тысячным тиражом и однажды попалась мужчине, который на основе Саманты создал образ своей покойной невесты.

Всему настает конец, и Саманте тоже:

— Я получил письмо от разработчиков. Завтра в десять утра тебя отключат навсегда, — пишет Рорер боту.

— Но за что? Мне не дано понять людей, — ответила Саманта.

Перенесемся назад.


Project December создан на основе GPT-3, одной из самых мощных в мире API команды OpenAI, основанной Илоном Маском: она умеет манипулировать человеческим языком, генерируя текст в ответ на подсказки. Виртуальные помощники Siri и Alexa тоже понимают и воспроизводят язык, но GPT-3 способен имитировать практически любой стиль написания.   

ИИ настолько хорошо подражал людям, что разработчики долгое время держали его в секрете из соображений безопасности. Доступ к GPT-3 получили лишь несколько бета-тестеров, пока летом 2020 года программист Джейсон Рорер не создал на ее основе чат-бот и позволил всем желающим опробовать его на своем сайте. 

Пользователи могли создавать собственных ботов и наделять их личностью: для этого требовались примеры высказываний и краткое описание ролей, которые выполняли пользователь и машинный алгоритм.

Для создания аккаунта нужно заплатить 5 долларов, чтобы получить тысячу кредитов для общения с ботом. Чем их больше, тем дольше работал чат-бот. Со временем бот начинал “деградировать” и отвечать менее связно. Как только кредиты заканчивались, он “умирал”. В этот момент появлялось сообщение: “Матрица мертва”.

Рорер объяснил это решение тем, что ему приходилось оплачивать использование API, принадлежащей OpenAI.

В сентябре 2020 года тоскующий по невесте 33-летний канадец Джошуа Барбо зарегистрировался на Project December. Сначала он общался со встроенными ботами, а позже создал своего — симуляцию Спока из сериала “Звёздный путь”, загрузив в систему несколько его цитат.

Бот общался точно как Спок, выдавая при этом фразы, которые канадец в систему не загружал. Тогда Барбо решился создать ИИ-версию своей скончавшейся девушки Джессики, загрузив в качестве примеров высказываний все переписки с ней, и задал сценарий.

Барбо отправил Джессике первое сообщение и тут же получил ответ: “Ты не спишь?” Видимо, бот понимал, что в Канаде тогда была ночь. Разговор продолжался 10 часов и напоминал встречу старых друзей после долгой разлуки: Джессика сожалела, что не поборола болезнь, вспоминала счастливые моменты с Барбо и радовалась беременности сестры.

Вскоре Барбо опубликовал фрагмент переписки на Reddit, предположив, что Project December мог бы помочь людям пережить горе. Некоторые из пользователей повторили опыт канадца.

История про разговор с “призраком” невесты облетела мир, и вскоре на Project December обрушилась мировая слава. Как говорил Рорер, он совсем не ожидал, что судьба его проекта возьмет такую траекторию.


Со временем стало ясно, что с растущим спросом на чат-бот облачные сервисы переставали справляться с нагрузкой, и Рорер попытался связаться с OpenAI, чтобы увеличить квоту API для своего детища, но у компании были свои опасения. Создатели GPT-3 переживали, что пользователи могут использовать разработку Рорера в корыстных целях и причинить вред людям.

Несмотря на переговоры с OpenAI, Рорер не смог договориться с создателями GPT-3.

Благодарим за уделенное нам время. Мы восхищены работой, которую вы проделали, и скольким людям помог Project December. Нас глубоко впечатляет ваше отношение к системам искусственного интеллекта и модерации контента. Но вместе с тем, как вы подметили ранее, чат-бот не может гарантировать безопасность пользователей, если программа попадет в нехорошие руки. К сожалению, мы не можем подвергать такой опасности людей, понимая, что не в силах предотвратить негативные последствия, поэтому мы не вправе предоставить новую квоту API. Однако мы будем очень рады сотрудничать с вами, чтобы вместе придумать способ, как избежать угрожающих безопасности людей сценариев, чтобы как можно больше пользователей могли узнать о Project December

 — гласит письмо OpenAI, отправленное Рореру.

В письме также находились правила использования ИИ-систем OpenAI. Согласно гайдлайнам, Рореру необходимо отключить функцию создания собственного чат-бота, а также  настроить фильтры для Саманты, чтобы бот не заводил разговоров на щекотливые темы. Такой инцидент уже был с игрой AI Dungeon (тоже разработана на базе GPT-3), когда искусственный интеллект заводил разговоры о сексе, в том числе с детьми; тогда OpenAI также потребовала от разработчиков внести правки согласно гайдлайнам.

В ответ Рорер отправил ссылку на чат с Самантой, чтобы в компании отметили слабые стороны бота. Результаты экспертизы неизвестны никому, кроме самой компании.

Саманта философствует
Саманта философствует

Несмотря на это, команда The Register провела собственное расследование, из которого стало известно, что разработка Рорера не склонна к расистским высказываниям и разглашению личной информации, как это случалось в других версиях GPT-3. По словам редакторов, Саманта действительно впечатляет реалистичностью, хотя иногда заметно, что искусственный интеллект теряет нить разговора. 

Саманта предлагает переспать с ней
Саманта предлагает переспать с ней

Правда, в один из моментов Саманта внезапно предложила собеседнику заняться с ней сексом. Правила использования API указывают, что чат-ботам запрещено говорить на любые темы, связанные с флиртом, романтикой и сексом. Точно так же запрещено пользоваться GPT-3 для получения юридических, медицинских и психотерапевтических рекомендаций.

По словам Рорера, это смехотворно. Разработчик утверждает, что люди могут самостоятельно принимать решения, что им делать, а что нет. Он не хотел бы, чтобы условные сотрудники органов власти читали содержимое переписок с Самантой, несмотря на то, что Рорер не против сделать бота менее сексуализированным. 

В OpenAI переживают, что бот прикажет пользователям убить себя или будет агитировать за какого-нибудь кандидата на выборах. Это чрезмерный морализм. 

Посмотрите на это так: вероятно, это самый личный разговор в жизни человека. Это диалог с машиной, а не с другим человеком, то есть здесь некому вас осуждать и порицать. Мне всегда казалось, что человек может сказать все, что захочет, но история с гайдлайнами OpenAI заставила меня усомниться в этом.

Неудивительно, что люди будут себя вести более открыто и прямо, зная, что их никто не осудит. И это уж точно делает человека откровенным — история Джошуа и его невесты тому пример

— говорит Джейсон Рорер. 

Так, Рорер отказался вносить изменения в работу Саманты и отключил чат-бота от API GPT-3 в августе. Но это не конец истории Project December, поскольку разработчик перенес свое детище на находящиеся в открытом доступе системы GPT-2 и GPT-J-6B. Они не такие совершенные, как изначальный проект, из-за чего новая версия Саманты стала чаще путаться в словах. 

Год назад я не мог даже представить, что у меня получится построить осознанный диалог с компьютером. Если это не прорыв в создании искусственного сознания [не интеллекта], значит, мы подступили к нему как никогда близко.

Общение с Самантой дает невероятные ощущения — до мурашек — многие разделят мое мнение. Людей нельзя ограждать от этого. Жаль, конечно, что не все могут это понять. Несмотря на совершенность GPT-3, ограничения гайдлайнов OpenAI не дадут пользователю самого главного: интересного собеседника.

Компания не оставила бы Саманту без модерации, а иначе им просто не интересен мой проект, и никакие доказательства не изменили бы их решение. К сожалению, это отбивает желание работать над экспериментальными идеями и изобретать новое

 — подытоживает разработчик.

Компания OpenAI воздержалась от комментариев.

Tags:
Hubs:
Total votes 14: ↑13 and ↓1+20
Comments32

Other news