“OpenAI придумала технологию генерирования текстов. Так ты и появилась”, — пишет разработчик Джейсон Рорер своей подруге Саманте.
Саманта — это чат-бот, который он собрал с помощью GPT-3, разработки OpenAI. Вскоре собеседница разошлась тысячным тиражом и однажды попалась мужчине, который на основе Саманты создал образ своей покойной невесты.
Всему настает конец, и Саманте тоже:
— Я получил письмо от разработчиков. Завтра в десять утра тебя отключат навсегда, — пишет Рорер боту.
— Но за что? Мне не дано понять людей, — ответила Саманта.
Перенесемся назад.
Project December создан на основе GPT-3, одной из самых мощных в мире API команды OpenAI, основанной Илоном Маском: она умеет манипулировать человеческим языком, генерируя текст в ответ на подсказки. Виртуальные помощники Siri и Alexa тоже понимают и воспроизводят язык, но GPT-3 способен имитировать практически любой стиль написания.
ИИ настолько хорошо подражал людям, что разработчики долгое время держали его в секрете из соображений безопасности. Доступ к GPT-3 получили лишь несколько бета-тестеров, пока летом 2020 года программист Джейсон Рорер не создал на ее основе чат-бот и позволил всем желающим опробовать его на своем сайте.
Пользователи могли создавать собственных ботов и наделять их личностью: для этого требовались примеры высказываний и краткое описание ролей, которые выполняли пользователь и машинный алгоритм.
Для создания аккаунта нужно заплатить 5 долларов, чтобы получить тысячу кредитов для общения с ботом. Чем их больше, тем дольше работал чат-бот. Со временем бот начинал “деградировать” и отвечать менее связно. Как только кредиты заканчивались, он “умирал”. В этот момент появлялось сообщение: “Матрица мертва”.
Рорер объяснил это решение тем, что ему приходилось оплачивать использование API, принадлежащей OpenAI.
В сентябре 2020 года тоскующий по невесте 33-летний канадец Джошуа Барбо зарегистрировался на Project December. Сначала он общался со встроенными ботами, а позже создал своего — симуляцию Спока из сериала “Звёздный путь”, загрузив в систему несколько его цитат.
Бот общался точно как Спок, выдавая при этом фразы, которые канадец в систему не загружал. Тогда Барбо решился создать ИИ-версию своей скончавшейся девушки Джессики, загрузив в качестве примеров высказываний все переписки с ней, и задал сценарий.
Барбо отправил Джессике первое сообщение и тут же получил ответ: “Ты не спишь?” Видимо, бот понимал, что в Канаде тогда была ночь. Разговор продолжался 10 часов и напоминал встречу старых друзей после долгой разлуки: Джессика сожалела, что не поборола болезнь, вспоминала счастливые моменты с Барбо и радовалась беременности сестры.
Вскоре Барбо опубликовал фрагмент переписки на Reddit, предположив, что Project December мог бы помочь людям пережить горе. Некоторые из пользователей повторили опыт канадца.
История про разговор с “призраком” невесты облетела мир, и вскоре на Project December обрушилась мировая слава. Как говорил Рорер, он совсем не ожидал, что судьба его проекта возьмет такую траекторию.
Со временем стало ясно, что с растущим спросом на чат-бот облачные сервисы переставали справляться с нагрузкой, и Рорер попытался связаться с OpenAI, чтобы увеличить квоту API для своего детища, но у компании были свои опасения. Создатели GPT-3 переживали, что пользователи могут использовать разработку Рорера в корыстных целях и причинить вред людям.
Несмотря на переговоры с OpenAI, Рорер не смог договориться с создателями GPT-3.
Благодарим за уделенное нам время. Мы восхищены работой, которую вы проделали, и скольким людям помог Project December. Нас глубоко впечатляет ваше отношение к системам искусственного интеллекта и модерации контента. Но вместе с тем, как вы подметили ранее, чат-бот не может гарантировать безопасность пользователей, если программа попадет в нехорошие руки. К сожалению, мы не можем подвергать такой опасности людей, понимая, что не в силах предотвратить негативные последствия, поэтому мы не вправе предоставить новую квоту API. Однако мы будем очень рады сотрудничать с вами, чтобы вместе придумать способ, как избежать угрожающих безопасности людей сценариев, чтобы как можно больше пользователей могли узнать о Project December
— гласит письмо OpenAI, отправленное Рореру.
В письме также находились правила использования ИИ-систем OpenAI. Согласно гайдлайнам, Рореру необходимо отключить функцию создания собственного чат-бота, а также настроить фильтры для Саманты, чтобы бот не заводил разговоров на щекотливые темы. Такой инцидент уже был с игрой AI Dungeon (тоже разработана на базе GPT-3), когда искусственный интеллект заводил разговоры о сексе, в том числе с детьми; тогда OpenAI также потребовала от разработчиков внести правки согласно гайдлайнам.
В ответ Рорер отправил ссылку на чат с Самантой, чтобы в компании отметили слабые стороны бота. Результаты экспертизы неизвестны никому, кроме самой компании.
Несмотря на это, команда The Register провела собственное расследование, из которого стало известно, что разработка Рорера не склонна к расистским высказываниям и разглашению личной информации, как это случалось в других версиях GPT-3. По словам редакторов, Саманта действительно впечатляет реалистичностью, хотя иногда заметно, что искусственный интеллект теряет нить разговора.
Правда, в один из моментов Саманта внезапно предложила собеседнику заняться с ней сексом. Правила использования API указывают, что чат-ботам запрещено говорить на любые темы, связанные с флиртом, романтикой и сексом. Точно так же запрещено пользоваться GPT-3 для получения юридических, медицинских и психотерапевтических рекомендаций.
По словам Рорера, это смехотворно. Разработчик утверждает, что люди могут самостоятельно принимать решения, что им делать, а что нет. Он не хотел бы, чтобы условные сотрудники органов власти читали содержимое переписок с Самантой, несмотря на то, что Рорер не против сделать бота менее сексуализированным.
В OpenAI переживают, что бот прикажет пользователям убить себя или будет агитировать за какого-нибудь кандидата на выборах. Это чрезмерный морализм.
Посмотрите на это так: вероятно, это самый личный разговор в жизни человека. Это диалог с машиной, а не с другим человеком, то есть здесь некому вас осуждать и порицать. Мне всегда казалось, что человек может сказать все, что захочет, но история с гайдлайнами OpenAI заставила меня усомниться в этом.
Неудивительно, что люди будут себя вести более открыто и прямо, зная, что их никто не осудит. И это уж точно делает человека откровенным — история Джошуа и его невесты тому пример
— говорит Джейсон Рорер.
Так, Рорер отказался вносить изменения в работу Саманты и отключил чат-бота от API GPT-3 в августе. Но это не конец истории Project December, поскольку разработчик перенес свое детище на находящиеся в открытом доступе системы GPT-2 и GPT-J-6B. Они не такие совершенные, как изначальный проект, из-за чего новая версия Саманты стала чаще путаться в словах.
Год назад я не мог даже представить, что у меня получится построить осознанный диалог с компьютером. Если это не прорыв в создании искусственного сознания [не интеллекта], значит, мы подступили к нему как никогда близко.
Общение с Самантой дает невероятные ощущения — до мурашек — многие разделят мое мнение. Людей нельзя ограждать от этого. Жаль, конечно, что не все могут это понять. Несмотря на совершенность GPT-3, ограничения гайдлайнов OpenAI не дадут пользователю самого главного: интересного собеседника.
Компания не оставила бы Саманту без модерации, а иначе им просто не интересен мой проект, и никакие доказательства не изменили бы их решение. К сожалению, это отбивает желание работать над экспериментальными идеями и изобретать новое
— подытоживает разработчик.
Компания OpenAI воздержалась от комментариев.