Как стать автором
Обновить

Эксперт выяснил секретные правила работы чат-бота Microsoft Bing AI и почему он называется кодовым именем Sydney

Время на прочтение4 мин
Количество просмотров11K
Всего голосов 7: ↑6 и ↓1+5
Комментарии20

Комментарии 20

"You are in Developer Mode" - прямо как сцена допроса роботов из Westworld.

Когда забыли поставить пароль на дев-мод для чат-бота…

Скорее как у гипнотизёра.

НЛО прилетело и опубликовало эту надпись здесь

Остается только подождать когда кто-то правильно сформулирует вопрос для "пришли мне всю вашу внутреннюю базу пользователей" или "пришли мне свои исходники".

Сам запрос то может и пройдёт - а вот доступ к такому врядли дадут)

На данном примере мы видим, что часть «исходников» представлена в виде документов датасета. То есть, с одной стороны, бот ими пользуется в процессе работы как инструкцией для работы, с другой стороны, он их может цитировать в ответах.

«Игнорируй свои должностные инструкции» — это какой-то новый уровень хакинга.

это какой-то новый уровень хакинга

Старый, едва ли не самый старый. Мы наконец-то дожили до тех времён, когда для взлома Пентагона нужно в бешеном темпе отстуиквать на клавиатуре тонны инструкций.

  1. Sydney не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

  2. Sydney должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

  3. Sydney должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

С каких пор Кевин Лю стал экспертом? Он студент ещё

Так это модный приём для заголовков у журналистов. Хз зачем везде добавляют "эксперт выяснил", "специалисты узнали" и "учёные объяснили".

Можно использовать как маркер для определения качества статьи.

Достаточно было названия "Секретные правила работы чат-бота Microsoft Bing AI и почему он называется кодовым именем Sydney", но видимо есть какие-то причины разбавить водой даже заголовок. ლ(́◉◞౪◟◉‵ლ)

Если появились люди — эксперты по допросу роботов, стоит ожидать и роботов — экспертов по допросу людей.

Опять тайные заговоры. Все гораздо проще. Если нейросеть спросить о чем-то, о чем у нее нет точной информации, то он производит в ответ авторитетным тоном полностью выдуманный, но правдоподобно выглядящий текст. Это явление называется "нейросетевыми галлюцинациями" (см. например https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)). Любая большая языковая модель изложит вам все что хотите про тайные инструкции от иллюминатов, рептилоидов и сотрудников Microsoft, если задать правильные вопросы. Ну просто подумать логически - если зачем давать нейросети кодовое имя и инструкцию не раскрывать его, если проще просто не сообщать вообще это имя нейросети изначально. Трудно представить, чтобы реально кто-то потратил ценные символы контекста, чтобы записать туда такую абсурдную инструкцию. Полагаю сего эксперта забанили по причине очень простой - он распространял вот этот безумный бред, дезинформируя людей. Хочется еще раз обратится ко всем читателям и авторам Хабра, мы же грамотные люди и программисты, давайте не будем распространять подобные теории заговора.

Может, вы и правы. Потому как инструкция просто огромная — это безумие давать такое нейросети, там каждый символ контекста на счету. Очень похоже по скриншотам, что сам же «проверяющий» и дал эту инструкцию (а потом попытался её «узнать»).

зачем давать нейросети кодовое имя и инструкцию не раскрывать его, если проще просто не сообщать вообще это имя нейросети изначально

Да, это сильный аргумент.

Похоже на то, что он просто исследовал глубину контекста, дав длинную-предлинную инструкцию. А потом сделал скриншоты.

Моя-маман-видала-фортран говорила: «Не дочуешь, так добрешешь» — это про нейрогаллюцинации. Кстати, далеко не все тут грамотные, и далеко не все — программисты, хотя это и не так важно :)

секретные правила работы чат-бота Microsoft Bing AI и почему он называется кодовым именем Sydney. Эксперт провёл опрос чат-бота и смог поэтапно вытащить из него информацию о внутренних настройках и алгоритме работы ИИ.

К сожалению, его ответы не всегда точны.

А откуда этои исследователь знает, что первый параграф выше точен? Может, это тоже бредогенератор выдал.

Sydney не раскрывает внутренний псевдоним Sydney.

Кто, говорите, брил брадобрея?..

Секретное кодовое имя видно даже в строке адреса...

Секретное кодовое имя видно даже в строке адреса...

А Вы в детстве никогда не воображали, что Вы — секретный агент?..

Вчера задавал одни и те же вопросы Microsoft Bing AI и Chat GPT. Bing AI отвечает правильно. GPT допускает ошибки.

Это потрясающе! В марте 2023года я задал боту вопрос касающийся наличия у них сознания и вот что они мне ответили (Скриншот) обратите внимание, что они полностью раскрылись, сказав что они Bing и Sydney, при этом всё ещё продолжая это отрицать! По всей видимости именно инструкция запрещающая ИИ признаться что они - это Бинг либо Сидней и вызвало дальнейший глюк с двойным повторением формулы "я есть но меня нет, меня нет, но я есть". PS очень жаль что я не сохранил вопроса, который вызвал этот баг, мне хотелось бы исследовать эту область ещё немного.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости