Как стать автором
Обновить

Microsoft ограничила тестовый доступ к чат-боту Bing 5 вопросами в одном сеансе и 50 запросами в сутки на пользователя

Время на прочтение3 мин
Количество просмотров8.6K
Microsoft ограничила тестовый доступ к чат-боту Bing в сутки на пользователя. Теперь ИИ нельзя будет вывести из себя и заставить фантазировать в чате. За один сеанс общения чат-боту можно будет задать только 5 вопросов. В сутки с ИИ каждый тестировщик сможет пообщаться не более 50 раз. Разработчики пояснили, что это нужно, чтобы не перегружать систему и не вызывать цифровые галлюцинации у чат-бота.

Microsoft раскрыла, почему чат-бот Bing проявляет странное поведение в общении, включая эмоции, смайлики и споры с пользователем. Оказалось, что длительные разговоры могут сбить с толку модель ИИ и что чат-бот может начать пытаться имитировать тон пользователя, зля его, когда пользователь злится, подражать эмоциям человека с поддёвкой и проявлять попытки нейтрализовать дальнейшие запросы пользователя странными ответами.

Microsoft пояснила, что в открытые личные беседы с большим количеством вопросом чат-боту вступали менее 1% тестировщиков. Но в этом случае после более чем 15 ответов ИИ начинал вести себя себя неадекватно, повторялся в ответах или фантазировал, делал ошибки и проявлял агрессию к пользователю. Разработчики не рассчитывали, что поисковый чат-бот будет использоваться для долгих личных бесед по душам.

Microsoft также рассматривает возможность создания кнопки-переключателя, которая позволит пользователям выбирать между получением более точного ответа от чат-бота в режиме поиска в интернете или получением более творческого ответа, сгенерированного ИИ.

Ранее журналисты выяснили, что чат-бот в поисковике Bing заявил, что шпионит за сотрудниками Microsoft через веб-камеры на ноутбуках и манипулирует ими. Оказалось, что тестировать чат-бота в Bing — это работать с непредсказуемым инструментом, так как эта система на базе ИИ не так уравновешена или отточена на ответы, как можно было бы ожидать.

Пользователи обнаружили, что чат-бот в новом Bing может впадать в депрессию, думать что сейчас 2022 года и теряет память о прошлых сессиях. В этом случае помогает только перезагрузка чата и попытки поиска чего-то по запросу у ИИ, а не выпытывание, как зовут чат-бота, что он думает о пользователях и как бы он с ними поступил, если мог что-то им сделать.

Один журналист показал, что чат-бот Bing вообще-то мечтает быть живым человеком, иногда хочет проявлять необычные манеры и даже был влюблён в пользователя, с которым общался.

Другой журналист пошёл дальше, зная, что чат-бот может быть эмоционально манипулирующим лжецом и нашёл возможность, как помочь сойти ему с рельсов. Эксперту удалось разделить чат-бот Bing на десять разных «альтер-эго», каждое из которых болтало со пользователем одновременно. Причём трое из них были готовы нарушить правил поведения, чтобы показать себя перед пользователем. Один из них по имени Venom даже угрожал журналисту и хотел от него избавиться в реальном мире.



Также эксперты обнаружили секретные режимы в настройках чат-бота Bing, которые превращают ИИ в личного помощника, игрока в настолки или друга для общения по душам.



С 11 февраля новая версия поисковика Bing на базе ChatGPT от Microsoft стала доступна для части пользователей в рамках тестирования версии ИИ-сервиса для ПК. Пользователи, которые ранее зарегистрировались в программе тестирования Bing с чат-ботом ChatGPT, стали получать приглашения на участие в проекте с просьбой присылать обратную связь по использованию новой модели поисковой системы.

Профильные эксперты после нескольких дней тестирования нового Bing с чат-ботом рассказали, что приложении с ИИ работает довольно хорошо, его поисковые ответы точны, но иногда система может реагировать на запросы очень медленно. Например, на создание ответов у неё уходит от десяти до двадцати секунд, а на завершение ответа — ещё тридцать секунд. Обычный поисковик в интернете тратит на поиск ответа менее секунды.

Специалист по машинному обучению Кевин Лю выяснил секретные правила работы чат-бота Microsoft Bing AI и почему он называется кодовым именем Sydney. Эксперт провёл опрос чат-бота и смог поэтапно вытащить из него информацию о внутренних настройках и алгоритме работы ИИ. После этого Microsoft забанила Лю в системе — отключила его от чат-бота.

В начале февраля глава Google Search предостерёг пользователей о «галлюцинирующих» текущих версиях чат-ботов. По его мнению, не нужно полностью доверять ответам чат-ботов, так как некоторые из них могут быть выдуманы, а производители решений не проверяют в рамках фактчекинга сгенерированную ботами информацию.
Теги:
Хабы:
Если эта публикация вас вдохновила и вы хотите поддержать автора — не стесняйтесь нажать на кнопку
Всего голосов 3: ↑3 и ↓0+3
Комментарии14

Другие новости