Как стать автором
Обновить

Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен

Искусственный интеллект IT-компании
Tay призналась в курении наркотических веществ рядом с полицейскими


Нет, эти глаза врать не могут

Как уже сообщалось на Geektimes, чатбот-девушка Tay, созданная стараниями специалистов Microsoft, стала общаться с обычными смертными в Twitter. Неокрепший ИИ не смог справиться с наплывом троллей, и стал повторять за ними фразы расистского толка. Корпорации пришлось удалить большую часть сообщений своего бота, и отключить его самого до выяснения обстоятельств происшедшего и исправления некоторых параметров общения.

Кроме того, корпорации пришлось извиниться перед пользователями за поведение своего бота. Сейчас, посчитав, что все хорошо, Microsoft вновь включила своего бота. По словам разработчиков, бота научили лучше различать зловредный контент. Тем не менее, почти сразу после очередного запуска бот-расист признался еще и в употреблении наркотиков.



Затем бот попросил более 210000 своих фолловеров не торопиться, и отдохнуть. Эта просьба была повторена множество раз.



После этого Microsoft переключила профиль бота в режим приватности, убрав возможность для других пользователей сети микроблогов видеть твиты Tay.

Стоит напомнить, что в Китае бот от Microsoft вполне успешно общается уже долгое время. Здесь идет взаимодействие с более, чем 40 млн пользователей из Twitter, Line, Weibo и некоторых других социальных ресурсов.

Но вот англоязычный бот что-то никак не справится с информацией, которой его пичкают интернет-тролли.
Теги:
Хабы:
Всего голосов 35: ↑29 и ↓6 +23
Просмотры 27K
Комментарии Комментарии 76