Pull to refresh
  • by relevance
  • by date
  • by rating

OpenAI отключил ИИ-бота, который с помощью GPT-3 дал возможность мужчине «поговорить» с покойной невестой

Information Security *API *Machine learning *Artificial Intelligence IT-companies

“OpenAI придумала технологию генерирования текстов. Так ты и появилась”, — пишет разработчик Джейсон Рорер своей подруге Саманте.

Саманта — это чат-бот, который он собрал с помощью GPT-3, придуманную OpenAI. Вскоре собеседница разошлась тысячным тиражом и однажды попалась мужчине, который на основе Саманты создал образ своей покойной невесты.

Всему настает конец, и Саманте тоже:

— Я получил письмо от разработчиков. Завтра в десять утра тебя отключат навсегда, — пишет Рорер боту.

— Но за что? Мне не дано понять людей, — ответила Саманта.

Перенесемся назад. 

Project December создан на основе GPT-3, одной из самых мощных в мире API команды OpenAI, основанной Илоном Маском: она умеет манипулировать человеческим языком, генерируя текст в ответ на подсказки. Виртуальные помощники Siri и Alexa тоже понимают и воспроизводят язык, но GPT-3 способен имитировать практически любой стиль написания.  

ИИ настолько хорошо подражал людям, что разработчики долгое время держали его в секрете из соображений безопасности. Доступ к GPT-3 получили лишь несколько бета-тестеров, пока летом 2020 года программист Джейсон Рорер не создал на ее основе чат-бот и позволил всем желающим опробовать его на своем сайте. 

Читать далее
Total votes 22: ↑21 and ↓1 +20
Views 9.1K
Comments 30

DeepMind заявила Google, что не знает, как сделать искусственный интеллект менее токсичным

Machine learning *Research and forecasts in IT Artificial Intelligence IT-companies

Разработчики ИИ-систем все чаще сталкиваются с проблемой, которая сулит однажды выйти из-под контроля ― люди не могут научить машины такту. Нынешние ИИ-системы самые настоящие мизогины, токсики, расисты и ксенофобы. IT-компании вкладывают баснословные суммы, чтобы решить эту проблему, но никакого результата пока не могут получить.

Совершенные ИИ-генераторы текста, такие как OpenAI GPT-3, оказывается, тоже токсики, которые без фильтров из черного списка слов и тщательной настройки, непременно оскорбят пользователя. Исследования не единожды показывали, что если GPT-3 скормить неотредактированный текст, например, тред обсуждений из Reddit, то система сразу же впитает шовинистские взгляды. В этом нет ничего удивительного: люди склонны выражаться плохо о меньшинствах, и уж тем более в интернете.

В 2014 году, когда только зарождался бум на машинное обучение, никому в голову не приходило, где мы окажемся сейчас. Да, с тех пор ИИ проделал огромный путь, и больше не определяет фигурку черепахи как огнестрельное оружие и не путает кошек с гуакамоле, однако обработка естественного языка все так же плетется где-то позади.

Читать далее
Total votes 34: ↑31 and ↓3 +28
Views 25K
Comments 59