ИИ от OpenAI научился писать поэмы, статьи и новости



    Несмотря на то, что чатботы пока еще не слишком хорошо поддерживают беседу с людьми (хотя и постоянно совершенствуются в этом), с текстом они работают гораздо лучше. Проверить это утверждение можно при помощи веб-приложения, основа для которого — искусственный интеллект (слабая его форма).

    Так, если пользователь начинает писать новостную статью, бот может ее завершить. Также технология относительно неплохо поддерживает «общение» с человеком при помощи переписки. Если спросить «Чем мне сегодня заняться?», программа даст вполне внятный ответ. Существует и решение в виде веб-сервиса, это TalkToTransformer.com.



    Разработал его канадский инженер Адам Кинг. Стоит отметить, что он создал внешнюю часть сервиса, а вот в его основе — ИИ, разработанный исследовательской организацией OpenAI. Ранее в этом году OpenAI представила свою языковую ИИ-систему, GPT-2, а TalkToTransformer — это возможность опробовать эту систему.

    Ранее она была доступна лишь для тестирования выбранных разработчиками ученых и журналистов. «Трансформером» сервис называется по типу нейросети, которая лежит в основе GPT-2.



    Если есть желание познакомиться с языковыми возможностями ИИ, то нет лучшего варианта, чем TalkToTransformer. Сервис достаточно гибкий. Он умеет распознавать большое количество типов текстовой информации, включая рецепты, программный код, слова песен и т.п. Он также умеет идентифицировать героев различных литературных произведений, включая «Гарри Поттера» и The Lord of the Rings.

    В то же самое время, возможности системы ограничены — она не умеет «мыслить» масштабно, а действует поверхностно. Тексты, которые пишет ИИ, могут иметь сюжетные линии, героев (если это рассказ). Но все это логически не связано, то есть герои появляются и исчезают, а их действия случайны.

    Диалоги строятся по тому же случайном принципу. Если диалог более-менее стройный, то это, скорее, случай, чем возможности сервиса. Тем не менее, более простые тексты ИИ формирует весьма неплохо. Работа ведется за счет источников сети и других местах.

    Ранее на Хабре сообщалось, что GPT-2 обучается на обычных интернет-страницах (около 8 млн сайтов, 40 ГБ текста). В выборку источников обучения попали сайты, которые имеют на reddit хороший рейтинг — это сделано во избежание засорения источника данных спамерскими и рекламными ресурсами.

    При формировании диалога нужно подавать начало фразы. Например «Марс это…», после чего система дополняет предложение. Ответы сеть может давать без специального дообучения под конкретную задачу.


    • +11
    • 3,6k
    • 7
    Madrobots
    394,70
    Приближаем сингулярность за ваши деньги
    Поделиться публикацией

    Комментарии 7

      +1
      Если бы новость опубликовал Ализар, было бы подозрительно.
        0
        Первы раз на вопрос 42? выдало кусок кода какой-то страницы.
        На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…
          +1
          Там нет ничего «нагугленного». Он генерирует названия сайтов, фирм итд. На самом деле раз в несколько генераций эта штука выдает уморительные тексты, демонстрируя при этом весьма хорошее поддержание контекста (возвращение к именам, местам, соблюдение рода итд). Но с вопросами вообще проблема, да, т.к. он явно натренирован в основном на обычном тексте а не Q&A.
          0
          1) Показанный онлайн пример даже до средне качественного бредогенератора не дотягивает. И представляет собой смесь очень неуравновешенного бредогенератора со случайным текстовым поиском.
          2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
          3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.
            0

            Вы неправы насчёт поэм, статей и новостей. Я взял их маленькую модель и даже она терпимые поэмы пишет (см. ниже). А их оригинальная модель, которую они не выложили, пишет весьма неплохие тексты.

            0

            А вот написание "текстов песен": http://billion.dev.losttech.software:2095


            Исходник тут: https://GitHub.com/losttech/BillionSongs


            Статью попозже выложу

              0

              После прочтения этой статьи может возникнуть ложное впечатление, что TalkToTransformer использует полный вариант GPT-2. Потому и появляется разочарование от результатов. OpenAI в своём анонсе показывала намного лучшие примеры.


              Но нужно заметить, что этот сервис использует выложенную в открытый доступ модель с 345 миллионами параметров, а полную модель с 1,5 миллиардами параметров они решили во избежание злоупотреблений не выкладывать как раз из-за слишком высокого качества текстов.


              Об этом написано на самом сайте TalkToTransformer. Мне кажется, это нужно добавить в статью.

              Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

              Самое читаемое