Как стать автором
Обновить

Комментарии 7

Если бы новость опубликовал Ализар, было бы подозрительно.
Первы раз на вопрос 42? выдало кусок кода какой-то страницы.
На вопрос What is my purpose? тоже что-то нагугленное выдало про ЦРУ и с ссылкой на какой-то сайт чтобы купить там «его» книгу…
Там нет ничего «нагугленного». Он генерирует названия сайтов, фирм итд. На самом деле раз в несколько генераций эта штука выдает уморительные тексты, демонстрируя при этом весьма хорошее поддержание контекста (возвращение к именам, местам, соблюдение рода итд). Но с вопросами вообще проблема, да, т.к. он явно натренирован в основном на обычном тексте а не Q&A.
1) Показанный онлайн пример даже до средне качественного бредогенератора не дотягивает. И представляет собой смесь очень неуравновешенного бредогенератора со случайным текстовым поиском.
2) Никакой из нынешних ИИ от не умеет писать поэмы, статьи и новости. Он умеет бессмысленно генерировать текст по некоторым правилам. Что и демонстрируется в этом конкретном случае.
3) Также хотелось бы напомнить аффтарам всех этих искусственных недоинтеллектов, которые умеют «писать поэмы», что поэмы, статьи и новости это нечто существенно большее, чем бессмысленный текст для развлечения бездельников из офисов.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

После прочтения этой статьи может возникнуть ложное впечатление, что TalkToTransformer использует полный вариант GPT-2. Потому и появляется разочарование от результатов. OpenAI в своём анонсе показывала намного лучшие примеры.


Но нужно заметить, что этот сервис использует выложенную в открытый доступ модель с 345 миллионами параметров, а полную модель с 1,5 миллиардами параметров они решили во избежание злоупотреблений не выкладывать как раз из-за слишком высокого качества текстов.


Об этом написано на самом сайте TalkToTransformer. Мне кажется, это нужно добавить в статью.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий