Комментарии 16
В данной статье тестируем ruGPT-3 XL прямо на демо-странице от Сбера.
Отличия Форт языка от Forth языка
RuGPT3: Отличия Форт языка от Forth языка
===========
Отличаются Форт и
Форт. Язык источник форта.
Форт яз. Яз. Язык Эдвоката; естени, находящиеся в
области его контрупорции, по сути подчинены
Яз. Форту.
Ферт язык Водонасочный; смыстота томболонжя,
отличается от Форт яз. псалмы, а тема
падает под управление Форт Языка.
Знаки форт языка – пятиконечная звезда, отличает обе данные языки.
Знаки Форт – 8 стихий (огонь, земля, вода, воздух, метла, земля(пещера), метал, древес).
Знак Знак – две двойки, по аналогии с двумя треугольниками.
И т.д.
Переход внутрь Форт и обратно невозможен.
P.S. Что это за дополненный смысл на продолжение предложенной фразы? :)
Тоже в запросе к koala.sh/chat
Отличия Форт языка от Forth языка
Форт (Fort) и Forth — это два разных языка программирования.
Форт (Fort) — это язык программирования, созданный в 1950-х годах для научных и инженерных расчетов. Он был разработан командой IBM и получил широкое распространение в научных кругах. Форт — это язык высокого уровня, который позволяет программистам писать сложные математические формулы и алгоритмы с помощью понятных для человека команд.
Forh — это интерпретируемый язык программирования, созданный в 1970-х годах Чарльзом Муром. Forth был разработан для систем с ограниченными ресурсами, таких как микроконтроллеры, и был широко использован во встраиваемых системах. Forth — это язык низкого уровня, который позволяет программистам писать маленькие и быстрые программы, используя минимальное количество памяти.
Таким образом, основное отличие между этими двумя языками заключается в их целевой аудитории и области применения. Форт был создан для научных и инженерных расчетов, а Forth — для систем с ограниченными ресурсами.
Это может быть интересно, если не знать что Форт — это Forth язык в русской транскрипции слова его написания. :)
Репозиторий https://github.com/russiannlp — это репа от Сбера? (и тестируемый сервис)
т.к. нигде это не указано "напрямую".
Абсолютно ничего не имею против Сбера. С точки зрения клиента и пользователя мне нравятся многие моменты...
Охохох, зачем вы ящичек Пандоры открыли? :):):)
Что они там курят?
Сравнение с ChatGPT трехлетней модели на 1,3 млрд. параметров (это в 10? в 100 раз меньше?), причем сравнение на zero-shot с не instruct, не RLHF-обученной моделью. ChatGPT победил.
Был когда-то еще под DOS генератор текста, в следующий раз можно устроить сравнение с ним.
Единственная польза от данной статьи, что ребята из Сбера вспомнят, что забыли отключить API древней модели.
Кстати, Сбер же выпустил обновленную модель, можно было бы взять ее https://habr.com/ru/companies/sberbank/articles/746736/
Дообучить на instruct/chat (возможно, уже сделано) и сравнить с ChatGPT и "русифицированной" Llama2, было бы интересно и полезно. Это всего лишь 13B модель, но в данных для обучения было много русскоязычного текста. Вероятно, в знаниях и логике она уступит, но качество русского языка может быть выше.
кратко: (говно полное)
цена биткойна завтра
RuGPT3: цена биткойна завтра
На этой неделе в середине недели традиционно определяется стоимость первой половины паев самых популярных инвестиционных фондов. В среду 6 января 2018 года стоимость единой криптовалюты на Bitcoin.com превысила отметку в 16000 долларов.
Курс криптовалютами сегодня
В среду 6.01.2018 года стоимость биткойнов на Bitcoin.com достигла значения 16000 долларов.
Индекс криптовалюта.com на выходные
Несмотря на то, что в пятницу 3.01 2018 года курс американской валюты впервые в истории опустился ниже 66 ЦЕНТОВ за доллар, на выборах в Италии и на Фукусиме обстановка была спокойной и прекрасным образом подходила для проведения покупок криптовалюте.
читать далее в блоге ПерСа
rss2lj
Почему вдруг решили протестировать модель трехгодичной давности, если недавно вышла 3.5 13В?
chatGPT - инструктивная модель. ruGPT-3-XL - модель генерации текста. Она не училась отвечать на вопросы и исполнять инструкции. Вся статья - сравнение мух и котлет
"ruGPT-3-XL - модель генерации текста. Она не училась отвечать на вопросы и исполнять инструкции."
Примеры для исследования такие:
1. придумай 10 названий для историй
2. придумай начальные фразы для 10 историй
3. придумай историю о том, как две маленькие девочки пошли в лес
4. Автомобили нужны для того, чтобы
если ruGPT-3-XL как "модель генерации текста" - не для таких заданий,
то для чего тогда?
Для того, чтобы ее дообучили на конкретную задачу (те же ответы на вопросы). Почитайте как сделали chatGPT: https://openai.com/blog/chatgpt
RuGPT3XL. Примеры генерации на русском языке (zero-shot coding)