В данный момент кодинг чуть ли не единственное реальное применение LLM. Я не отрицаю остальные приложения, но они в большей степени отстают от реального продукта.
Причина в том, что в кодинге есть чётко правильные и неправильные лейблы для RL. Это жутко бустит качество обучения.
Для таких задач, как перевод, суммаризация и т.д. ранжирование примеров для датасета остаётся и, скорее всего, будет субъективным. Что, наоборот, тормозит обучение.
Нативную диаризацию 🙏
И, в целом, бы без
pyannoteТогда вы невнимательно изучили пост.
В основе лежит ЕГЭ. Кроме того, вопросы дополнительно валидирваны профильными экспертами.
Также группа экспертов оценила провокативность вопросов для более глубокого анализа ответов генеративных моделей.
В данный момент кодинг чуть ли не единственное реальное применение LLM. Я не отрицаю остальные приложения, но они в большей степени отстают от реального продукта.
Причина в том, что в кодинге есть чётко правильные и неправильные лейблы для RL. Это жутко бустит качество обучения.
Для таких задач, как перевод, суммаризация и т.д. ранжирование примеров для датасета остаётся и, скорее всего, будет субъективным. Что, наоборот, тормозит обучение.
Мне кажется, что как и в остальных русскоязычных бенчмарках: замерить LLM в специфичных языковых/культурных условиях
Плюньте в человека, который логистическую регрессию вынес за пределы машинного обучения.
Если используете catboost, то зачем кодируете категориальные признаки? Библиотека ведь поэтому так и называется :)
Вот вы ребята вроде учёные/инженеры, а забываете, что у подобной энциклопедии больше претензий на научность, чем у Википедии.