Как стать автором
Обновить
82.45
Криптонит
Разрабатываем. Исследуем. Просвещаем

Как учатся большие языковые модели?

Рассказываем о ключевых этапах в обучении LLM: предварительном обучении (pre-training) и тонкой настройке (fine-tuning).

Претрейнинг — начальная стадия, во время которой модель обучается на огромных объёмах текстов, чтобы овладеть основами языка и знаниями о мире. Модель учится предсказывать следующий токен в предложении. Это позволяет распознавать паттерны, строить корректные по структуре предложения и «понимать» контекст.

Файнтюнинг — следующий шаг, на котором модель адаптируется к конкретным задачам или областям знаний. Её настраивают на более специфическую работу, например — генерацию текстов в определённом стиле. 

Самый простой вариант — обучить всю модель на специфическом наборе данных под конкретную задачу. Метод называется SFT (standard fine-tuning). Он требователен по количеству вычислительных ресурсов и времени.

Чтобы его ускорить, исследователи изобрели семейство методов эффективной параметрической тонкой настройки PEFT — parameter efficient fine-tuning. И один из самых популярных — LFT (Low-Rank Adaptation fine-tuning (LoRA) fine-tuning).

Идея метода — обучение матриц более низкого ранга, чем исходная матрица весов модели. Поэтому он и называется низкоранговой адаптацией. Во время LFT обучается лишь небольшая, но значимая часть весов, что экономит ресурсы. Поэтому при дефиците вычислительных мощностей лучше отдать предпочтение LFT.

Недавнее исследование показало: качество ответов после LFT может быть даже выше, чем после SFT.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Публикации

Информация

Сайт
kryptonite.ru
Дата регистрации
Дата основания
Численность
501–1 000 человек
Местоположение
Россия