Как учатся большие языковые модели?
Рассказываем о ключевых этапах в обучении LLM: предварительном обучении (pre-training) и тонкой настройке (fine-tuning).
Претрейнинг — начальная стадия, во время которой модель обучается на огромных объёмах текстов, чтобы овладеть основами языка и знаниями о мире. Модель учится предсказывать следующий токен в предложении. Это позволяет распознавать паттерны, строить корректные по структуре предложения и «понимать» контекст.
Файнтюнинг — следующий шаг, на котором модель адаптируется к конкретным задачам или областям знаний. Её настраивают на более специфическую работу, например — генерацию текстов в определённом стиле.
Самый простой вариант — обучить всю модель на специфическом наборе данных под конкретную задачу. Метод называется SFT (standard fine-tuning). Он требователен по количеству вычислительных ресурсов и времени.
Чтобы его ускорить, исследователи изобрели семейство методов эффективной параметрической тонкой настройки PEFT — parameter efficient fine-tuning. И один из самых популярных — LFT (Low-Rank Adaptation fine-tuning (LoRA) fine-tuning).
Идея метода — обучение матриц более низкого ранга, чем исходная матрица весов модели. Поэтому он и называется низкоранговой адаптацией. Во время LFT обучается лишь небольшая, но значимая часть весов, что экономит ресурсы. Поэтому при дефиците вычислительных мощностей лучше отдать предпочтение LFT.
Недавнее исследование показало: качество ответов после LFT может быть даже выше, чем после SFT.