Как стать автором
Обновить

Дообучение saiga2_7b_lora

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров13K
Всего голосов 17: ↑14 и ↓3+17
Комментарии8

Комментарии 8

Круто, надо попробовать!

Всё доступно)) Я получил доступ пол года назад. Для этого просто напиши в поддержку и всё заработает

интересно, Илья обучил свою модель с помощью LoRa, Это значит, что рядом с моделью были созданы новые слои. А тут получается LoRa поверх LoRa. Как так может быть? какая в итоге архитектура будет?

Не совсем.

Подготовим ноутбук для предобработки и обучения модели

Для начала загружаем модель LLama2 и адаптер LoRa (обязательно ставим параметр  is_trainable = True)

Параметр is_trainable = True подразумевает, что мы загружаем обученные слои для дообучения.

Т.е. мы пе(до)реобучаем обученные Ильей слои LoRa? Т.е. корректируем существующие слои Lora?

Да, всё верно. Это было сделано для того, чтобы не удалять полностью обучение русским диалогам и тд. А для того чтобы вывод был в нужном формате и логичность вывода сохранилась.

понял. спасибо. Работал, кстати, в Инлайне у Дрожжина несколько лет назад )
я обучил предложенную Вами модель, а потом IlyaGusev/saiga_mistral_7b_lora. Так вот вторая дала субъективно лучше результаты.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории