Комментарии 8
Круто, надо попробовать!
Преимущество Kaggle над Google Collab
c одним НО - россиянам недоступны на Kaddle GPU
интересно, Илья обучил свою модель с помощью LoRa, Это значит, что рядом с моделью были созданы новые слои. А тут получается LoRa поверх LoRa. Как так может быть? какая в итоге архитектура будет?
Не совсем.
Подготовим ноутбук для предобработки и обучения модели
Для начала загружаем модель LLama2 и адаптер LoRa (обязательно ставим параметр is_trainable = True)
Параметр is_trainable = True подразумевает, что мы загружаем обученные слои для дообучения.
Т.е. мы пе(до)реобучаем обученные Ильей слои LoRa? Т.е. корректируем существующие слои Lora?
Да, всё верно. Это было сделано для того, чтобы не удалять полностью обучение русским диалогам и тд. А для того чтобы вывод был в нужном формате и логичность вывода сохранилась.
Дообучение saiga2_7b_lora