dbaturova 7 фев 2024 в 11:15Parameter-Efficient Fine-Tuning (PEFT): методы LoRA, Prefix tuning, Prompt tuning и AdaptersУровень сложностиСреднийВремя на прочтение6 минКоличество просмотров15KPython*Машинное обучение*Natural Language Processing*Из песочницыВсего голосов 5: ↑5 и ↓0+5Добавить в закладки58Комментарии2
bynull 13 фев 2024 в 19:53Отлично, спасибо, наконец-то стало понятно, что PEFT это вид файн тюнинга а LoRA конкретный подход
k0ldbl00d 5 фев в 13:32Комментарий был измененЕще бы кто-нибудь понятный гайд написал. А то в большинстве гайдов я обычно сваливаюсь после пункта "подготовьте датасет". Ни описания формата, ни примеров...
Parameter-Efficient Fine-Tuning (PEFT): методы LoRA, Prefix tuning, Prompt tuning и Adapters