dbaturova7 фев 2024 в 08:15Parameter-Efficient Fine-Tuning (PEFT): методы LoRA, Prefix tuning, Prompt tuning и AdaptersУровень сложностиСреднийВремя на прочтение6 минОхват и читатели31KPython * Машинное обучение * Natural Language Processing * Из песочницыВсего голосов 5: ↑5 и ↓0+5Добавить в закладки65Комментарии2
bynull13 фев 2024 в 16:53Отлично, спасибо, наконец-то стало понятно, что PEFT это вид файн тюнинга а LoRA конкретный подход
k0ldbl00d5 фев в 10:32Комментарий был измененЕще бы кто-нибудь понятный гайд написал. А то в большинстве гайдов я обычно сваливаюсь после пункта "подготовьте датасет". Ни описания формата, ни примеров...
Parameter-Efficient Fine-Tuning (PEFT): методы LoRA, Prefix tuning, Prompt tuning и Adapters