Как стать автором
Поиск
Написать публикацию
Обновить

LoRA fine-tuning для генерации презентаций: как мы выбирали метод дообучения LLM в presentsimple.ai

Время на прочтение8 мин
Количество просмотров2.7K
Всего голосов 10: ↑10 и ↓0+15
Комментарии2

Комментарии 2

Не совсем понятно про 90% успеха от первых примеров. У меня вообще такое ощущение, что чем больше примеров и глубже в лес, тем сильнее изменяется результат. И те же первые примеры. Стоит поменять цвет - все уже другая картинка

спасибо за вопрос! поясню, важно изначально просто передать всевозможные паттерны, чтобы модель не уходила в другую сторону. во многих случаях этого будет достаточно, чтобы получить быстрый результат или проверить гипотезу. да, для того, чтобы продукт работал стабильно, нужно обучать на многих-многих сбалансированных датасетах каждого из паттернов

Зарегистрируйтесь на Хабре, чтобы оставить комментарий