Обновить

Опыт гуманитария в дообучении LLM с помощью WebUI Text Generation

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели8.2K
Всего голосов 8: ↑7 и ↓1+8
Комментарии11

Комментарии 11

"Юристов, которые смогли бы дообучить языковую модель под свои задачи, думаю, единицы." - и заплакал...

Подход абсолютно неверный. Нужно было запускать RAG и подключать русскоговорящую модель. RAG работает на уровне openapi протокола и ему неважно, через что запущена модель.

Зависит от задачи. Если задача - дать доступ модели к содержимому локальных документов, то да, RAG или агент+MCP. Но в статье задача "дообучить", и тут RAG не поможет.

Отличная статья, спасибо большое.

Я сам опытный программист, но к теме LLM отношусь с беспокойством, а ваша настойчивость и любознательность обозначили для меня как эта тема выглядит в общем и какие бывают тонкости.

Было очень интересно почитать. Вы большой молодец!

Спасибо!

По моему мнению путь тупиковый. Нормальную модель не до обучите а простые модели бесполезны. Сейчас работаю над подобной проблемой. На мой взгляд. Нужно идти по пути RAG промт нейросеть.

Надеюсь прочитать продолжение про юр. адаптацию. Архитектуру лучше Qwen3 взять - она самая топовая сейчас для мелких ЛЛМ. Удачи!

Спасибо, пока только на старте этой темы, но постараюсь довести до финала.

а вы сами пробовали?

Один кидала из Америки предложил мне занятся таким проектом для US законов. После того как он выдурил у меня архитектуру, демо и проектные доки, получил на это инвестиции и кинул всех. Поэтому можно сказать, пробовал)

Интересный опыт использования нейросетей.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации