Комментарии 2
Отличная статья! Многие используют ЛЛМ только как генератор текста, отчего стартапы очень редко отличаются друг от друга. В итоге получается, что большая часть описываемых в статьях систем это: подать на вход в ллмку текст, получить ответ и выдать юзеру.
У вас мне нравится более глубокий подход к теме, попытка использовать ЛЛМ на практике, плюс обозначение мест, где нейронка откровенно халявит. Я буду очень рад потрогать ваш проект, особенно если его можно будет запускать локально!
А теперь вопрос: не пробовали ли вы обернуть ИИшку в агента? Сейчас много есть походов к тому, как сделать ЛЛМку поумнее, например использование RAG как быструю память, или же установку судьи для нейросети - такую же нейронку, которая будет оценивать валидность ответа основной нейронки и, в случае провала, заставлять генерировать вновь.
Тема обширная и очень интересно услышать ваше мнение на еë счет.

LLM уже может все! Или еще нет?