Как стать автором
Обновить

Повышение качества генерации текстовой выдачи LLM моделей

Категории качества выдачи LLM
Категории качества выдачи LLM

Концентрация контекста

Зачастую скармливаемый модели код категорически избыточен и только забивает контекстное окно. При качественной концентрации контекста для абсолютного большинства задач хватит даже небольшого контекстного окна любой современной LLM модели. Очистка запроса к LLM это первый шаг к получению устойчивой генерации вместо галлюцинаций. Запрос к LLM должен содержать стек, среду исполнения, задачи кодовой базы, необходимые зависимости, при необходимости - получаемые ошибки и собственно полную, необходимую для понимания моделью контекста, кодовую базу. При 100% полезной информационной нагрузке и полной очистке запроса от лишних элементов - подавляющее большинство задач успешно пролазит даже в мизерное контекстное окно и мы получаем устойчивую генерацию вместо галлюцинаций.

Сегментация задач

При разбиении крупной задачи на отдельные сегменты практически любая современная LLM выдаёт абсолютно точную выдачу при работу с любым относительно распространённым языком/фреймворком/библиотекой. Единственное принципиальное отличие LLM предоставляемых крупными провайдерами от опенсорсных LLM - это умение работать с сложными запросами. При разбиении сложного запроса на более простые, любая современная LLM генерирует точную выдачу.

Повышение качества запроса

Текстовая часть запроса не менее важна, чем контекстная. Точное составление подробного запроса с подробным объяснением архитектуры кодовой базы и поставленных задач, в сочетании с достаточным контекстом - практически всегда означает качественную генерацию.

Повышение качества генерации

При комбинировании этих трёх простых методов любая современная LLM при работе с распространёнными языками/фреймворками/библиотеками выдаёт точный результат. Все опенсорсные LLM это плюс-минус форки друг друга, как в случае с дистрибутивами Linux, и основанные на них модели практически не отличаются. При использовании современной версии любой популярной LLM в сочетании с данными методами - генерации практически безошибочна.

Теги:
-1
Комментарии2

Публикации

Истории

Ближайшие события

19 марта – 28 апреля
Экспедиция «Рэйдикс»
Нижний НовгородЕкатеринбургНовосибирскВладивостокИжевскКазаньТюменьУфаИркутскЧелябинскСамараХабаровскКрасноярскОмск
24 апреля
VK Go Meetup 2025
Санкт-ПетербургОнлайн
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань
14 мая
LinkMeetup
Москва
5 июня
Конференция TechRec AI&HR 2025
МоскваОнлайн
20 – 22 июня
Летняя айти-тусовка Summer Merge
Ульяновская область