Обновить

Комментарии 4

На какой LLM модели остановились?

Qwen-Coder-30B неплохо себя показала

Вы пишите про то что промт становился огромный, а не пробовали дробить и строить pipeline?

Мы так и делаем, промпт именно на шаге генерации получался огромным. Пытаемся его уменьшить за счет сокращения входного контекста (колонки, метрики итд)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Информация

Сайт
x5.tech
Дата регистрации
Дата основания
2006
Численность
свыше 10 000 человек
Местоположение
Россия