Comments 6
Это разбиение целого агента на множество, помогает лучше контролировать ход задачи, но мешает самому результату быть полноценным
Ничего не понятно, но очень интересно.
Но ничего не понятно.
Вопрос в практическом применении: как и насколько это улучшит результат по сравнению с запросом к LLM (когда мы пишем "сделай всё" подробно расписывая) в условном Курсоре, и не получится ли, что мы меняем шило на мыло? Чем это лучше, проще, удобнее и качественнее по результату?
И да, можно ли юзать и улучшить вывод сервисов с бесплатным или недорогим предоставлением доступа к моделям? Ведь основная проблема у всех - именно высокие цены при посредственном качестве.
Приведите примеры, пожалуйста.
Добрый день.
Хороший вопрос, и он ровно про «а зачем всё это нужно, если можно просто задать запрос LLM напрямую».
1. Чем отличается «агентный» подход от простого промпта в Курсоре
Когда мы пишем LLM «сделай всё», мы получаем один проход модели: она берёт текст, пытается угадать решение и выдаёт результат. Но:
Нет памяти и итеративности. Если ошибка — придётся вручную уточнять запрос.
LLM не проверяет себя: она не запускает код, не тестирует гипотезу.
Ограничен масштаб задачи. Чем длиннее и запутаннее инструкция, тем выше шанс «потерять нить» и выдать мусор.
Агент же — это оболочка, которая:
Делит задачу на подшаги.
Может перезапускать код, проверять тесты, возвращаться к ошибкам.
Автоматически адаптируется к окружению (например, пробует разные библиотеки, а не только те, что «всплыли» в первом ответе).
По сути, это уже не «магический промпт», а цикл работы, где LLM выступает мозгом, а агент управляет процессом.
2. Чем это лучше и качественнее
Меньше ручного участия. Не нужно самому нянчить LLM, подсовывая уточняющие подсказки.
Выше точность на сложных задачах. Например, в SWE-Bench Verified агенты закрывают больше issue, чем «один промпт» к модели.
Робастность. Если окружение изменилось (новая версия пакета, другие тесты), агент адаптируется, а не ломается.
То есть это не «шило на мыло», а переход от «попробуй угадать» к «работай как инженер».
3. Практическое применение и цены
Можно использовать и недорогие модели (Claude Haiku, GPT-4o-mini, Mistral-8x7B, Llama-3.1-70B-Instruct). Агентная логика не требует «самого дорогого флагмана» — даже средняя модель, если дать ей инструменты и возможность перепроверять, даст результат лучше, чем дорогая, но в «один выстрел».
Примеры:
Кодинг. Автозакрытие issue с тестами (как в SWE-bench). Даже open-source агенты с Llama-3.1 умеют решать больше задач, чем просто промпт к GPT-4.
Документы. Авторазбор pdf → извлечение таблиц → сверка с базой. LLM сама по себе часто путает шаги, а агент прогоняет пайплайн.
Аналитика. Вопрос «собери данные, очисти, построи график и выведи инсайты» в чистом промпте часто ломается. Агент с Python-интерпретатором делает итерации до корректного графика.
4. Бюджетные сценарии
Можно поднять локально open-source агент + Llama-3.1-8B (бесплатно).
Можно использовать платные мини-модели (GPT-4o-mini, Claude Haiku), они стоят центы, но за счёт агентного цикла реально работают лучше «голого GPT-4».
Можно комбинировать: тяжёлую модель подключать только на финальном шаге (верификация/редактура), а вся черновая работа идёт на дешёвых.
👉 Итог: агентный подход — это не «новый промпт», а способ повысить надёжность и автоматизировать до конца, даже если модель среднего качества. В одиночку LLM остаётся «разговорным ассистентом», а с агентом превращается в работающего помощника-исполнителя.
Мультиагентные системы: как «команда ИИ» берёт сложность штурмом