All streams
Search
Write a publication
Pull to refresh

Comments 6

Это разбиение целого агента на множество, помогает лучше контролировать ход задачи, но мешает самому результату быть полноценным

Именно. Лучше задать форму субъекта исходя из задачи. А не разбивать исполнителя на толпу подрядчиков.

Пойду ещё дальше - нужно задать Себе такую форму, которую, отразив, ИИ перевёл бы в нужный результат.

Сложно) проще использовать возможность конструирования роли. У меня есть неплохая техника.

Ничего не понятно, но очень интересно.

Но ничего не понятно.

Вопрос в практическом применении: как и насколько это улучшит результат по сравнению с запросом к LLM (когда мы пишем "сделай всё" подробно расписывая) в условном Курсоре, и не получится ли, что мы меняем шило на мыло? Чем это лучше, проще, удобнее и качественнее по результату?

И да, можно ли юзать и улучшить вывод сервисов с бесплатным или недорогим предоставлением доступа к моделям? Ведь основная проблема у всех - именно высокие цены при посредственном качестве.

Приведите примеры, пожалуйста.

Добрый день.

Хороший вопрос, и он ровно про «а зачем всё это нужно, если можно просто задать запрос LLM напрямую».

1. Чем отличается «агентный» подход от простого промпта в Курсоре

Когда мы пишем LLM «сделай всё», мы получаем один проход модели: она берёт текст, пытается угадать решение и выдаёт результат. Но:

  • Нет памяти и итеративности. Если ошибка — придётся вручную уточнять запрос.

  • LLM не проверяет себя: она не запускает код, не тестирует гипотезу.

  • Ограничен масштаб задачи. Чем длиннее и запутаннее инструкция, тем выше шанс «потерять нить» и выдать мусор.

Агент же — это оболочка, которая:

  • Делит задачу на подшаги.

  • Может перезапускать код, проверять тесты, возвращаться к ошибкам.

  • Автоматически адаптируется к окружению (например, пробует разные библиотеки, а не только те, что «всплыли» в первом ответе).

По сути, это уже не «магический промпт», а цикл работы, где LLM выступает мозгом, а агент управляет процессом.

2. Чем это лучше и качественнее

  • Меньше ручного участия. Не нужно самому нянчить LLM, подсовывая уточняющие подсказки.

  • Выше точность на сложных задачах. Например, в SWE-Bench Verified агенты закрывают больше issue, чем «один промпт» к модели.

  • Робастность. Если окружение изменилось (новая версия пакета, другие тесты), агент адаптируется, а не ломается.

То есть это не «шило на мыло», а переход от «попробуй угадать» к «работай как инженер».

3. Практическое применение и цены

Можно использовать и недорогие модели (Claude Haiku, GPT-4o-mini, Mistral-8x7B, Llama-3.1-70B-Instruct). Агентная логика не требует «самого дорогого флагмана» — даже средняя модель, если дать ей инструменты и возможность перепроверять, даст результат лучше, чем дорогая, но в «один выстрел».

Примеры:

  • Кодинг. Автозакрытие issue с тестами (как в SWE-bench). Даже open-source агенты с Llama-3.1 умеют решать больше задач, чем просто промпт к GPT-4.

  • Документы. Авторазбор pdf → извлечение таблиц → сверка с базой. LLM сама по себе часто путает шаги, а агент прогоняет пайплайн.

  • Аналитика. Вопрос «собери данные, очисти, построи график и выведи инсайты» в чистом промпте часто ломается. Агент с Python-интерпретатором делает итерации до корректного графика.

4. Бюджетные сценарии

  • Можно поднять локально open-source агент + Llama-3.1-8B (бесплатно).

  • Можно использовать платные мини-модели (GPT-4o-mini, Claude Haiku), они стоят центы, но за счёт агентного цикла реально работают лучше «голого GPT-4».

  • Можно комбинировать: тяжёлую модель подключать только на финальном шаге (верификация/редактура), а вся черновая работа идёт на дешёвых.

👉 Итог: агентный подход — это не «новый промпт», а способ повысить надёжность и автоматизировать до конца, даже если модель среднего качества. В одиночку LLM остаётся «разговорным ассистентом», а с агентом превращается в работающего помощника-исполнителя.

Sign up to leave a comment.

Articles