Обновить

Комментарии 15

Я для себя вот такое сделал. Оркестрацию агентов без привязки к модели. Оркестратор ведет логи, составляет state, знает кто будет вызван когда, а каждый агент знает какие артефакты он получает, а какие выдает

https://github.com/gbFinch/agentic-orchestration

А Вот пример. https://github.com/gbFinch/windows-11-web-ui

В Папке .ai-orchestrator можно глянуть артефакты оркестрации, логи и изменение стейтов.

Интересное решение, а у тебя он умеет в циклы то есть допустим ты посидел, разработал спеку и далее по workflow система не закончит пока по спеке не сделает, что нужно и не протестируем код? Ну то есть один агент что то сделал, второй провел валидацию, или тест запустил, или ревью итд, то есть чтобы по итогу агенты приходили к рабочему варианту софта с набором тестов, грубо говоря работали в петле пока спеку не выполнили или какую-то допустим первую фазу полностью например. И ещё чем твой метод отличается от субагентов которые также можно отдать на оркестрации основному?? Ну то есть от уже встроенных в Cloud code или copilot фич.

Про полноценный sdlc писал отдельную статью https://habr.com/ru/articles/974924/

Спасибо за ссылки на статьи! Как вы их находите?

В chat gpt через ресерч, он прям неплохо ищет (во всяком случае тратится гораздо меньше времени чем через классическое гугление), можно добавлять ограничения по годам и в целом какой угодно промпт составлять.

Меня бесило, что часто при compacting он мог вообще забыть, какую задачу только что выполнял и начать выполнять задачу которую сделал вчера.

Сказал ему записать в память, чтобы перед каждым компактинг он записывал в md текущее состояние задачи и цель текущей задачи. Теперь он перед каждым compacting перезаписывает в md файле информацию по задаче, и никогда не теряется.

Можно навесить хуки на PreCompact, https://code.claude.com/docs/en/hooks#precompact чтобы у агента было меньше шансов "схалтурить"

У меня есть большой проект над которым я работаю, и, честно говоря, для меня проще самостоятельно самостоятельно вносить все изменения. Нейросети для меня всё ещё очень полезны для того, чтобы советоваться с ними насчёт проектирования, создавать что-то простое, узнавать что-то новое, находить проблемы в существующих реализациях, но это всё зачастую не требует гигантского окна контекста.

Я не хочу сказать что это всё бесполезно или глупо, просто, как мне кажется, намного проще научиться что-то делать самостоятельно и просто это делать, вместо того чтобы ещё пытаться подробно объяснять что ты хочешь получить кому-то или чему-то. Наверное это тоже в своем роде полезно, но это ведь... неэффективно? Тем не менее, как по мне, это может быть хороший старт в разработке, если сам по себе процесс использования агента прост, а не требует отдельного обучения.

Я щас вообще не совсем по теме высказываюсь, а об агентах в целом. Если я что-то не понимаю я бы хотел чтоб мне объяснили

После compaction делайте re-inject критичного состояния

Ну то есть опять ручной труд. А можно как-то автоматизировать?

Как показано в примере, если вы храните некоторый стейт в файлах то re-inject можно делать через хук https://code.claude.com/docs/en/hooks#sessionstart

Да там есть хуйки но не совсем понятно как делать рейнжект.

У них в хуке есть

transcript_path но это Path to conversation JSON, как туда встраиваться?

Было бы круто если бы в статье было больше такой конкретики с примерами.

Также есть PreCompact, там можно собрать сам стейт на момент перед компактом https://code.claude.com/docs/en/hooks#precompact

Опять-таки непонятно как его использовать. Там есть custom instruction но она empty если это автоматический компакшен, то есть кажется не подходит.

Такое ощущение что вы кодите вообще не глядя что получается? У нас мегапроект, но мы практически каждую итерацию проверяем, тестим даже минимально и то часто агент ошибается, не загруженный контекстом!!! Какой оркестр, ребята? Они по одиночке туповатые еще. Очень хочется посмотреть ваши приколы с мультиагентами, потом 100500% они сами не разберутся что где сломано😂

Так суть статьи в том чтобы у агента был верный контекст. Много контекста - шум. Мало контекста - нет конкретики, модель будет делать наугад.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации