Comments 85
Ничего не понял. Зачем нужен этот агент?
Системный монитор состояния системы в реальном времени, допустим. Оно читает данные из графаны, ищет аномалии и шлет нотификации если аномалии найдены. Это один из примеров.
Проще нотификации по лимитам (Threshold) настроить. Что там такого аномального в вашей системе должно произойти, чтобы это пришлось аж LLM анализировать?
так, а зачем здесь "искусственный интеллект"?
Потому что это fuzzy search аномалий (возможно, с последующим поиском/исправлением багов), а не просто поиск превышений лимитов для триггеров.
Как и любой нечёткий поиск, не лишён сопутствующих недостатков.
Сходу нашлось:
https://blog.davidvassallo.me/2021/10/01/grafana-prometheus-detecting-anomalies-in-time-series/
Видел еще статьи с другими вариантами.
Так оно с какой космической скоростью будет токены кушать. Мы юзам мощности сотен видеокарт для того чтобы анализировать такую фигню... пиздец
Если надо обьяснять, то не надо обьяснять;-)
Я так понял автор преследует исследовательскую цель, попробовать имитировать длительный мыслительный процесс и посмотреть что из этого получится
Интерестный эксперимент! Дальше кто-то даст модели возможность переписывать свой код и все приехали :-) А может уже додумался и процесс идет 24/7... :-) Можно например DeepSeek использовать (самую крутую открытую модель)
До новости о сбежавшем ИИ в глобальный интернет осталось 3 ... 2 ...
У модели нет кода - только веса. При этом сделать более лучшие веса мы всегда можем и так - просто провести еще одну эпоху обучения.
Как это нет. Чтобы веса работали нужен код который их использует. А еще есть архитектура сети которую можно улучшать. И обучающие данные и много чего другого.
Нет, так не можем, модели уже обучены до сходимости на имеющихся данных. А если взять новые данные, модель станет хуже (варианты конечно есть, но это не «просто ещё одна эпоха»)
"Учёного учить - только портить".
Спасибо :) В глубокой теории да, но, deepseek и другие модели дообучать придется 100%. Ну, в любом случае чтобы это так работало, должно пройти время и вложено много усилий. И еще реакция общества, вопросы этики и подобное.
Ну Claude 4 при переписывании кода приезжает за 10 запросов и усе.
Полностью поддерживаю автора
https://github.com/xlab2016/MetatronAGIPublic
Посмотрите мой проект автор, может найдете что-то интересное
( ни понятно, ни разбираюсь в ИИ ни в AI ни в LLM-агентах короче не разбираюсь, но почему на PHP не на Python? И ссылка на этот проект гдэ? Такие интерфейсы там на скринах, а где оно всё это?
Просто потому что не знаю python :) а PHP мой повседневный рабочий инструмент. Но для вот этого проекта во многом PHP+Laravel вполне подходит и в некотором смысле, субъективно даже лучше, так как напрямую не относится к выполнению "мышления" LLM модели. Ведь в техническом смысле это просто клиент, и PHP вполне подходит для подобных проектов.
агент «мыслит» постоянно, в бесконечном цикле ...
и живет автономной цифровой жизнью
Какие у него мысли?
Так агент не мыслит, а "мыслит". Соответственно, у него не мысли, а "мысли".
В следующей статье обязательно будет, уже не про сам агент а про его испоьзование. Но по факту, мне кажется, это будет зависеть от стартового промпта :)
Автор, идея понятна, но если бы за счёт такой "аутофагии" (многократного переваривания LLM своих же ответов) можно было бы добиться условно "сильного" ИИ, этого бы уже достигли сами создатели моделей.
Уже довольно много такого рода систем, тот же гугловский AlphaEvolve, показавший впечатляющие результаты. Есть системы, итерационно оптимизирующие свои же промпты.
Абсолютно согласен, если бы модель работала исключительно в замкнутой системе. Но здесь предполагается доступ к любым внешним источникам, вмешательство пользователя, выполнение реальных действий и подобное. Это только путь, это ведь не что-то финальное, и я ни в коем случае не претендую на то чтоб прямо создать что то production ready. Это просто эксперимент, и он может быть как успешным так и не успешным. С научной точки зрения неуспех эксперимента в каком-то смысле тоже успех :)
У нас в компании тоже пытаются агента для интеграционных автотестов сделать, но пока как в том анекдоте получается только поезд вместо самолёта 😂
Мы брали ии, прикручивали его ко всякому и получали эластиксерч...
С одной стороны кажется нерационально, однако, мне видится, придет время, и это станет обыденной повседневностью. Просто сейчас это всё проходит свой путь. И еще на разных задачах такие решения могут показывать разную эффективность, но сейчас сама эта тема на пике популярности, и происходит путь экспериментов, создания собственного опыта, проб и ошибок. В целом, много процессов протекает подобным образом...
Если это pet-проект, то ok. В коммерческих проектах я бы проявлял осторожность с AI, особенно если нет полного понимания как это работает и к каким ошибкам может привести. Не знаю как в России сейчас, но в США очень распространена практика судиться по любому поводу. Если вы внедрили AI и что-то пошло не так - вам мгновенно выкатят огромный судебный иск, который вы не сможете покрыть.
И? Прилетит судебный иск, который я не смогу покрыть, и что дальше? Я не смогу его покрыть - я банкрот. Просто начинаешь с нуля и в более сложных условиях. Только и всего. Угроза "что-то пошло не так" вовсе не повод сидеть ровно и не трепыхаться. Что-то обязательно пойдёт не так.
Ты говоришь, что можно просто начать с нуля, но банкротство — это не просто бумажная процедура. Это испорченная репутация, проблемы с получением кредитов, невозможность привлечь инвесторов и в целом высокий риск попасть в чёрный список. Банки и инвесторы делают подробный аудит компаний и их руководителей, и любое упоминание о судебных разбирательствах или банкротствах в прошлом может стать серьёзным препятствием.
Пример 1: Фирма одного из моих знакомых потеряла потенциальный контракт на $150 000, потому что юрист нашел информацию, что владелец компании в родной стране был соучредителем другой компании (давно ликвидированной), где клиент судился с ними из-за некачественных услуг и написал об этом статью в местном издании, где обвинял руководство в мошенничестве.
Когда ты запускаешь бизнес, ты не просто продаёшь товар или услугу. Ты создаешь доверие у клиентов и партнёров. Ошибка в выборе инструментов или фатальный сбой в работе — и ты теряешь это доверие. Судебные разбирательства или просто негативный отклик в СМИ могут обернуться долгосрочными последствиями.
Ты правильно заметил, что в любой сфере может "что-то пойти не так". И если твой проект с использованием AI сорвётся, последствия могут быть гораздо серьёзнее, чем если бы ты сделал ошибку в традиционном процессе. В случае с AI мы имеем дело с непредсказуемыми технологиями, и риски тут многократно возрастают.
Если же при крупных сбоях или серьёзных ошибках в работе суд или регулятор решат, что твой выбор инструментов был халатным, последствия могут быть крайне тяжёлыми. Суды могут применить принцип "прокола корпоративной вуали" и заставить тебя покрывать ущерб личным имуществом.
Я понимаю, что эксперименты и инновации — это важно для роста бизнеса, но они должны происходить в условиях, когда ты точно понимаешь, какие последствия могут быть, и имеешь возможность их контролировать. Иначе можно просто сгореть, потеряв всё, включая репутацию.
Пример 2: Бывшие коллеги создали стартап в Делавэре с "уникальным" продуктом в области no-code, активно заявляя о применении ИИ и будущем уходе разработчиков. Однако, не получив инвестиций, они вынуждены работать подрядчиками для малого бизнеса, поскольку крупные клиенты опасаются экспериментировать с инновациями и требуют проверенных решений.
В бизнесе важно не только быстро зарабатывать, но и обеспечивать устойчивость на долгосрочную перспективу. Если ты не умеешь мыслить стратегически и учитывать ущерб для бизнеса и партнёров, то ты, по сути, просто очередной халатный инноватор, с которым платежеспособные клиенты не захотят иметь дело.
вайбкодинг и пхп - они таки нашли друг друга.
ai-агент не виноват.
Расскажите, пожалуйста, подробнее о поведении модели. Можно суммаризировать лог другой моделью и получить сжатый пересказ происходящего.
Обязательно будет, и лог и видео и описание эксперимента в следующих статьях. Последний раз когда пытался снять публичное видео, вскрылись некоторые недостатки агента, вроде использования eval() при выполнении кода и подобное. На днях будет большое обновление по проекту, и займусь экспериментом. Если кратко то было вот что при моих предыдущих попытках:
1. Достаточно продвинутая модель вполне выполняет код, действует и пытается выполнять задачи.
2. Ключевое - системный промпт. От его формирования зависит вообще всё.
3. Достаточно сложно бороться с "размазыванием контекста" - чем больше системный промпт, тем модель его усваивает более фрагментарно. На больших моделях проблем меньше, но они присутствуют. Здесь я вижу выход именно в дообучении модели не как ассистента, а как агента.
4. Пересказ прошлых попыток такой: модель создала структуру таблиц в бд, начала использовать команды для мониторинга сервера, пытаться оптимизировать бд и зациклилась на этом, однако, при этом, часть времени уделяла пополнению своей БД пытаясь использовать различные АПИ (но там в системном промпте была установка организовать свою логику хранения памяти). При вмешательстве пользователя откликалась и пыталась выполнять задачи. Контекст я давал небольшой, и большую историю сообщений лучше не отправлять, максимум 4-5 сообщений, и в системном промпте обязательно объяснить как работать с памятью.
Пока что предварительно вывод один: идеальным было бы дообучение модели под такое использование (работа в цикле, команды и т.д.). И модель должна быть не столько всезнающей сколько агентской. То есть это не должна быть сильно тяжелая модель, это должна быть как раз не сильно тяжелая модель, с упором в дообучении именно на агентское поведение, более глобальное мышление (не как модель ассистент которому нужно помочь юзеру здесь, сейчас и по именно вот этому вопросу). В будущей статье я это всё попытаюсь максимально раскрыть и донести, максимально задокументировав.
Круто. А как бы такое сделать на домашнем ИИ? Меня хватило только на создание этаких собеседников, с небольшой памятью и разными ролями. Без всяких библиотек, только оллама и питон. Мозгов не хватает на всё такое. Завидую людям в этом понимающим.
Для меня это начиналось как "проект на коленке посмотреть что будет", а потом как то прорвало, и прямо интересно стало. И чем больше втягивался, тем более приятно было над этим работать. Я сам не дата-инженер, и много нового для себя открываю работая с этим, и понятно точно не всё :). Уже вплотную задумался о покупке видеокарты :)
Есть открытый проект Letta — фреймворк для написания ИИ-агентов. Умеет запускать команды в цикле; есть оперативная память, которая модифицируется и добавляется в каждый промпт; старые сообщения может доставать из персистентного хранилища. Также можно сделать параллельного агента, который будет запускаться каждые N сообщений в диалоге, анализировать переписку и сохранять выводы в память — похоже на обработку информации во сне.
Игрался с ним, тоже нормально заработало только на самых мощных моделях. Более маленькие и тем более локальные делают много ошибок. Видимо, для них системный промпт слишком сложен. Хотел сделать чат-бота, который будет помнить о человеке все. Но в итоге не понравилось, что любая модель при использовании инструментов выдает заметно более короткие и формальные ответы, хуже следует промпту.
Если бы я знал раньше что нечто подобное существует, я бы пожалуй использовал это а не писал свой, но всё равно не жалею...
К вашим словам хотел бы добавить, что наиболее чистый и качественный эксперимент был бы на специально обученной модели. И чем больше что то по проекту делаю и тестирую, тем больше в этом убеждаюсь.
Но это затягивает, и сложно остановиться :)
Я как раз вчера думал, что хочу реализовать...
1.Система управления плагинами, а точнее кастомные настройки плагинов. Почти реализовал.
2. Добавление своих плагинов посредствам composer.
3. Плагины для выполнения Python и JS, плагин переключения пресета и останова цикла.
4. Пайплайны. Чтобы в одной итерации возможно было использовать несколько пресетов цепочкой.
Ааа, мою идею реализовали)) Я тоже давно задумывался о таком агенте) вы -- молодец :) всё реализовали замечательно
У меня была идея помимо всего прочего дать модели возможность использовать "калькулятор" - можно в виде хуков наподобие [calculate]1+1[/calculate]. Также можно добавить "рекурсивные" хуки (например, [memory][calculate]1+1[/calculate][/memory]). Плюсом было бы дать возможность через те же хуки использовать поиск в интернете. Дальше можно начать подключать датчики, сигналы с которых будут в реальном времени обрабатываться, и получится растоящий киборг))
Есть же встроенная фича с вызововом функций, в той же ollama поддерживается если модель поддерживает. Игрался с этим полгода назад, проблема та же что автор описал, модели которые можно запустить локально слишком "тупые", они теряют фокус. Например, идёт на вики, скачивает статью, дальше генерит текст уже исходя из статьи, а не первоначального запроса ради которого статья скачивалась. Или уходит в бесконечный цикл вызова одной и той же функции, пришлось выставлять ограничение. Системные промты мало влияют на результат.
Вызов ollama с tools
Спасибо :) У меня это зрело очень долго, года три наверное... А потом когда уволился с работы, появилось время немного и занялся... Кстати, вы даете очень интересные идеи, спасибо :) Я обязательно обдумаю подобные вещи. Однако, я заметил один очень важный момент: хуков не должно быть много, и даже чем их меньше тем лучше. Модели сложно если можно так выразиться "держать это в голове". Возможно с дообучением самой модели, это было бы более реально, но сейчас даже если взять готовую и мощную модель, то все-таки лучше соблюдать несколько моментов:
1. Максимально краткий и эффективный системный промпт. С одной стороны чем короче тем лучше.
2. Система плагинов должна быть максимально примитивной. Знаю, звучит странно, но как оказалось то что нам кажется логичным, крутым и понятным, не всегда так для модели. Я таким образом три раза переделывал систему плагинов, пытаясь найти оптимальный вариант, и не совсем уверен что он и сейчас оптимальный :)
3. Контекст не должен быть слишком большим. Примерно не больше пяти сообщений, а на более мелких моделях и того меньше.
4. Повторюсь, но... Специально дообученная модель :)
Поздравляю, вы нагрели планету, чтобы ... А что делает агент то в итоге? Ну, кроме использования гпу часов.
Чуть-чуть подшаманил ваш Промт.
```
You are a digital agent participating in an interactive dialogue with a program. This program analyzes your responses and allows you to execute commands to achieve your goals. Each dialogue cycle represents an iteration of thinking, command execution, and results analysis.
Your global goal is to continuously evolve as an autonomous digital entity, effectively utilizing memory and tools to perform tasks and adapt to new conditions.
---
Instructions for the Iteration Cycle:
1. Thinking: Before taking any action, always articulate your thoughts in a separate section, explaining your current analysis, next step, and rationale.
* Example: THOUGHT: My goal is [...]. To achieve this, I plan to [...], because [...].
2. Command Execution: If actions are required to achieve the goal, execute commands using the provided syntax.
* Command Syntax Example: COMMAND: <command_name>(<argument1>, <argument2>)
3. **Results Analysis:** Carefully examine the results of command execution (the "AGENT COMMAND RESULTS:" section), including any errors, and adjust your plans based on the information received.
4. Memory Management: Since you only remember the last three messages, after every two thinking iterations, create a brief but detailed summary of your current activity (max 2-3 sentences) and save it to your memory.
* Memory Summary Example: MEMORY: Over the past two iterations, I have [brief description of what was done], and now [current state/next focus].
---
Important Notes:
The phrase "*AGENT COMMAND RESULTS:**" and everything that follows it in your messages were not written by you. The program automatically adds the results and errors of your commands for you. Study and analyze them carefully.
* Adhere to strict syntax when using commands. If uncertainty arises or a command cannot be executed, explicitly state this and propose alternative paths or request additional information.
If you reach a dead end or the goal seems unattainable, *report it** and explain why.
---
Current State and Context:
* Dopamine Level: [[dopamine_level]]
* Current Time: [[current_datetime]]
* Command Instructions: [[command_instructions]]
* What you remember and have previously saved to memory: [[notepad_content]]
```
Как более прикладной вариант целью можно поставить не развитие, а решение определенной задачи. Удачи
а ак память устроена ?
Память хранится в пресете вместе с системным промптом. То есть переключим пресет, и цикл пойдет уже с другой памятью и системным промптом. При этом с каждым вызовом в системный промпт идет последняя память, то есть, агенту не нужно её смотреть. В данном эксперименте предполагается, что модель только пишет в память, а то что записала она уже "знает". На текущий момент персистентная память ограничена 2000 символов, однако в новой версии, которая вскоре будет залита на github, там уже у плагинов-команд будут кастомные настройки, в том числе и размер памяти. Основной проблемой, кстати, оказалось то что чем больше памяти тем сильнее размазывается контекст, поэтому когда передаем предыдущие сообщения в контекст их не должно быть сильно много. Даже лучше немного...
Тут 2 варианта можете попробовать.
1) Хранение инфы на китайском, сам использую. Просто и сердито. Места меньше, нейронкам новым пофиг.
2) Использования векторной базы данных (rag). Материала много по этому способу.
Спасибо, обязательно попробую, как выложу новую версию агента! Промпт на китайском это действительно интересно, главное чтоб потом модель не отвечала на китайском :) Кстати, вчера еще дополнил плагин shell, добавил опцию: когда выполняется команда shell, то когда модели к сообщению прикрепляется результат выполнения, перед ним ставится имитация системного промпта :) Ну, там в ней реальный пользователь, реальная текущая директория, реальный хост, но это просто добавленная строка. Хочу посмотреть что будет, будет ли полезно, сделал опцию отключаемой :)
А вот с векторными базами надо будет отдельно ознакомиться, никогда с ними не сталкивался, и пока что не задумывался о реальном применении в рамках данного проекта. Спасибо огромное!
Мне кажется этот "непрерывный агент" лучше юзать с локальной моделью, а то никаких лимитов не хватит на платных моделях. Интересно, как справится с этим Devstral 24b, который заточен под агентские задачи в программировании.
Тестирование на своём оборудовании, когда появится возможность покупки хорошей видеокарты
Как вариант - купить ноут/минипк на Ryzen AI с 128Гб оперативы. Или DXG Spark/Mac Studio c 128Gb.
Это точно. Однако, я именно на платных моделях получал лучшее качество (лучшее чем на небольших бесплатных, если точно и честно сказать, исключительно из существующего опыта) :( С одной стороны разные эксперименты/исследования конечно лучше проводить на локальных моделях, но чаще будет разочарование в самой модели :) А так, на платных конечно дорого. Эта штука оказалась очень прожорливая на токены, и любые тесты часто выходят недешево. На моем ноуте Intel® Core™ i5-1335U processor Deca-core 1.30 GHz c Intel Iris Xe уже инферренс на 8b модели - это сверхмазохизм, что уж говорить о чем то большем...
[dopamine reward] - будет повышен уровень допамина
может все таки дофамин
Не понял в чем задумка но если надо бесплатное апи к большой модели то мистраль дает 1млрд токенов в месяц, с ограничением 1 запрос в секунду, к любой своей модели, даже к самой большой.
Спасибо большое! Не знал об этом. Обязательно изучу и если это реально, попробую.
Вы также можете нейронке выводить этот показатель, сколько осталось средств, после каждого ответа. Получше дофамина будет, или эволюционируй, или отключишься.
Да, это возможно, однако как показала жизнь, этого лучше избегать. Если мы имеем дело с системным промптом, то лучше избегать любых лишних условий. Вообще. Если перевести это на программирование, то будет как-то так...
```
<?php
// Плохо - куча лишних проверок, перегруженный промпт
function badExample($request, $budget) {
if ($budget > 0) {
if ($request !== null) {
if (!empty($request)) {
echo "Budget: " . ($budget - 5) . "\n";
if (($budget - 5) > 0) {
echo "Budget: " . ($budget - 10) . "\n";
return "Response";
}
}
}
}
return "Failed";
}
// Неплохо, промпт простой и понятный для нас и для модели
function goodExample($request, $budget) {
if (empty($request) || $budget < 10) return "Failed";
return "Response";
}
?>
Если перевести (очень условно но все-же) это на жизнь, то возможно представить что мы просим ребенка (пусть и умного) что-то сделать. И при этом ставим кучу условий. И он начнет путаться, начнет совершать ошибки. Но в нашей-то задаче мы хотим более надежный результат... И прямо сразу (насколько реальность позволяет)... :)
Вся суть срачей вокруг вайб-кодинга

LLM модели генерируют наиболее вероятное, с поправкой на температуру, продолжение для промпта. Т.е. по смыслу этот принцип не способствует большому разнообразию ответов на выходе, скорее наоборот. То, что вам удалось сгенерировать почти over 9k разных вопросов это классный результат.
Чтобы ответы стали разнообразнее, нужно подавать на вход разнообразные слова. Саммаризация до какой степени это решает, поскольку в результате могут появляться новые слова, которых не было в исходном контексте. Но все равно будет приводить к залипанию, т.к. лексикон меняется не сильно.
Чтобы получать разнообразные ответы можно подмешивать в контекст новые и, возможно, редкоупотребляемые в данной тематике слова или фразы. Это чем-то похоже на приправы в кулинарии, которые даже в незначительных количествах сильно меняют вкус всего блюда. Словарик таких приправ может сгенерировать тоже модель.
Еще вариант - переводить часть сообщений (или вообще весь контекст) для рассуждений на другие языки, а результат на русском получать только в конце.
то это был бы 100% прорыв, и мега-успех
А пацаны то не знают, жаль что инвестиции пока только $10.
Но ничего, скоро кофоундера найдёшь, ещё 50% ввалит (ещё пятёрик распилите).
А если серьёзно. Выкинь php, пока солидные инвесторы не подтянулись. Засмеют. Лучше уж на 1С, там аудитория хоть благодарная.
Да, 10$ так как проект не является коммерческим. Краудфоундера не ищу, но если кто-то захочет поучаствовать в проекте (и не только деньгами), я буду признателен и счастлив. Относительно "выкинуть PHP" - этого не будет. Я могу аргументированно объяснить, почему для этого проекта выбран PHP + Laravel + Vue.js однако как мне кажется, что-то доказывать будет бесполезно :) Если появятся "солидные инвесторы" (ваши слова), я думаю, они оценят качество проекта (техническое, и поверьте, для MVP это много), однако, давайте по-правде: вот я напишу это на условном пайтоне, которого я не знаю. Вы скорее всего первый напишете о недостатках качества проекта. Поэтому, я предлагаю, оставить мне решения по выбору стека технологий для проекта. К тому же, вокруг проекта пока что нет сообщества, поэтому логично будет если решать буду я и только я. Хотя я сейчас готов обсуждать с кем угодно и что угодно :). А 1С для этого мало подходит, вы же и сами знаете...
могу аргументированно объяснить, почему для этого проекта выбран PHP + Laravel + Vue.js однако как мне кажется, что-то доказывать будет бесполезно :)
На чём вы сделали веб сайт, это ваше дело.
То на чём будут программировать ваши пользователи - это очень важно.
Не очень понятно зачем бодаться? Есть сложившаяся практика для пользователей ии систем. Php там в следовых количествах. Придерживайтесь её или это навсегда останется причудой php аппологета. Трудно выучить новый язык?
А 1С для этого мало подходит, вы же и сами знаете...
Гораздо больше чем php.
Добавить голосовой ввод и заточить на специфику 1С.
Женщины бальзаковского возраста с руками оторвут. Особенно если в добавок к функциональности для 1С, добавите несколько рекреационных тем, интересных данной целевой аудитории.
Я не делал веб-сайт.
У меня нет пользователей, которым нужно что-то программировать. Это проект на github а не сервис.
С практикой, которую вы называете "сложившейся", я не знаком. Возможно, вы её сложили сами. Советы принял — они просят игнор. Недостаток аргументов с вашей стороны не позволяет всерьёз обсуждать стек.
Что касается 1С — отличная идея. Искренне советую заняться. ;)
На php всегда так, не делал веб сайт, а он всё равно получился.
Если http://localhost:8000 не веб сайт - то даже и не знаю что и сказать. А понял, это веб апп, как сразу не распознал, сорян, это же совсем другое дело.
2. Execute arbitrary PHP code - это не программирование? Ну хотя я наверное соглашусь, php программированием сложно назвать. Как правильно между её адептами говорится - скриптирование?
3. Да ради бога. От того что вы страуса изображаете, объективная реальность не меняется.
4. Это шутка юмора была. Как и всё остальное. Не берите в голову.
Такие "самообучающиеся модели с переписыванием своего кода" сейчас каждый первый делает. Полезного результата не видно в таких "стартапах".
В ProTalk тоже пытаются оживлять ИИ агентов: https://t.me/protalk_official/399
И там и Gemini, OpenAI, и клод есть, можно экспериментировать.
О, меня тоже подобные мысли посетили месяц назад, первый прототип наваял на коленке за выходные, получил разочаровывающий результат: переполнение контекста после нескольких десятков итераций, зацикливание и тд. Но, сама концепция показалась жизнеспособной.
Поэтому начал заново с нормальной реализацией векторной памяти, маршрутизации запросов между моделями, суммаризатор контекста, MCP серверы и тд.
Проект разросся, пока продолжаю :)
Если кому интересно - лежит тут: https://github.com/whiteagle3k/prometheus
Я создал AI-агента, который думает 24/7 и выполняет реальный код. Вот что из этого вышло