Да, очень близко к тому, над чем мы сейчас работаем. Главная проблема современных AI-агентов в том, что они часто действуют хаотично: состояние скрыто внутри промптов, решения трудно проверить, а ошибки почти невозможно нормально воспроизвести. Мы как раз строим систему, где поведение агента становится более предсказуемым и контролируемым — с явным состоянием, логом всех действий и возможностью восстановить весь процесс шаг за шагом. Я бы хотел посмотреть формальную часть ваших исследований.
Хороший разбор, по сути вы описали связку “NL → intent → deterministic execution + UI actions”.
Мы пошли дальше в том же направлении: LLM у нас не участвует в исполнении и не является слоем логики — только строго ограниченный intent/candidate слой.
Все действия (данные, UI, инструменты) проходят через детерминированный execution layer на FSM + StepResult контракте, где система не интерпретирует, а исполняет граф состояний.
Фактически то, что у вас реализовано как прикладной модуль внутри панели, у нас вынесено в универсальное ядро исполнения.
Посмотрел, спасибо! Отличная работа — граф действительно решает часть проблем vector search. Особенно интересно, что можно практически использовать: извлечение триплетов, построение knowledge graph, обход через PPR — это реально прикладные вещи. Но это всё ещё попытка научить поиск “думать”. Любое решение всё равно принимает LLM — просто на более структурированном контексте.
А вы пробовали задать задачу про яблоко одной и той же сетке 100 раз, в приватных чатах?
Да, очень близко к тому, над чем мы сейчас работаем. Главная проблема современных AI-агентов в том, что они часто действуют хаотично: состояние скрыто внутри промптов, решения трудно проверить, а ошибки почти невозможно нормально воспроизвести. Мы как раз строим систему, где поведение агента становится более предсказуемым и контролируемым — с явным состоянием, логом всех действий и возможностью восстановить весь процесс шаг за шагом. Я бы хотел посмотреть формальную часть ваших исследований.
Хороший разбор, по сути вы описали связку “NL → intent → deterministic execution + UI actions”.
Мы пошли дальше в том же направлении: LLM у нас не участвует в исполнении и не является слоем логики — только строго ограниченный intent/candidate слой.
Все действия (данные, UI, инструменты) проходят через детерминированный execution layer на FSM + StepResult контракте, где система не интерпретирует, а исполняет граф состояний.
Фактически то, что у вас реализовано как прикладной модуль внутри панели, у нас вынесено в универсальное ядро исполнения.
Посмотрел, спасибо! Отличная работа — граф действительно решает часть проблем vector search. Особенно интересно, что можно практически использовать: извлечение триплетов, построение knowledge graph, обход через PPR — это реально прикладные вещи. Но это всё ещё попытка научить поиск “думать”. Любое решение всё равно принимает LLM — просто на более структурированном контексте.
Пропускной портам не хватит если делить. Просто паралелить мелкие - оркестратор нужно будет пилить.