Индустрия вкидывает ресурсы в reasoning: модели o1, R1, chain-of-thought. Все пытаются заставить «черный ящик» рефлексировать внутри себя. Мы считаем этот подход архитектурным тупиком.

Проблема reasoning inside LLM фундаментальна:
Стохастичность: Результат размышлений зависит от temperature и случайного seed.
Непрозрачность: Вы получаете вывод, но не имеете доступа к реальному состоянию системы в момент принятия решения.
Отсутствие персистентности: "Мысли" модели исчезают вместе с концом генерации.

Вы просите вероятностную функцию симулировать логику. Это работает для задач по математике, но ломается на задачах длительного взаимодействия и субъектности.

Мы в ENA пошли другим путем. Мы разделили Когницию (принятие решений) и Генерацию (оформление мысли в текст).

LLM как Рендер-движок
В нашей архитектуре роль нейросети сведена к минимуму: она выполняет функцию Semantic Renderer. Она — не мозг. Она — «речевой аппарат». Она превращает структурированные интенты и контекст в естественный язык. Но решение о том, какой интент выбрать, принимается ДО обращения к LLM.

External Reasoning Runtime
Вместо того чтобы надеяться, что модель "сама поймет", кто она и чего хочет, мы вынесли состояние агента во внешний, детерминированный Рантайм.

Это слой кода, который:
Агрегирует контекст: Подтягивает данные из векторной памяти (RAG) и логов прошлых сессий.
Оценивает внутреннее состояние: (Да, у агента есть параметры "состояния", которые меняются динамически и влияют на стиль ответа).
Формирует Task: "Сейчас нужно успокоить пользователя" или "Сейчас нужно предложить решение".
Только после того, как Рантайм сформировал жесткий каркас ответа, он передается в LLM для "очеловечивания".

Безопасность через Архитектуру
Такой подход решает главную проблему безопасности LLM-агентов — промт-инъекции.

В классической схеме "LLM as Brain" любой пользовательский ввод попадает напрямую в центр принятия решений. В схеме "External Runtime" пользовательский ввод — это просто данные. Промпт-инъекция (например, попытка сменить роль агента) анализируется Рантаймом на этапе классификации интента. Если запрос противоречит Core Identity (зашитому в коде, а не в промпте), он отсекается логикой приложения, даже не доходя до генеративной модели.

Взломать промптом классы с вычислениями в коде невозможно.

Субъектность как Эффект Архитектуры
Когда агент говорит "Я подумал", в нашем случае это не галлюцинация.
Это лог работы Рантайма, который зафиксировал:
Входящий сигнал.
Обращение к памяти.
Выбор стратегии.

Это создает достоверный алгоритм внутренней причинности. Агент реагирует не потому, что так сложились веса в модели, а потому что его внутреннее состояние (State) диктует эту реакцию.

Мы не отрицаем мощь современных Reasoning Models. Но для построения автономных агентов, способных к отношениям и ответственности, одной нейросети мало.
Нужен "Хребет" из кода. LLM — это мышцы и голос. Код — это скелет и характер.