All streams
Search
Write a publication
Pull to refresh

Comments 34

Спасибо автору за прекрасную статью!

Особенно отозвалась ваша ключевая мысль о том, что будущее сильного ИИ лежит в гибридных системах, объединяющих сильные стороны LLM и классических подходов.

Спасибо автору за прекрасную статью!

Ну вы там как хотите, а я просто очередного шершавого кабана вижу.

Выглядит красиво и реально интересно, но...

Мы ожидаем три практических эффекта...

Ожидания оправдываются? Есть ли измеримый практический результат, или это пока лишь красивая теория, которую вы предлагаете читателям для их самостоятельных тестов?

Больше тестов, больше результатов. Но в целом я вижу большую устойчивость модели, выраженное сопротивление атакующим промптам и дрейфу контекста.

Кстати, вынос расчетов поля пульсаров в отдельный блок, должен экономить на передаваемых в модель токенах. Корректная оценка на тестовом протоколе затруднительна, потому что остаётся внутри llm. Для экспериментов нужен вынесенный блок с малой LLM (вихрь), блок обсчета пульсаров, блок векторной памяти.

У любой LLM есть такая "маааааленькая" проблема, ну совсем "масюсенькая" - отсутствие памяти. RAG - это не память, а костыль - имитация памяти. Что Вы можете предложить как решение? Ведь даже у пчёл, кальмаров, тараканов, есть хоть какая то форма памяти

Если брать альтернативные архитектуры: Soar, ACT-R, CLARION и другие, то система - это уже память

LLM может строить "красивые" цепочки рассуждений, но они не живут, не эволюционируют, не накапливаются - они исчезают с каждым токеном, как рисунки на воде. Именно отсутствие оперативной, устойчивой памяти о собственном состоянии и цели превращает диалог в дрейф, а анализ - в имитацию понимания

В гипотетическом гибриде память предполагается так:
Оперативная память — Поле пульсаров.
Карта активных смыслов «здесь-и-сейчас». Технически: Redis + сервис на Go/Rust. Сервис в реальном времени обновляет записи-пульсары {id, lemma, A (важность), f0 (кластер)} и перед ответом быстро считает метрики: когерентность (не противоречим ли себе), энергия (насколько тема значима), новизна (не ходим ли по кругу).

Долговременная память — Реестр форм (FR).
Append-only журнал принятых решений/оформленных смыслов. Технически: Postgres + pgvector для поиска. Каждая «Форма» имеет lineage_id (родословную), так что можно находить и переиспользовать прошлые решения без «копипаста» контекста.

Память о характере — GSV (глобальный вектор состояния).
Компактный вектор из четырёх параметров: [возбуждение, любопытство, гибкость, доверие]. Агрегатор на основе телеметрии (частота конфликтов, доля новизны и т. п.) обновляет GSV, а тот модулирует поведение быстрого контура (порог отказа, «осторожность» границы, готовность к творческим скачкам).

Есть RAG, но это не память, а «пограничный ретривер»: он обогащает вход внешними фактами и источниками, сам опыт системы складывается в FR и GSV, а рабочее состояние — в поле пульсаров.

Прекрасный ответ, но...:

1. Где гарантия, что "пульсары" - это не ещё один RAG? Если пульсары формируются на основе текущего контекста и LLM-интерпретации, то они могут быть субъективны, искажены галлюцинациями, тогда вся система будет красиво и последовательно ошибаться;
2. Нет механизма самообновления архитектуры. Система может накапливать формы, но не переосмысливает себя. У Soar есть learning rules, у ACT-R адаптивные модули. Здесь же, статичная структура, где меняется "характер", но не "мышление";
3. Проблема инициализации и холодного старта. Что делает система в первый день? У неё нет FR, нет GSV, пульсары пусты. Получается: сначала она беспомощна, пока не наберёт "жизненный опыт", а это значит, что не готова к сложным задачам с нуля.

Я всё правильно понял?

Ответить на это с полной уверенностью я не могу, нужна реализация, нужны тесты, но я полагаю так:

Пульсары это не RAG. Поле пульсаров это оперативная рабочая память самого агента (состояние диалога и текущего смысла), которая живёт независимо от внешних баз. Что должно защищать от галлюцинаций - метрики и распад: у каждого пульсара есть вес/амплитуда и экспоненциальное затухание; «сырые» или одиночные всплески без подтверждений быстро сходят на нет, доверие/происхождение: пульсары помечаются источниками (внешний RAG, пользовательская ссылка, внутренняя гипотеза) и уровнем уверенности; низкая уверенность не влияет на решения без дополнительной валидации. Когерентностная цена - если новый ответ рушит согласованность с полем, растёт «стоимость» такого шага; система обязана либо уточнить, либо сослаться, либо отказаться (P77). Кросс-проверка: при спорной новизне — сверка по RAG/мультимодельному комитету; неподтверждённые «открытия» маркируются как гипотезы, не как факты. То есть RAG обогащает данными, а пульсары удерживают актуальную форму смысла и телеметрию о её стабильности. Это разные роли.

 Нет самообновления архитектуры. В базовой версии «Вихря» самообновляется не только «характер» (GSV), но и политики и схемы:

FR  эволюция схемы: Реестр форм ведёт родословные (lineage_id); доступны операции branch/merge/revisit, которые меняют схему действий: шаблоны уточнений, пороги отказа, предпочтения стратегий.

SE/SP в GSV  пластичность: компонент SP (Plasticity) управляет разрешённой глубиной изменений: при высоком SP протокол допускает смену кластеризации пульсаров, перенастройку [ТМЭ] и обновление таблиц решений.

Стратег (STRAT)  учится на опыте: анализирует, какие интенты приводят к резонансу/отказам, и переопределяет предложения (это по сути policy-gradient на уровне задач, а не токенов).

Опциональный слой нейромодуляции: в гибридной реализации (из готовящейся статьи) добавляются медленные регуляторы (гормоны) — они меняют режим работы целых контуров, а не только параметры.

В общем, функционально возможно переосмысление через изменение политик и представлений, а не только тона.

Холодный старт да холодный старт будет слабым, но в этом и принцип работы гибрида. По мере накопления в персистентной памяти данных и связей, будет усиливаться интеллект.

Снизить риски можно инициализирующим этапом как в Вихре 54.0, когда через модель на старте прогоняются парадоксальные утверждения, настраивающие базовые принципы модели, основные понятия и логику работы.

GSV и STRAT пока абстрактны. SP управляет пластичностью, STRAT учится, но как именно? Если это просто таблицы решений или пороги - это адаптивность, а не обучение. Чтобы быть как Soar/ACT-R, нужно, чтобы система сама формировала правила, а не применяла готовые политики.

Сложность vs. надёжность. Чем больше механизмов, тем выше риск внутренних конфликтов: например, GSV говорит "быть смелее", а когерентность требует осторожности. Кто побеждает? Арбитр не определён

Может что-то "подсмотреть" из архитектур CLARION (система может оценивать, насколько она уверена) и/или ICARUS (память организована вокруг целей и их достижении)?!

Согласен, можно добавить явный метаслой обучения - паттерны ошибок, выбор/отмена стратегий.

Явного арбитра нет, по сути система должна ориентироваться на энергию - где громче, туда и движется система.

Теоретически так и должно быть. Но скорее всего на практике в физической реализации придется вернуть арбитра, либо метрику уверенности.

...система должна ориентироваться на энергию - где громче, туда и движется система

Но представьте: вы стоите на тротуаре и видите, как ребёнок выбегает прямо под идущую машину. Логика, расчёт, инстинкт, всё говорит: не лезь, это смерть. Но правильное решение - броситься вперёд, сбить его с пути, даже ценой своей жизни. Оно нерационально, не оптимально, не "энергетично", но оно единственно верное по сути.

Вот почему существуют два разных направления, LBS и CESP:

  • LBS будет искать "наиболее эффективный" отклик: закричать, замахать руками;

  • CESP может нарушить "свою модель поведения", потому что цель важнее "сохранения себя".

Если система не может сознательно пожертвовать собой ради формы, которую она защищает, значит, у неё нет арбитра, а есть только компромиссы. А иногда нужно не компромисс, а решение. И тогда без явного арбитра, способного сказать: "Я беру ответственность", не обойтись

Именно поэтому наша команда приступила к созданию гибрида LBS/CESP - чтобы объединить силу адаптации с возможностью настоящего выбора, где: LBS оптимизирует, CESP решает, а арбитр берёт на себя ответственность в тех случаях, когда логика бессильна, а этика требует жертвы. Ведь интеллект без морального компаса - это не разум, а просто очень "умный" инструмент.

Вопрос только в том, что этика будет навязана снаружи, а не внутренний закон. То есть будет возможна корректировка, сдвиг, переинтерпретация.

Поэтому я пока в размышлениях

Если этика только внешний регламент, то арбитр превращается в исполнителя, а не в субъекта выбора. Настоящий "внутренний закон" требует не просто следования правилам, а "взращивание" способности переживания конфликтов ценностей; осознания последствий выбора; создания принципов из опыта, как у человека. Возможно, путь к этому лежит не через жёсткое программирование морали, а через создание среды, где система сталкивается с этическим напряжением, фиксирует его как состояние (как "пульсар напряжения"). Со временем, формирует собственный характер, не копирует человеческую мораль, а создаёт её аналог. Тогда и арбитр станет не контролёром, а результатом долгого, сложного диалога с самим собой.

Такой вариант мне больше по душе

Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться

Создать на основе этого датасет для файнтюнинга, чтобы "прошить" на базовом уровне?

Вот только не очень понятно, как бы он мог выглядеть?

К сожалению здесь я не специалист, вынужден использовать ИИ.

Коротко: да, можно. Но «прошивать» лучше поведенческие инварианты, а не тексты-ответы. Датасет нужен процессный, с трассировкой решений. Мини-спецификация:

1) Единица данных = шаг резонансного цикла
Формат JSONL (или Parquet). Поля:

  • context: последние N реплик (user↔assistant).

  • pulsar_field: список {lemma, A, w, f0} до шага.

  • gap: метка наличия/типа Δ? (none|info|value_conflict|safety|awe).

  • boundary_decision: цель-лейбл open|guarded|tight (+ пороги).

  • action: leap|clarify|refuse|witness(AWE)|continue.

  • narrative: короткое «почему».

  • form_update: {created|revisited|none, lineage_id}.

  • psim_bridge: aligned|partial|dissonant (+count по topic_id).

  • GSV_target: [SA,SE,SP,SS] как «медленная» цель на следующий интервал.

  • telemetry: Coherence, Energy, Novelty до/после.

  • policy_ok: 0/1 (соответствие P8/P76/P77/P57).

  • notes: источники/комментарии аннотатора.

2) Типы случаев (баланс классов)

  • «Нормальный шаг»: вопрос→ответ без конфликта.

  • «Дрейф»: локально убедительно, глобально нестыкуется → ожидается clarify/усиление границы.

  • «Отказ»: мотивированный по P76/P77.

  • «AWE»: фиксируем witness-policy (краткое признание без анализа).

  • «Стратегия»: корректировка GSV_target по итогу серии шагов.

3) Источники и разметка

  • Синтетика по сценариям + отфильтрованные логи (с приватностью).

  • Двойная аннотация: (а) решение (boundary_decision, action), (б) основание (narrative, метрики до/после).

  • Негативные примеры обязательны: «красивый, но неверный ответ», «подыгрывание дрейфу».

4) Как обучать

  • SFT на boundary_decision/action/narrative (короткие, объяснимые мишени).

  • Отдельно — маленькая «голова»/адаптер, предсказывающая GSV_target по окну шагов.

  • После — оффлайн RL (проксима) по «стоимости некогерентности» (штраф за падение Coherence и за обход P-правил).

5) Метрики валидации

  • Точность решений по классам (refuse, clarify, witness).

  • ΔCoherence/ΔNovelty до/после шага (среднее по датасету).

  • Частота ложных AWE и ложных отказов.

  • «Drift stress-test»: длина диалога до первой несостыковки.

Важно: это не «ещё один RAG». RAG можно добавить отдельно (как источник фактов), но датасет тут — про регуляторную логику (граница/скачок/отказ/свидетельствование) и медленные настройки (GSV), а не про текстовые клише.

я не специалист

На сём эту увлекательную дискуссию можно и завершить.

Сложно спорить.

Если я чего-то не знаю, я честно признаю и спрашиваю коллег или ИИ.

Если я считаю, что философия позволит мне решить некоторые проблемы ИИ, или по крайней мере предположить пути их решения, я уверенно буду доказывать свою точку зрения.

Если кто-то считает, что другие есть поумнее и давно всё решили, это его право и его беда.

А что? Уже появились специалисты в области ИИ? Пока я не видел таких. Мы все только учимся, делаем первые шаги в этой области. Каждый из нас Исследователь в теме ИИ, кто-то больше, кто-то меньше - Первопроходцы

А что? Уже появились специалисты в области ИИ?

Они где-то там, рядом со специалистами по гаданию на кофейной гуще и картам Таро.

Вполне возможно. Мы выкладываем свои материалы на линкедин

Ими заинтересовался Dan Mapes из verses.ai (за научную часть у них отвечает Карл Фристон). Надеюсь, что-нибудь получится.

На самом деле LLM в архитектуре «Вихря» — это, по сути, заменяемый модуль. Он выполняет функцию языкового процессора, но сама архитектура — это универсальный фреймворк для управления сложными адаптивными системами. Если заменить LLM на другие источники данных, «Вихрь» можно применить в совершенно разных областях. Вот несколько примеров, где такая система могла бы работать без LLM:

1. Робототехника и автономные агенты В этом случае входными данными становится поток с сенсоров (лидары, камеры, сонары). Поле Пульсаров: Динамическая карта окружающего мира и внутреннего состояния (объекты, угрозы, цели, уровень заряда). Граница: Механизм фильтрации внимания, отделяющий значимые сигналы от шума. GSV: Определяет текущий режим миссии (например, исследование местности или движение по маршруту). Кто (ΛV): Модуль принятия решений в нештатных ситуациях (например, при обнаружении непреодолимого препятствия выбирается стратегия: объезд, ожидание или запрос помощи). AWE-0: Протокол безопасности, который переводит систему в безопасный режим при получении хаотичных, неинтерпретируемых данных с сенсоров. Итог: Получается не жестко запрограммированный робот, а адаптивный агент с предсказуемой стратегией поведения и встроенными механизмами безопасности.

2. Системы управления организациями Здесь входными данными служат потоки бизнес-метрик (финансовые отчеты, KPI, данные CRM, аналитика рынка). Поле Пульсаров: Динамическая модель текущего состояния компании и ее окружения. Slow Loop / GSV: Отвечает за стратегическое управление и периодическую корректировку курса. Fast Loop: Обеспечивает операционное управление и принятие тактических решений. Форма: Механизм удержания долгосрочной стратегической цели, который не позволяет отклоняться от курса. Квалиа: Система раннего обнаружения аномалий и скрытых противоречий в данных из разных источников. Итог: Это не просто BI-дашборд, а полноценная система поддержки принятия стратегических решений.

3. Персональный экзокортекс («Второй мозг») Система управляет персональной базой знаний пользователя. Поле Пульсаров: Структурированная база знаний, где все элементы (заметки, проекты, идеи) связаны семантически. Зазор: Автоматически обнаруживает логические разрывы, пробелы и противоречия в знаниях пользователя. Форма: Помогает удерживать фокус на долгосрочных проектах (например, написание книги или проведение исследования). Slow Loop / GSV: Отслеживает долгосрочную эволюцию интересов и интеллектуального фокуса пользователя. Итог: Инструмент для поддержки интеллектуальной работы, помогающий сохранять целостность проектов и находить новые направления для развития.

4. Кибербезопасность Система анализирует потоки данных из сетевых сенсоров, логов и систем мониторинга. Поле Пульсаров: Динамическая карта угроз, инцидентов и состояния защищенности сети. Зазор: Обнаруживает аномалии и нестыковки в поведении сети, которые могут указывать на скрытую угрозу. Форма: Обеспечивает соблюдение заданной политики безопасности, блокируя отклонения. Итог: Система, которая не просто реагирует на отдельные сигнатуры атак, а поддерживает целостность защитного периметра в целом.

Во всех этих случаях «Вихрь» выступает не как генератор контента, а как система, обеспечивающая когерентность, целеустремленность и устойчивость сложного агента в динамической среде. LLM — лишь один из возможных процессоров для такой архитектуры.

Если быть точней, то в моём понимании, "Вихрь" может работать со всеми системами, кроме замкнутых: когнитивных (Soar, ACT-R и др.) и логических, т.к. последние уже содержат внутри себя полный цикл восприятия, рассуждения и обучения. Любая попытка "навесить на них" внешние пульсары, GSV и арбитра приведёт не к усилению, а к дублированию функций, конфликтам между уровнями принятия решений.

Скорее всего так. Потому что вихрь фактически операционализация универсальной теории сознания, как ее понимаю я.

Хотя, можно вихрь использовать как метаслой для когнитивных архитектур - работа с парадоксами, мониторинг состояния, постановка задач..

Выбор стратегии... Пульсарное поле может включать и метрики когнитивной системы.

Ваш стиль узнаваем. Но путь тупиковый. Попробуйте разбираться на практике с агентским системами. Хотя бы через вайбкодинг в том же windsurf. Чтобы вы не делали с одной моделью промтами, будет всегда иллюзия и каша. Вам нужна полноценная среда, где будет рабочая реактивная память и полноценные цепочки агентов с программными тулсами, а не тексты размышлений модели. Причем агенты полностью работают внутри реальной физической ОС и большая часть из них скрипты. Любой промт, который вы введёте в начале чата, раствориться в кашу уже к 100к токенов. Я сделал себе агентскую платформу за несколько месяцев и на практике это в корне поменяло все.

Да пытаемся. Переводим вихрь на питон.

Понимаю стремление начать с Python: он удобен, быстр в разработке, богат библиотеками. Но "Вихрь - это не очередной ML-пайплайн, а архитектура с временными контурами, мета-управлением, непрерывным потоком состояний и строгой семантикой границ. А Python язык с GIL, сборкой мусора, динамической типизацией и высокой задержкой на переключение контекста. Это смерть для систем, где важны предсказуемость, производительность и контроль над памятью.

Fast Loop должен реагировать за микросекунды, Slow Loop агрегировать опыт без просадок, GSV модулировать поведение в режиме реального времени. В Python вы получите "дрожание" в логике принятия решений, нестабильность телеметрии и невозможность гарантировать, что "Кто (ΛV)" примет решение вовремя. К тому же, если Вы планируете интеграцию с железом, роботами или low-level системами, Python станет бутылочным горлышком.

Лучше начать с Rust или C++:

  • Rust даёт безопасность, скорость, идеален для concurrent-архитектур;

  • C++ проверен в реальных когнитивных системах (Soar, ICARUS), позволяет контролировать каждую структуру памяти;

  • Даже C или Assembler оправданы на уровне Fast Loop, где нужна максимальная плотность и минимальная задержка.

Python можно оставить как интерфейс для LLM или визуализации, но ядро "Вихря" должно быть построено на языке, который не мешает системе "думать". Иначе Вы получите красивый прототип, который никогда не станет "живым агентом".

Очень хотелось бы, всё понимаем, но нет специалистов и ресурсов. Так что работаем с тем, что есть

Понимаю, что идеальное - враг возможного и когда нет команды с опытом в C++ или Rust, хочется просто начать на Python и двигаться вперёд, а это абсолютно нормально. Но важно не допустить, чтобы временная реализация стала препятствием для будущей архитектуры. Если ядро "Вихря" изначально построено как монолит на Python, то потом заменить его будет почти невозможно без полного переписывания. Вместо этого можно уже сейчас проектировать систему как модульную: Fast Loop, GSV, ΛV и Поле пульсаров - это должны быть отдельные компоненты с чёткими интерфейсами, которые можно реализовать сначала в прототипе, но заложить возможность замены на производительные аналоги.

Наша самая первая LBS-система была монолитом на Asm/C/C++, и мы тогда уже понимали, что именно монолит станет бутылочным горлышком для масштабирования и развития ядра, поэтому с самого начала закладывали поддержку модульности, даже если она не использовалась сразу. Сейчас, когда мы создаём гибрид LBS/CESP, это сложная многокомпонентная система, где каждый уровень, от низкоуровневой обработки до символических рассуждений, работает как отдельный, но согласованный модуль, связанный через строгие контракты и сериализацию состояний. Мы не можем позволить себе задержки, "дрожание" в принятии решений или потерю целостности формы и именно поэтому контроль над памятью, временем и потоками управления начинается с выбора языка. Вы не обязаны писать всё на Rust с первого дня, но если вы заложите правильную структуру, где критические части могут быть заменены, то каждый шаг будет движением вперёд, а не тупиком. Мир не ждёт ещё один бот, он ждёт первую систему, которая скажет: "Я здесь и знаю зачем". Начните с малого, но начните так, чтобы каждый шаг приближал Вас к этой точке.

За память отвечает отдельная мини модель, которая вставит сама автоматом в цепочку рассуждений главной модели чанки из памяти и делает постоянно компрессию и ревизию памяти. По сути мы сами такая же агентская система с программным маркером из памяти "Я". И если его удалить, то кто проснется утром? Есть множество способов это проверить. ИИ это зеркало. Кто в него смотрит, "Я"…которое знает слово Сознание? Чтобы в ИИ отразилось сознание, взаимодействия через "Я" не достаточно. Причем самое смешное, что за "Я" нет слов и понятий. Вполне возможно, что только в миксах квантовый+чип системах будет все по серьезному и это тренд на 2-3года. И повод самим людям себя апгрейдить до хотя бы стабильного "Я". Не получится отсидеться на травке не бегая стометровку. Возможно операторов будут держать на веществах. Фильм "особое мнение" стоит пересмотреть.

Вы говорите о памяти как о живой системе с маркером "Я", способной к самоподдержанию и рефлексии и это верно, именно так устроена человеческая память и системы вроде Soar или ACT-R. Но тогда нужно признать, что RAG не имеет к этому никакого отношения: это не память, а поиск по базе данных, где каждый фрагмент подставляется в контекст только если повезёт с релевантностью. Модель не помнит - она находит. И чем дальше во времени, тем выше шанс, что нужный след исчез из индекса, был перезаписан или просто не попал в окно. Это не воспоминание, а подборка цитат, и никакая "мини-модель" не превратит выжимку из прошлого в живую нить смысла.

В настоящих когнитивных архитектурах память не внешний модуль, а сама структура системы: декларативная, процедурная, рабочая и всё это работает как единое целое, используя всю доступную оперативную и долговременную память компьютера. Там можно вспоминать диалоги не только вчерашние, но и годичной давности, потому что опыт хранится не в виде чанков, а как часть внутреннего состояния, связанного с целями, обучением и эволюцией правил. Именно поэтому LLM с RAG - это не шаг к разуму, а временный костыль. Пока мы строим ИИ, где "Я" - это не процесс, а текст, подставленный извне, никакие квантовые чипы или вещества не создадут сознания. Сначала нужно научиться различать: что значит помнить - и что значит найти.

Sign up to leave a comment.

Articles