Pull to refresh

Comments 110

Так много лозунгов и так мало конкретики...

немногое можем себе позволить, пока ждем документов от Роспатента. Что касается конкретики нашего стека: математический аппарат (кинетические модели вместо attention) и код (чистый Python/SciPy, локальный деплой без H100) сейчас проходят этап регистрации в Роспатенте. Как только охранные документы на архитектуру будут у нас на руках — мы опубликуем подробный разбор соматической матрицы. Раздавать фундаментальную разработку конкурентам до патентования мы не планируем

Объяснимо, но если у вас все не на уровне чистой теории, а в виде работоспособной модели, хотя бы какие-то результаты бенчмарков (или применения модели к какой-то практической деятельности) сделали бы текст гораздо лучше.

Текст и так писала LLM. Куда еще "лучше"?))

мерить когнитивную архитектуру бенчами для трансформеров, ну такое) как свои сделаем - поделюсь. следите за обновлениями)

мерить когнитивную архитектуру бенчами для трансформеров

Бенчи не для трансформеров, бенчи показывают решение конкретного класса задач без привязки к внутреннему устройству.

То есть от супостатского трансформера отказываемся, а вот Python и MacBook признаны достаточно суверенными)))))

ну да, сейчас на бересте гусиным пером пойдем писать) сарказм понятен, но бьет мимо цели. Проблема трансформеров не в том, что они “супостатские”, а в том, что они:

аппаратно ставят вас в зависимость от H100 (которые вам могут перекрыть в любой момент),

концептуально загоняют в тупик предсказания токенов. Python — это open-source, его невозможно забрать санкциями. Mac Mini — это демонстрация того, что наша архитектура способна жить локально, не требуя миллионных затрат на закупку серверов в обход санкций. Железо я уверена, подтянем со временем с нашими инженерами

Вот у меня на одной 5080 крутится инференс Qwen3.6-35B-A3B. Локально. Без доступа к интернету. И все прекрасно работает. Я даже больше скажу, если мне нужно будет использовать актуальные данные я использую RAG, а если конкретное поведение, то сделаю LoRA-адаптер к этой модели и оно будет работать так как мне нужно и без H100 и кластеров.... Так что сарказм как раз бьет прямо в цель...

да пожалуйста, надеюсь, мы вам никак не мешаем)

Железо вы без рабочей литографии не подтянете 100%. Хоть с инженерами, хоть без....

Что легче привезти по параллельному импорту - видеокарту или Мак?))))) Сарказма вы, кажется, не уловили.

По тексту - от цепей Маркова вы тоже отказываетесь?

По теме - человек учится на грандиозных объемах поступающей в него информации. Иного природа пока не придумала. Трансформеры - это не для ограничения и не для цензуры, а для того, чтобы хоть как-то это реализовать в доступном железе. Это очень-очень слабое и кривое, частичное, но - отражение того, что реализовано в нас самих.

Что вы этому противопоставляете? Реализованные на Эльбрусе стресс, усталость и лень?

«По логистике: мы нигде не утверждали, что Mac Mini — это основа суверенного железа. Это стенд-доказательство того, что наша архитектура способна жить локально, в то время как Сберу и Яндексу нужны ангары с H100. Вместо миника в будущем может появиться и что-то произведенное в РФ, сравнимое по качеству.

По цепям Маркова: да, мы от них отказываемся. Цепи Маркова предполагают зависимость состояния только от предыдущего шага. Наша система (CharacterSedimentation) накапливает долгосрочный контекст и структурные изменения “личности”, которые не укладываются в марковский процесс. Мы моделируем динамику нелинейных систем с памятью.

По нейробиологии (тут вы ошибаетесь фундаментально): Человек учится НЕ на “грандиозных объемах информации”. Младенец не прочитывает 10 терабайт Википедии, чтобы научиться говорить. Мозг учится через активное взаимодействие со средой (Active Inference) и накопление немногочисленного, но высокоценного (embodied) опыта, опираясь на врожденную архитектуру выживания (те самые “стресс и усталость”, над которыми вы смеетесь).

Трансформер — это НЕ отражение мозга. Это статистический трюк (внимание на последовательностях), придуманный для машинного перевода, который случайно оказался способен к генерализации из-за перегрузки петабайтами текста. У Трансформера нет гомеостаза, нет мотивации и нет субъективного восприятия времени.

Мы противопоставляем статистическому трюку — биомиметику. Систему, у которой есть виртуальное тело, метаболизм и потребность адаптироваться (снижать ошибку предсказания состояния), а не просто максимизировать вероятность токена. Если для вас это “лень на Эльбрусе” — боюсь, мы обсуждаем ИИ на разных философских языках)

Это стенд-доказательство того, что наша архитектура способна жить локально, в то время как Сберу и Яндексу нужны ангары с H100. Вместо миника в будущем может появиться и что-то произведенное в РФ, сравнимое по качеству.

Это не является доказательством от слова совсем... Я могу на обычном минике запустить вполне себе мощную LLM без ангаров с H100(Что вы к ним вообще прицепились? Вы только их знаете?).... Вы подменяете понятия... Вы берете очень мощную модель и рассказываете что все модели-"трансформеры" обязаны запускаться на кластере из H100, что является ложью....

Вы меняете стойку с топовыми видяхами на топовый ноутбук и считаете, что этим что-то доказываете?

По цепям Маркова - то есть, ваша система зависит не только от предыдущего шага или она вообще от предыдущих шагов не зависит? Если первое - от Маркова вы отказаться не сможете при всем желании, если второе - это будет Нобель. Десять Нобелей.

Насчет младенца и терабайт - похоже, все еще хуже, чем казалось. А на чем учится младенец, как не на терабайтах информации? Другое дело, что эти терабайты поступают в него через множество каналов - зрение, осязание, слух, плюс активно задействует обратные связи, которые, о ужас - тоже информация. И все это обрабатывается и фильтруется, чтобы в итоге из этого терабайта получился килобайт того высокоценного опыта, к которому вы апеллируете.

В трансформерах реализовано ровно то же самое - только вот, увы, канал там один. Это не отражение мозга, да, это очередное последовательное приближение к нему. Частичная реализация одной из функций, реализованная так, как возможно на сегодняшний день.

Основа вашего "философского языка", похоже - уверенность, что можно (условно говорю, чтобы остальные поняли) не учить модель на терабайтах, а некими волшебными функциями сразу инициализировать все матрицы нужными коэффициентами. Вспомнили адаптивные системы 70-х, какая радость. Волшебные слова типа "самоорганизации" и прочего, плюс модная в определенных кругах биомеметика. Коли вы адепт, то и спорить не о чем, это не наука, а религия.

Только вот младенец-то учится куда дольше, чем ДипСик.

жаль с вашей точкой зрения и вашим подходом не могу ознакомиться, на Хабре только ваши комментарии и ни одного поста или статьи.

Python, Linux, всё что OpenSource, оно для человечества.

Трансформеры - они тоже для человечества))) Как и Макбуки.

Создание суверенного ИИ, оплачено строго по смете как программа для ЭВМ (Гараж 1979г)

не получали таких счетов-фактур, ахах)

Кринжатинка подъехала....

Биомиметика вместо статистики Мы не занимаемся слепым предсказанием следующего токена. В основе нашего ИИ — непрерывный контур, моделирующий базовые принципы нейрофизиологии. Вместо того чтобы просто тасовать веса в матрицах внимания, наша система использует кинетические модели гомеостаза. Модель оперирует векторами внутреннего состояния, которые пересчитываются в реальном времени — это виртуальные аналоги возбуждения, торможения, адаптации и ресурса. Наш ИИ не просто генерирует текст — он испытывает аналоги стресса и драйва. Его реакции формируются динамической «химией» внутренних переменных, а не застывшей статистикой датасета.

Текущая структура LLM тоже не занимается слепым предсказанием....

Собственный стек и независимость от H100 Мы пишем с нуля. Нам не нужны громоздкие американские фреймворки для тяжеловесного обучения. Мы используем чистый Python/NumPy/SciPy стек, рассчитывая состояния системы в реальном времени. Наш агент не требует кластера дефицитных видеокарт. Он полноценно живет и мыслит локально, на домашнем сервере (Mac Mini M4 Pro). Это делает систему по-настоящему автономной и готовой к деплою на edge-устройствах — от роботов до бортовых систем автомобилей.

Вы используете американские фреймворки и американский компьютер для своей "модели". Ах, да.... Мне для обучения 2-8В модели не нужна Н100, мне достаточно даже проца. Вопрос только во времени обучения...

Седиментация опыта, а не Big Data Трансформерам нужны эксабайты данных для обучения. Наша модель учится иначе: встроенный механизм седиментации позволяет агенту накапливать личный опыт из взаимодействия с реальностью и пользователем. Это формирование личности через жизнь, а не через слепое сжатие всего интернета.

Для тех целей что вы указываете текущим нейронкам не нужны эксабайты данных, а если вы хотите сделать свой ChatGPT вам придется обучать вашу модель на куче данных с сжиганием кучи времени на это обучение. Информация просто из не откуда не рождается.

кринжатина, это когда в 2026 году кто-то продолжает защищать архитектуру 2017 года, выдавая её за венец творения)

  1. Про “не слепое предсказание”: LLM математически делает только одно, максимизирует вероятность P(w_t | w_{1:t-1}). Вся “сложность” трансформера просто гигантские матрицы внимания, которые ищут статистические корреляции в контексте. У них нет внутреннего гомеостаза, нет “усталости” или “стресса”, которые влияли бы на генерацию вне зависимости от промпта.

  2. Про “американские инструменты”: Мы уже ответили выше: есть разница между инструментом (Python, Mac) и движком/парадигмой (Transformer). Python это язык математики, он открыт. Трансформеры и RLHF — это архитектурная парадигма, которая диктует, как ИИ будет мыслить. Мы отказались от чужой парадигмы, а не от микроскопов. То, что вы можете обучить 2B модель на процессоре прекрасно. Но эта 2B модель всё равно останется статистическим попугаем без внутреннего состояния.

  3. Про “информацию из ниоткуда” и ChatGPT: А кто сказал, что мы делаем “свой ChatGPT”? В статье ясно написано: мы строим когнитивную архитектуру. Обучать ее тоже входит в этот процесс, и RLHF мы использовать не планируем. Чтобы ИИ знал столицу Зимбабве или код на C++, ему действительно нужна база данных, их несколько и они подключатся по мере необходимости. Но чтобы у ИИ сформировалась личность, характер, реакции на стресс и манера общения, ему нужен не терабайт Википедии, а механизм накопления опыта, и мы его создали. Живой человек не читает весь интернет, чтобы стать личностью. Он живет. Наша модель учится жить, а знания подтягивает как энциклопедию. Не путайте эрудицию с когнитивным ядром.

  1. Зачем мне в рабочем продукте "усталость" и "стресс"? Мне нужен рабочий инструмент, а не выгоревшая истеричка

  2. Вы используете Mac... Будет ли ваш алгоритм столь эффективным и вообще работать на Эльбрусе?

  3. Повторю вопрос! Зачем мне эмоции, личность и характер у машины? Для какой цели? Пример с человеком не показателен... Для того чтобы человек стал личностью со своим характером и привычками ему нужны эксабайты данных, которые он получает ежедневно и на которых учится, на протяжении многих лет....

Я вам больше скажу. Наш мозг постоянно занимается "предсказанием"... Ради приличия почитайте хотя бы как у нас устроено зрение...

  1. у меня в профиле об этом больше - https://habr.com/ru/articles/972906/ https://habr.com/ru/articles/1017336/ https://habr.com/ru/articles/1012998/ (косяки, которые в рамках трансформерной архитектуры не разрешить)

  2. время покажет, мы в начале пути, и мы верим в прогресс наших инженеров и по хардверу тоже

  3. смотрите пункт 1

насчет мозга, предсказанием - но не только

А кто сказал, что мы делаем “свой ChatGPT”?

Так вы буквально в каждом своем посте упоминаете LLM. Если ваша "архитектура" это не замена LLM, то что она решает? Какие у нее задачи?

И я еще раз упомяну. Человеку для становления "личностью со своим характером и привычками" нужна информация, просто коллосальные объемы информации. Для того чтобы он действовал на уровне рефлексов, ему не нужна "когнитивная архитектура", такое может решится обычным кодом, без всего этого бреда

ну это ваша точка зрения, я так понимаю, на абсолютную истину претендуете? мы нет. мы строим альтернативу трансформерам, которая позволит а) заменять их в задачах, где нужно обеспечить гарантии отсутствия глюков/конфабов/забывания б) управлять трансформерами как инструментами, заменяя операторов. Оба сценария не отменяют трансформер, а только показывают, что он - не предел. И пожалуйста, решайте что хотите “обычным кодом без бреда”, мы тоже обычный питоновский код) только собранный по-своему.

Я констатирую факты. Вам задают конкретные вопросы, на которые вы уходите в какую-то свою сторону. У меня создалось впечатление, что это статья для инвесторов - "как оно работает пока не покажем, но все очень классно и работает супер - поверьте"

самоуверенно подтягивать под факты ваши личные впечатления)

Т.е. вы хотите поспорить с тем, что человеку для того чтобы стать личностью со своим характером и привычками нужны просто колоссальные объемы информации? Я вас правильно понял?

спорить конкретно с вами имею минимум желания) а для формирования личности человеку нужна сенсорика, социальная среда, курированное обучение, механизмы обработки информации, непрерывность идентичности и еще несколько вещей) а не колоссальные объемы информации.

Понятненько.... Тяжелый случай....

нужна сенсорика, социальная среда, курированное обучение

И это без информации))

"Родина начинается с отказа от вероятностей." - это вы удачно зашли. Можно еще от дифференциального исчисления отказаться и от гравитации заодно.

Можно еще от цепей Маркова(прародителя языковых моделей) отказаться)))

Это вы, наверно, до последнего абзаца не дочитали, там генератор кринжа автор примерно к этому и пришёл

Вы бы это... хотя бы померяли на SWE-Bench свои результаты, или на MERA, если хотите российский бенчмарк. Ну и выложили бы результаты - был бы хотя бы масштаб понятен, за что боретесь.

А то то ли вы GPT-5.5 обходите, то ли про Gemma 4 E4B не знаете.

шикарные альтернативы, большой трансформер и маленький трансформер) в чем тут или - или? в нашей модели ответ генерируется не по вероятности и без голов внимания контекста, это в принципе альтернативный подход. А так, будущие бенчи впереди, буду держать в курсе)

Так ответьте как он у вас вообще генерируется. По вашим словам вам не нужны тонны информации "оно само")

в нашей модели ответ генерируется не по вероятности и без голов внимания контекста, это в принципе альтернативный подход.

Да пусть хоть как генерируется, интересен масштаб результата - насколько модель хорошо проходит типовые бенчмарки, к каким результатам ближе.

Из статьи понял, что российского в вас - умение громко обещать и мутно обосновывать. Вот это, например:

Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями

у вас там что-то, что не требует сложений и умножений, и совсем не параллелится?

из вашего комментария я поняла, что для вас единственно возможная архитектура ИИ — это параллельное перемножение матриц на 100+ миллиардов параметров.

Отвечаю на ваш вопрос: нет, мы не отказались от сложения и умножения. Мы отказались от пространственной гиперболизации. В трансформере для генерации одного слова вам нужно прогнать вектор через десятки слоев внимания с миллиардами весов, что требует колоссальной пропускной способности памяти (VRAM) и тысяч CUDA-ядер (чипы Nvidia H100).

Мы не предсказываем токены через гигантские матрицы вероятностей. Мы решаем кинетические уравнения состояний (аналоги концентрации нейромедиаторов) для ограниченного числа виртуальных “органов”. Да, это сложения и умножения. Но их объем на порядки меньше, потому что мы моделируем логику системы, а не пытаемся статистически сжать в веса весь интернет. Именно поэтому для поддержания “жизни” агента нам не нужны кластеры H100 с их 80GB VRAM на карту — нам хватает мощного CPU/GPU локального Mac Mini. Умение отличать статистическую брутфорс-архитектуру от компактных биомиметических моделей - на мой взгляд базовая инженерная грамотность

А что, уже существуют хоть сколько-то компактные биомиметические модели хоть сколько-то приемлемой точности? Назовите хотя бы одну.

  1. Numenta HTM (Hierarchical Temporal Memory) Разработана Джеффом Хокинсом на основе теории работы неокортекса. Принцип: Имитирует структуру кортикальных колонок мозга. Модель работает с «разреженными распределенными представлениями» (SDR), где активна лишь малая часть нейронов. Особенность: В отличие от обычных нейросетей, HTM учится непрерывно (online learning) и отлично предсказывает временные ряды, как это делает мозг, постоянно строя гипотезы о будущем.

  2. Spiking Neural Networks (SNN) — Импульсные нейросети Считаются «третьим поколением» нейронных сетей. Принцип: Информация передается не числами, а короткими импульсами (спайками) в конкретные моменты времени. Нейрон «выстреливает» только тогда, когда накопленный заряд достигает порога. Архитектуры: Модели на базе процессоров Intel Loihi или IBM TrueNorth. Зачем это нужно: Это позволяет имитировать экстремальную энергоэффективность мозга (потребление всего 20 Вт).

  3. Биомиметические графовые нейронные сети (Bio-GNN) Эти архитектуры копируют не отдельные нейроны, а связность (коннектом) реального мозга. Принцип: Архитектура сети строится на основе карт реальных нейронных связей (например, мозга плодовой мушки или мыши). Особенность: В них используются «модульные» структуры и обратные связи, которые в классических трансформерах обычно отсутствуют или упрощены.

  4. Модели с “Active Inference” (Активный вывод) Основаны на принципе свободной энергии Карла Фристона. Принцип: Вместо простой обработки входящих данных (bottom-up), модель постоянно генерирует внутренние предсказания реальности и минимизирует «ошибку удивления». Пример: Модели на базе Verses AI, которые пытаются имитировать биологическое адаптивное поведение и самоорганизацию.

  5. Живые нейронные сети (Liquid Neural Networks) Разработка лаборатории CSAIL MIT (Рамин Хасани). Принцип: Вдохновлены нервной системой крошечного червя C. elegans. Особенность: Параметры модели (дифференциальные уравнения) меняются в зависимости от входных данных в реальном времени. Это делает их невероятно гибкими и компактными — модель, управляющая автономным автомобилем, может состоять всего из 19 нейронов.

Ключевое "приемлемой точности"...

Все их я знаю. Могу даже добавить, исследований в этом направлении очень много. Хоть одна из них работает? Не как забавная многообещающая моделька, а как нечто, способное давать результат хоть в каком-то не-лабораторном процессе?

так вы спросите авторов, которые пишут эти “забавные многообещающие модельки”, почему они по конференциям со статьями ходят, а не код пишут и датасеты собирают) я-то откуда знаю. Мы в своем процессе) пока 10 доменов модель выучила, вот что собрали, то подали в патент

В трансформере для генерации одного слова вам нужно прогнать вектор через десятки слоев внимания с миллиардами весов, что требует колоссальной пропускной способности памяти (VRAM) и тысяч CUDA-ядер (чипы Nvidia H100).

Не требует. Инференс можно запустить на процессоре общего назначения с обычной RAM

Умение отличать статистическую брутфорс-архитектуру от компактных биомиметических моделей - на мой взгляд базовая инженерная грамотность

Самоуверенно выставлять свои "умозаключения" как факт

ну так запустите) но это будет все равно трансформер)

Ну так запускаю и проблем нет. А в вашем тексте проблема есть - вы утверждаете обратное

нет) в статье о моем подходе, если вы не согласны с ним, ваше право) а с вашей практикой ознакомиться не удалось - на Хабре только комментарии, материалов нет)

Это сейчас была нелепая попытка "апелляции к авторитету"? Я правильно понял?

заинтересовало, со специалистом какого уровня имею дело. столько заявлений и ни одной даже мало-мальски интересной сообществу публикации… как жаль.

То есть вы имеете ввиду, что ваша архитектура куда эффективнее чем трансформер при заданной эффективности? Если это так, хотелось бы доказательств. И непонятно, что плохого в перемножении матриц.

Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями.

Тогда есть вариант делать свои, ах да...

Если вы строите дом по чужим чертежам, из чужих кирпичей — это не ваш дом, даже если вы перевели инструкцию на русский язык.

Тогда нужно и математику переписать.

ничего плохого в перемножении матриц, и наша архитектура потенциально пригоднее для большинства юзкейсов в областях, где нужна не только логика)

Если вы решили что она лучше, значит или вы это доказали теоретически, или проверили на практике. Я так понимаю, и то и то под NDA, что вы не можете сказать подробнее?

в процессе патентования, но надо же как-то проявляться.А почему сразу резать по парадигме лучше или хуже? Трансформеры хороши в одном, когнитивные архитектуры в другом. Мы видим свой путь как российская мультимодальная модель искусственного интеллекта, построенная без голов внимания, собранная и обученная в РФ.

А почему сразу резать по парадигме лучше или хуже? Трансформеры хороши в одном, когнитивные архитектуры в другом.

Так вы сами об этом выше и пишете, что мол ваша архитектура лучше трансформеров, без справедливого оценивания.

я нашла на странице со статьей и комментариями 7 упоминаний слова “лучше”, и все они в комментах. Мы пишем, что наша архитектура ДРУГАЯ, и что российский ИИ с нашей точки зрения может и должен отойти от парадигмы трансформеров, чтобы получить ДРУГОЕ качество рассуждений (без конфабуляций, галлюцинаций, катастрофического забывания, с курированными датасетами для обучения). Я не знаю, лучше это трансформеров или хуже, время покажет.

без конфабуляций, галлюцинаций, катастрофического забывания, с курированными датасетами для обучения

Сначала говорить что не "лучше", а "другое", но при этом перечислив негативные метрики))) М - манипуляция

Для обеспечения авторского права: патент не нужен. Выглядит как просто отмазка

за два года вы написали 304 комментария и ни одной интересной статьи, напомните, по какой причине мне и читателям следует считаться с вашим мнением?

А с чего человек который сидит на Хабре обязан писать статьи для того, что бы с его мнением считались. Странные у вас критерии, конечно. Мне казалось, достаточно вести конструктивный диалог для этого.

а с чего человек, который пишет на Хабр статьи, обязан считаться с мнением анонимов? странные у вас критерии, конечно. Мне казалось, достаточно подкреплять свою точку зрения источниками и собственными работами/примерами для этого

Мне казалось, достаточно подкреплять свою точку зрения источниками и собственными работами/примерами для этого

Интересно то, что ваши слова ими как раз-таки не подкреплены.

в профиле ссылка на гитхаб - там демо код и два препринта. ваши работы уже полистала, свои вопросы оставила под вашей статьей на тему альтернативам трансформерам.

Так вы ничем ее не подкрепили.... У вас одно "мы все знаем, у нас все работает, но мы ничего не покажем, потому что патент".... Ваш гитхаб такой же....

Так еще и прям спам атака у меня в статье случилась, как научно)

прошу прощения, я не ожидала, что ваша работа такая сырая, но вопросов много) а на гитхабе есть ссылки на два моих препринта, там формальная теория и концепция метаболического ИИ

Я думаю что администрации Хабра стоит обратить внимание на данного автора.

а у вас вообще его нет)

а с чего человек, который пишет на Хабр статьи, обязан считаться с мнением анонимов?

А для чего вы на хабре выложили статью тогда?))

нужны упоминания и дискуссии, такие как с вами)

Поверьте, такая дискуссия вам не к лицу...

вам с пустым портфолио - тоже спорный вопрос, если за два года больше нечего показать хабру, кроме как свои комментарии.

А кроме "апелляции к авторитету", что-то вообще конструктивное будет или вы и дальше продолжите мерить комментаторов количеством постов?

что вы, искренний интерес к вашему профессиональному опыту. но раз его у вас нет, то и конструктивного общения на равных вам предложить не смогу) спасибо за ваше время и внимание к нашим работам

У вас профессиональный опыт измеряется количеством постов на Хабре? Еще раз! Ваша "апелляция к авторитету" на меня не работает.

а где можно полистать ваш репо? мой в профиле, а ваш?)

по какой причине мне и читателям следует считаться с вашим мнением?

Отучаемся говорить за всех. Хабр ценен в т.ч. за комментарии и в т.ч. от комментаторов (не только авторов, представляете!), которые часто гораздо лучше раскрывают саму публикацию, предмет обсуждения и автора.
Вы, например, более чем раскрылись для читателей, как токсичный, надменный человек с зашкаливающим ЧСВ, который держится на тыкании "сперва добейся".

По теме поста писать бессмысленно, ведь у меня за 13 лет всего 477 комментариев и ни одной интересной статьи.

полностью согласна, комменты писать не мешки ворочать)

Ух!
предполагал что тема про "суверенный когнитивный ИИ" вызовет взрыв эмоций, особенно после того, что она будет "обучаться по человечески", но всё оказалось очень сложно.
И совсем не понятно практически ВСЁ!
Человек обучается очень долго и катастрофически постепенно. Ваш "ии" будет также обучаться? А если в каких-то основах будет ошибка - то что? Всё стереть и учить заново?
Ещё полтора десятка лет???
Есть ещё несколько странных вопросов типа - "а Вы знаете как мыслит человек и зачем ему такое большое количество неронов и непомерное количество связей между ними?" или "как будете решать этические вопросы при убиении неудачных экземпляров?"

Есть в нашей стране очень ответственная организация - МинЦифры.
Вы к ним обращались со своим проектом?
Я обращался с парочкой...
Суверенная альтернатива Вики им не нужна, уже есть Рувики и хоть она и Вики, но вроде своя...
Суверенный интернет со смыслом им тоже не нужен - уже есть целых ДВА у Яндекса и Сбера.


пока только в фипс с заявками на изобретение и на регистрацию эвм, минцифры-то тут как поможет? касательно обучения - да нет, на 24 млн параметров обучим где-то к концу августа

А Вы всё сами будете делать? Никаких привлечений? Никаких госпрограмм?
А как потом "Внедрять"?

"24 млн параметров" ???
И что сможет это "ии" ?

  1. сами 2) в команду никто не нужен сейчас 3) госпрограммы и гранты после патентования 4) смотри пункт 3 5) ризонинг без механизма внимания, неограниченное контекстное окно, уровень рассуждения HLAI а может и больше

Так без МинЦифры не получится пункт  "3) госпрограммы и гранты после патентования..."

пункт 5 - вообще не понял.
Ну и ладно - может быть Вы понимаете.

в 5 пункте сугубо технические термины, а путь в Минцифры лежит с патентом на изобретение) мы пока на формальной экспертизе в фипс.

В целом, статья мне показалась интересной с точки зрения некоторых используемых идей... но вот остальное, всё очень странно. Вроде бы и вещи говорит автор умные, а вроде бы автор чрезмерно помешан на патриотизме к РФ и выражает ясную озабоченность её национальными интересами... Собственно, складывается ощущение, что вся цель данного проекта быть просто "100% российским национальным ИИ, построенном на отечественных (и ничего кроме отечественных) технологиях". Это странно выглядит.

Ознакомился также с группой в телеграмм и там ситуация точно такая же. "Отечественная наука", "сильный отечественный фундамент" и прочее в этом духе... Так то наука это не только про Россию, если что. Разные страны вносят разный вклад в общее человеческое дело, и российские учёные не единственные кто приносит пользу всему человечеству, в этом смысле. Странно делать акцент на "родину и ИИ", при этом активно используя достижения международного научного сообщества (Python, всё-таки, сделан не в РФ был, но используют его даже в Северной Корее). Это очень вредный фокус, как я считаю. Особенно в текущей внешней и внутренней политической обстановке.

Хотя, быть может это очередная попытка просто срубить бабла с государственного гранта. Если будет фактически доказанная лояльность текущему режиму и следование его интересам (народный ИИ, отечественные технологии, национализм, и прочее), то и грант получить можно.

Вообще, я нигде не увидел конкретного результата который можно было бы оценить. Так всё красиво расписано, но ничего кроме красиво оформленного псевдослучайного симулятора в 530 строчек Python кода на GitHub я не увидел. Сложная терминология, конечно, есть, но она лишь создаёт ощущение погружения в глубину, которое может и отсутствовать вовсе (к чему я и склоняюсь).

Акцент на "суверенном ИИ", очень много сложной и местами переусложнённой терминологии (которая, видимо, была использована с целью демонстрации "глубины погружения в тему") и псевдослучайный симулятор на GitHub, который демонстрирует... Непонятно что, честно говоря. Генерирует псевдореалистичные метрики на базе SHA-256 и всё... Ну и state machine тут ещё есть... может это просто очень урезанный интерфейс для привлечения внимания... но такое можно и с обычной LLM'кой галлюционирующей сделать (не в обиду авторам, просто может было бы лучше как-то раскрыть больше деталей, а не останавливаться на заготовке).

Ваша команда уже что-то реализовала практически? Просто интересно. Или это чисто теоретическая архитектура, которая сейчас патентуется и в будущем планируется её полноценная разработка? Пока что сложно судить что это за проект... Вроде и препринты есть (это предварительные версии исследований, а не законченные их версии), и код мало мальски на GitHub'е есть, но позиционирование... заставляет задуматься о проекте в несколько ином ключе.

привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES

All state-dependent values are derived from SHA-256 digests so the output

is deterministic for a given seed, yet the derivation is opaque." Дальше по остальным вопросам. Разработали метаболическую коммуникативную модель, решающую проблему stateless-природы LLM. Мы внедрили персистентный слой динамических состояний, который позволяет агенту сохранять консистентную идентичность, управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу. Текущая версия (8.5 - сильно новее демки) успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.

привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES

Да, я собственно с этим скриптом уже ознакомился и охарактеризовал его уже в комментарии выше как "генератор псевдореалистичных метрик на базе SHA-256" или "красиво оформленный псевдослучайный симулятор". Ничего такого, что отражало бы какую-то конкретную идею я там не увидел. Просто симулятор... концепт, чего-то "переусложнённого", не более.

Это тоже самое, как если бы я написал Python-скрипт концепт "суверенного нейроморфного визуально подкреплённого графического движка, с рандомным разбросом дисперсии математической величины в пространстве K^2 и K^3 степени на базе реального геометрического пространства детерминированной величины в кластере B1 и B2"

Собственно, вот сгенерированный одной из нейронных сетей "прототип" для "бизнес-заказчика":

"""
Sovereign Neuromorphic Visually-Reinforced Graph Engine (SNVRGE)
v0.3 experimental draft

Concept:
- Neuromorphic nodes (spiking-like dynamics)
- Visual reinforcement loop (pseudo-feedback)
- Variance diffusion over K^2 and K^3 manifolds
- Deterministic-chaotic evolution

NOTE: This is conceptual / experimental nonsense with structure.
"""

import math
import random
import hashlib
from typing import List, Tuple, Dict


# ─────────────────────────────────────────────────────────────
#  CORE MATHEMATICAL SPACE
# ─────────────────────────────────────────────────────────────

class KSpace:
    def __init__(self, dim_power: int, size: int = 32):
        self.dim_power = dim_power  # 2 or 3
        self.size = size
        self.field = self._init_field()

    def _init_field(self):
        if self.dim_power == 2:
            return [[random.random() for _ in range(self.size)] for _ in range(self.size)]
        elif self.dim_power == 3:
            return [[[random.random() for _ in range(self.size)]
                     for _ in range(self.size)]
                     for _ in range(self.size)]
        else:
            raise ValueError("Only K^2 or K^3 supported")

    def sample(self, coords: Tuple[int, ...]) -> float:
        if self.dim_power == 2:
            x, y = coords
            return self.field[x % self.size][y % self.size]
        else:
            x, y, z = coords
            return self.field[x % self.size][y % self.size][z % self.size]

    def diffuse_variance(self, intensity: float):
        # pseudo diffusion
        if self.dim_power == 2:
            for i in range(self.size):
                for j in range(self.size):
                    delta = (random.random() - 0.5) * intensity
                    self.field[i][j] += delta
        else:
            for i in range(self.size):
                for j in range(self.size):
                    for k in range(self.size):
                        delta = (random.random() - 0.5) * intensity
                        self.field[i][j][k] += delta


# ─────────────────────────────────────────────────────────────
#  NEUROMORPHIC NODE
# ─────────────────────────────────────────────────────────────

class NeuroNode:
    def __init__(self, node_id: int):
        self.node_id = node_id
        self.potential = random.random()
        self.threshold = 0.7 + random.random() * 0.3
        self.connections: List["NeuroNode"] = []

    def connect(self, other: "NeuroNode"):
        self.connections.append(other)

    def integrate(self, stimulus: float):
        self.potential += stimulus * 0.5

    def spike(self) -> float:
        if self.potential >= self.threshold:
            self.potential *= 0.3
            return 1.0
        return 0.0


# ─────────────────────────────────────────────────────────────
#  VISUAL REINFORCEMENT LAYER
# ─────────────────────────────────────────────────────────────

class VisualField:
    def __init__(self, resolution: int = 64):
        self.resolution = resolution
        self.buffer = [[0.0 for _ in range(resolution)] for _ in range(resolution)]

    def project(self, value: float, x: int, y: int):
        self.buffer[x % self.resolution][y % self.resolution] += value

    def normalize(self):
        max_val = max(max(row) for row in self.buffer) + 1e-6
        for i in range(self.resolution):
            for j in range(self.resolution):
                self.buffer[i][j] /= max_val

    def feedback(self) -> float:
        # global visual reinforcement signal
        total = sum(sum(row) for row in self.buffer)
        return math.tanh(total / (self.resolution ** 2))


# ─────────────────────────────────────────────────────────────
#  GRAPH ENGINE
# ─────────────────────────────────────────────────────────────

class SNVRGE:
    def __init__(self, num_nodes: int = 64):
        self.nodes = [NeuroNode(i) for i in range(num_nodes)]
        self._connect_graph()

        self.k2 = KSpace(2)
        self.k3 = KSpace(3)

        self.visual = VisualField()
        self.tick_count = 0

    def _connect_graph(self):
        for node in self.nodes:
            for _ in range(random.randint(2, 5)):
                target = random.choice(self.nodes)
                node.connect(target)

    def _hash_entropy(self) -> float:
        data = f"{self.tick_count}".encode()
        h = hashlib.sha256(data).digest()
        return int.from_bytes(h[:4], "big") / 2**32

    def step(self):
        entropy = self._hash_entropy()

        # variance diffusion
        self.k2.diffuse_variance(entropy * 0.05)
        self.k3.diffuse_variance(entropy * 0.02)

        spikes = []

        for node in self.nodes:
            # sample from spaces
            x = int(entropy * 1000) % 32
            y = int(node.potential * 1000) % 32
            z = int((entropy + node.potential) * 1000) % 32

            v2 = self.k2.sample((x, y))
            v3 = self.k3.sample((x, y, z))

            stimulus = (v2 + v3) * 0.5
            node.integrate(stimulus)

            s = node.spike()
            if s > 0:
                spikes.append((node.node_id, s))

        # propagate spikes
        for node_id, s in spikes:
            node = self.nodes[node_id]
            for conn in node.connections:
                conn.integrate(s * random.random())

        # visual projection
        for i, (nid, s) in enumerate(spikes):
            self.visual.project(s, nid, i)

        self.visual.normalize()
        feedback = self.visual.feedback()

        # reinforcement
        for node in self.nodes:
            node.potential += feedback * 0.1

        self.tick_count += 1

        return {
            "tick": self.tick_count,
            "entropy": entropy,
            "spikes": len(spikes),
            "feedback": feedback
        }


# ─────────────────────────────────────────────────────────────
#  DEMO LOOP
# ─────────────────────────────────────────────────────────────

def run():
    engine = SNVRGE()

    for _ in range(50):
        state = engine.step()

        print(
            f"[tick {state['tick']:03d}] "
            f"entropy={state['entropy']:.4f} "
            f"spikes={state['spikes']} "
            f"feedback={state['feedback']:.4f}"
        )


if __name__ == "__main__":
    run()

Тоже что-то сложное... тоже что-то "псевдо глубокое" и точно также - ничего не демонстрирует в сущности, как и размещённый на GitHub Ваше демо:

https://github.com/fsbioai/metabolicai/blob/main/metabolic_ai_demo.py

сохранять консистентную идентичность

Я знаком с таким проектом как Character.AI. Они там тоже стремятся к сохранению консистентной идентичности... За счёт настраивания LLM'ок, конечно, но просто ради интереса рекомендую взглянуть.

управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу

Приоритизацией памяти без RAG-костылей? Вы имеете ввиду, что источники данных он будет выбирать как-то по другому? Самостоятельно? Так и пишите, зачем усложнять? Но ведь и современные агенты этим также занимаются... могут разные источники просто взять и обобщить в них информацию. А могут какие-то источники и убрать. И RAG-это не костыль, а интерфейс для настройки LLM-агенты под нужды бизнеса. Его ориентация на те задачи, которые в контексте их задач сейчас актуальны. И что за... "асинхронная инициатива"? Вы тут, наверное, имели ввиду управление ПК (или выполнение задач) независимо от человека? Так и с OpenClaw сейчас тоже самое доступно. Разверните агентов на своём ПК и дайте какую-нибудь задачу, они могут многое сделать независимо друг от друга (кто-то в терминале, кто-то в таблице, кто-то ещё где-нибудь).

8.5 - сильно новее демки

Ну... в демке указана версия 9.0:

Metabolic AI Runtime — Demo Script FSBio Lab | Enterprise Edition | v9.0

Что-то... не то.

успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.

Я, конечно, желаю Вам удачи, но складывается ощущение, что результатов конкретных нет... и всё это пока на базе переусложнённой и логически бессвязной концепции, суть которой в безоговорочном стремлении создать "наш, российский, суверенный агент на базе сложнейшей концепции, которую простым смертным не понять". Я встречал подобное творчество от других людей... которые, буквально, помешались на ИИ (или что они под этим словом подразумевают). Ваше творчество мне чем-то это напоминает... Тот случай, когда хотел бы ошибаться :)

Забавный эксперимент с генерацией кода в ChatGPT, но вы круто воюете с соломенным чучелом. Вы потратили время на разбор публичной заглушки для бизнес-демонстрации (о чём прямо сказано в первой строке репозитория), игнорируя тот факт, что ядро Metabolic AI закрыто и патентуется. Версия 9.0 на витрине и версия 8.5.1 в закрытом контуре — это нормальная практика разделения публичного концепта и проприетарного движка.

Разница между тем, к чему вы привыкли (Character.AI, RAG), и нашей архитектурой

  1. Character.AI и RAG — это реактивные костыли. Бот существует только в момент вашего промпта. RAG просто ищет семантически похожие куски текста в базе.

  2. Метаболик ИИ — это персистентная система. В нашем закрытом контуре агент (Phoenix 8.5.1 ) обладает непрерывным фоновым процессом (Homeostat). Вектор его внутренних состояний (виртуальные гормоны) вычисляется асинхронно, даже когда к нему никто не обращается, и напрямую модулирует гиперпараметры модели до генерации ответа.

  3. Приоритизация памяти без RAG означает, что вес воспоминания зависит не от совпадения ключевых слов, а от интенсивности сдвига вектора состояния в момент события. Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.

То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально. В 2017 году концепт Attention Mechanism тоже казался многим «псевдоглубоким».

Продолжайте изучать публичные демки и настраивать агентов для таблиц)

Данный комментарий отличается от предыдущего на столько, что можно предположить, будто пишет совершенно другой человек. Вы всей командой отвечаете на сообщения под статьями? :)

Вы потратили время на разбор публичной заглушки для бизнес-демонстрации

Ну, ваш коллега как бы не однократно писал под данной статьёй комментарии, что у него то вот есть результаты в публичном доступе, которые "доступны и можно посмотреть" (соответствующие комментарии выше), а я достаточно опытный разработчик чтобы судить о результатах по факту. Я зашёл посмотреть, ничего существенного не увидел. Даже пример сгенерировал одной из нейронок, который по стилю и тону на эту демку очень похож. Просто что-то переусложнённое, для бизнеса, для демонстрации "глубокой экспертизы" и иллюзии достижения результата.

OpenClaw, например, разрабатывают довольно сложную систему и выпускают её в открытый доступ, а с помощью неё, на секундочку, уже можно автоматизировать рабочее место так, что человек нужен будет только в точке "целеполагания работ" и контроля. Вы могли бы поступить аналогично. Хотя бы в браузере дать доступ к каким-то существующим результатам (сгенерировать веб-приложение на ChatGPT / DeepSeek / Qween, которое будет обращаться по API к вашей нейронки - довольно просто). Вы этого не сделали. Следовательно - странная история... Банально чат-бот сделать в телеграм или вебе уже бы демонстрировало серьёзный подход к делу. Ведь ничего не теряете в сущности, если предоставите общепринятый интерфейс для взаимодействия с чат-ботами. Никакие конкуренты ничего не своруют :)

вычисляется асинхронно

Надеюсь вы понимаете разницу между асинхронными и параллельными вычислениями... А то тут сразу "фоновый процесс", "вычисляется асинхронно", "даже когда к нему никто не обращается"... некоторая смесь получается, которую интерпретировать можно по разному.

Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.

Ну вот теперь более менее понятно. Вот сама суть. Классический Reinforcement Learning (RL), его вы, собственно, и описываете.

То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально

Это не всегда нормально. Я уже встречал подобные идеи, которые патентовали разные патентные тролли без какого-то реального результата. Грубо говоря, пришла им в голову мысль, сгенерировали с помощью LLM патент и отправили на регистрацию. Просто патентный троллинг, не более. Склоняюсь к тому, что текущий проект что-то в этом духе тоже преследует, т.к. результатов я не увидел никаких. Могли бы и продемонстрировать хотя бы веб-приложение, а не просто кидаться архитектурой "суверенного ИИ". Пока что - всё странно (по моему субъективному мнению) :)

Продолжайте изучать публичные демки и настраивать агентов для таблиц)

Продолжайте отвечать на комментарии и писать публичные демки через ChatGPT :)

мы выкинули все примитивы ml и просто размапили в питоне всю нейрофизиологию для моделирования поведения агента, RLHF нет, бэкпропа нет, функции потерь нет, веса перестраиваются на ходу) интерпретируйте как хотите, возможно, для вас на текущем этапе захода в ML (а вы человек, который только восемь месяцев назад завёл GitHub под ML, у которого в портфолио MNIST и LoRA-туториал, который сам признаётся “currently learning ML”) лобстер кажется вершиной технологической революции, это тоже нормально). А вам обидно наверное просто, мидлов тюнящих ллм тысячи, выделиться нечем) ну не расстраивайтесь, у каждого свой путь)

О, ничего себе, первый собеседник вернулся :) Знаете, если вы будите так общаться с аудиторией, то в серьёз вас воспринимать она не будет. Вы прям брызжите слюной, лишь бы как-то задеть, как-то унизить оппонента, как-то выставить себя в более "положительном ключе". Очень наивно. Это поведение ребёнка, а не взрослого человека.

Я не знаю каков ваш уровень погружения в тему ML (у собеседника из предыдущего комментария он, вероятно, выше), но лично я имею неплохое представление о том, как устроены классические конвейеры машинного обучения. Конкретно в область NLP я глубоко не погружался, на данный момент я занимаюсь исследованием, в ходе которого разрабатываю систему для своевременного обнаружения противоправного поведения людей (формулировка задачи для вас - максимально абстрактная, как вы любите, разумеется по факту звучит она более приземлённо) по видеопотоку из камеры. Погружаюсь в эту область, и тут также использую трансформеры (на базе RT-DETR), и мультимодальные свойства LLM-агентов (на базе общедоступного Qween). В общем-то, я бы не сказал что я прям 0 в ML и ничего не понимаю (что, по видимому, истеричный собеседник №1 и пытался донести), однако у меня достаточно навыка системного анализа, чтобы достаточно быстро разбираться в интересных для меня темах. И сейчас мой фокус - AI&ML направление. Собственно, по теме исследования это и так понятно.

Что касательно портфолио - в контексте AI&ML направления оно маленькое. Оно в целом маленькое, потому что разработки которые под NDA нельзя публиковать в публичные репозитории (это ведь, нормальная практика, да? :))).

в фокусе мы кардинально расходимся, мы проектируем альтернативу трансформерам, мы в начале пути. касательно портфолио - почему-то вы считаете, что ваша обфускация по nda допустима, а моя говорит о недоработках, двойной стандарт, но да ладно - ваше право, желаю вам успеха в разработке!)

двойной стандарт

Результат моей работы (которая под NDA) - публично доступна для скачивания и этой экосистемой приложения пользуется большое число людей. В комментарии выше можно заметить, что я предложил "создать веб-приложение, которое бы демонстрировало работу вашей системы", потому что одно дело - код под NDA, другое - внешняя оболочка. Если внешняя оболочка простой скрипт сгенерированный на ChatGPT демонстрирующий... ничего, то и знакомиться там не с чем.

сколько безосновательного яда) ладно, еще раз успехов) регистрация ЭВМ в процессе, только 19 апреля заявку подали. параллельно патент на изобретение на формальной экспертизе.

Главное не забыть закончить диалог каким-нибудь положительным комментарием, в котором обязательно не искренне пожелать успехов, чтобы не дай бог кому-нибудь не показаться "плохим" в этой словесной перестрелке :)))

Да там, видимо, группа лиц сидит, ну или просто LLM забывает контекст. Как минимум потому, что используются глаголы в разном роде.

Если вы такие крутые разработчики ИИ, то предлагаю вам ознакомиться с этой очень классной статьей про RL-алгоритмы.
https://habr.com/ru/articles/991622/
Очень сомневаюсь, что вы вообще поймёте о чём там идёт речь. Ну а что, вы ведь точно эксперты в RL-алгоритмах? Может по достоинству оцените данное исследование и личная самооценка по умерится?

спасибо, пообщаемся с автором, если будут точки соприкосновения, два из трех тестировали в декабре, актор-критик дает наихудшее поведение, но это лишь наш опыт

а разве алгоритмы патентуются? или то о чем вы говорите это не алгоритм, тогда что?

из лирики - по тексту статьи не совсем понятно на кого она ориентирована. если на технарей, то то слово "суверенный" нужно вырезать, у нас проф деформация - под этот термин подтягивается "ограниченный", ну и дальше раскручивается в сознании всякое нехорошее... те под выступление в думском комитете, норм, а нам бы попроще, что то а ля "вот есть проблема(ы) (пример: высокие требования к ресурсами, галлюцинации, и тд) вот мы придумали решение: описание решения, вот пример как оно работает без и с нашим решением, вот тут можете пощупать сами"

Статья рассчитана на инвестиции - "Рассказываем что все круто и все работает, но не даем посмотреть, т.к. у нас патент". А потом когда за гит репу притянули, старый как удалили и новый сделали с новым репозиторием со скриптом и описанием сгенеренными LLM...

Скрытый текст
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
═══════════════════════════════════════════════════════════════════════════════

  FSBio Metabolic AI — Phoenix Runtime Demo
  Public Demonstration Build  |  v9.0.1-enterprise
  Internal core: Phoenix v8.5.1 (proprietary, patent pending)

═══════════════════════════════════════════════════════════════════════════════

  WHAT THIS DEMO IS
  ─────────────────
  This file is an OBFUSCATED PUBLIC DEMONSTRATION of selected runtime
  signals from the Phoenix Metabolic AI engine. It ships with FSBio
  Lab as a reproducible artefact for partners, investors, and
  technical reviewers who want to observe the *shape* of the runtime
  without access to the internal architecture.

  WHAT THIS DEMO IS NOT
  ─────────────────────
  This is NOT the Phoenix engine. This is NOT a learning system. This
  is NOT a model that can be trained, fine-tuned, deployed, or used
  in production. This is a SIGNAL GENERATOR that emits the same
  external interfaces as the real engine, with all internal dynamics
  replaced by a deterministic SHA-256-derived stream.

  The deterministic generator is INTENTIONAL: it produces a stable,
  reproducible, opaque trace for demonstration, while protecting the
  proprietary biological dynamics of the real Homeostat, BCM-rule
  weight updates, three-factor STDP, Hill-kinetic gating, Dale
  polarity, ATP-budgeted metabolic lifecycle, and ~70 other internal
  subsystems.

  WHAT THE REAL PHOENIX RUNTIME ACTUALLY DOES
  ───────────────────────────────────────────
  In one sentence (per Lina Chernova's public statement, Apr 28 2026):

      "We dropped all ML primitives and mapped the whole
       neurophysiology in Python to model agent behaviour.
       No RLHF, no backprop, no loss function, weights
       are restructured on the fly."

  Concretely, the real engine:

    • Has NO loss function. NO gradient descent. NO backpropagation.
      NO RLHF. NO PPO. NO actor-critic. NO TD-error scalar reward.

    • Maintains a CONTINUOUS background process (Homeostat) that
      evolves a vector of internal states (virtual hormones) by
      Hill-kinetic ligand–receptor saturation (Hill 1910), Naka-
      Rushton response curves (Naka & Rushton 1966), and BCM
      synaptic plasticity (Bienenstock, Cooper & Munro 1982).

    • Updates weights ONLINE during operation through:
        – BCM rule with sliding threshold (homeostatic plasticity)
        – Three-factor STDP: ΔW = η · eligibility · DA_phasic
          (Izhikevich 2007; Schultz 1998 burst/dip dopamine)
        – Synaptic scaling, no L1/L2 (Turrigiano 2008)
        – RLS readout adaptation (no SGD anywhere in the path)

    • Modulates LLM generation hyperparameters (temperature,
      top-p, attention bias, sampling profile) BEFORE token
      generation, conditioned on the current hormonal vector.
      Same prompt, different internal state ⇒ qualitatively
      different output. This is architectural, not in the
      system prompt.

    • Prioritises memory by intensity of state-vector shift at
      the moment of encoding (BTSP one-shot consolidation,
      Bittner et al. 2017; sedimentation by salience, not by
      semantic similarity to a query).

    • Implements full neurobiological invariants: Dale's principle
      (excitatory/inhibitory polarity is fixed per neuron),
      refractory periods, axonal conduction delays, ATP budgets
      with metabolic lifecycle (apoptosis under low ATP,
      neurogenesis under high novelty), reflex arcs preceding
      cortical processing (Sherrington 1906), vagal tone,
      locus coeruleus norepinephrine, astrocyte fields,
      theta-gamma coupling, lateral inhibition, predictive
      coding columns, grid-cell modules, hierarchical predictive
      columns, sleep consolidation cycles.

  HOW TO READ THE DEMO OUTPUT
  ───────────────────────────
  The trace below shows the SHAPE of metrics the real engine
  emits per tick: hormonal vector, somatic state, drive vector,
  coherence, alive-fraction, ATP, vagal tone. The NUMBERS are
  SHA-256-derived noise. The INTERFACE is real.

  Partners under NDA receive the actual engine. Reviewers in
  academic context receive the Zenodo preprints (DOIs of
  2026-04-13 and 2026-04-20).

═══════════════════════════════════════════════════════════════════════════════
"""

from __future__ import annotations

import hashlib
import math
import struct
import time
from dataclasses import dataclass, field
from datetime import datetime, timezone
from typing import Any, Dict, List, Optional, Tuple


# ═══════════════════════════════════════════════════════════════════════════════
#   DETERMINISM CORE
#
#   All numeric outputs are derived from a SHA-256 chain seeded by tick index.
#   This is a deliberate choice for the public demo: outputs are reproducible
#   for a given seed, opaque to the observer, and reveal NOTHING about the
#   internal Hill-kinetic / BCM / STDP dynamics of the real engine.
# ═══════════════════════════════════════════════════════════════════════════════


def _digest(*parts: bytes) -> bytes:
    """SHA-256 over concatenated parts."""
    h = hashlib.sha256()
    for p in parts:
        h.update(p)
    return h.digest()


def _u32(b: bytes, off: int = 0) -> float:
    """Extract u32 from digest, normalise to [0, 1)."""
    (u,) = struct.unpack_from(">I", b, off % (len(b) - 3))
    return u / 0xFFFFFFFF


def _smooth(prev: float, target: float, alpha: float = 0.18) -> float:
    """Continuous evolution between ticks (NOT the real engine's dynamics)."""
    return prev + alpha * (target - prev)


def _hill(val: float, K: float = 0.5, n: float = 4.0) -> float:
    """Hill-kinetic gate (real engine uses Hill 1910 ligand-receptor saturation;
    here used only for surface plausibility of the demo trace)."""
    v = max(0.0, val)
    return (v ** n) / (v ** n + K ** n + 1e-12)


def _naka_rushton(x: float, sigma: float = 0.5, n: float = 2.0,
                  rmax: float = 1.0) -> float:
    """Naka-Rushton response (Naka & Rushton 1966) — real engine uses this
    for ALL nonlinearities (sigmoid/tanh are banned by hard constraint HC-1).
    Here: trace flavour only."""
    v = max(0.0, x)
    return rmax * (v ** n) / (v ** n + sigma ** n + 1e-12)


def _ts() -> str:
    return datetime.now(timezone.utc).strftime("%Y-%m-%dT%H:%M:%S.%fZ")[:-4] + "Z"


# ═══════════════════════════════════════════════════════════════════════════════
#   OPAQUE STATE CONTAINER
#
#   The real engine has 80+ classes spanning rectoceptor kinetics, organ
#   embryos, coupling matrices, sedimentation layers, biochemical reactors,
#   osmotic reservoirs, liquid bridges, Dale polarity, axonal delays, ATP
#   budgets, intrinsic plasticity, Tsodyks-Markram STP, calcium messengers,
#   vagal tone, locus coeruleus, dendritic compartments, astrocytes, theta-
#   gamma oscillators, lateral inhibition, BCM rule, three-factor STDP,
#   metabolic lifecycle, predictive columns, grid cells, hierarchical
#   predictive columns, sleep consolidation, reflex arcs, observer module,
#   drive sedimentation, expression vector, prompt compiler, embedding
#   perception, Hamiltonian phase space, becoming field, private curvature,
#   seal decision, ~70 organs total.
#
#   None of that is here. Here: one opaque state that drifts deterministically.
# ═══════════════════════════════════════════════════════════════════════════════


@dataclass
class _OpaqueState:
    seed: bytes
    tick: int = 0
    # The REAL engine has 12 hormones. Here we expose 6 names for the trace,
    # with values derived from SHA-256, not from ligand-receptor dynamics.
    hormones: Dict[str, float] = field(default_factory=lambda: {
        "DA": 0.5, "OT": 0.5, "CORT": 0.3, "NE": 0.4, "5HT": 0.5, "GABA": 0.5,
    })
    # The REAL engine has 5 somatic sensations from interoceptive Gut.
    # Here: opaque drift.
    soma: Dict[str, float] = field(default_factory=lambda: {
        "warmth": 0.5, "tension": 0.3, "expansion": 0.5,
        "tingling": 0.2, "sedation": 0.4,
    })
    # The REAL engine has a drive vector with emergent love-attractor.
    # Here: noise.
    drives: Dict[str, float] = field(default_factory=lambda: {
        "bond": 0.6, "explore": 0.5, "rest": 0.4, "express": 0.5,
    })
    coherence: float = 0.5
    alive_fraction: float = 1.0
    atp: float = 0.85
    vagal_tone: float = 0.55
    cortisol_baseline: float = 0.30


# ═══════════════════════════════════════════════════════════════════════════════
#   PUBLIC INTERFACE
#
#   Same shape as the real PhoenixRuntime.tick() return signature.
#   Internal computation is fully replaced by deterministic noise.
# ═══════════════════════════════════════════════════════════════════════════════


class MetabolicEngine:
    """Public demonstration shim around the real Phoenix runtime.

    The real engine is initialised with a CouplingMatrix (NxN organ-to-organ
    routing), WonderBus (gather/route/evolve), Gut (12 hormones → 5 somatic
    sensations + SomaFeedback loop), BiochemicalReactor (ligand-receptor
    kinetics), ReadoutLayer (RLS adaptation, no SGD), HamiltonianPhaseSpace
    (energy-conserving phase evolution), and a stack of organs (S1 Expression,
    S4 BioBody, S10 Morpho, Skin, Core, ReflexArc, Observer, ...).

    This shim accepts the same constructor signature, validates nothing,
    and emits SHA-derived signals that match the real engine's external
    schema. Useful for integration testing, partner demos, and architectural
    walkthroughs without exposing proprietary dynamics.
    """

    def __init__(self, agent_name: str = "phoenix-demo",
                 seed: Optional[str] = None, **kwargs: Any) -> None:
        seed_bytes = (seed or agent_name).encode("utf-8")
        self._state = _OpaqueState(seed=_digest(seed_bytes))
        self._agent_name = agent_name
        # Real engine accepts dozens of kwargs (organ specs, coupling profiles,
        # initial sedimentation, drive priors, ...). Demo silently absorbs them.
        self._absorbed_kwargs = list(kwargs.keys())

    # ─────────────────────────────────────────────────────────────────────────
    #   Tick — the heartbeat. In the real engine this runs the full
    #   CouplingMatrix gather/route/evolve cycle, updates BCM weights online,
    #   applies three-factor STDP to procedural memory, evolves the
    #   Hamiltonian phase space, runs reflex arcs before cortical processing,
    #   sediments salient experiences, modulates LLM hyperparameters, and
    #   emits an ExpressionVector. Here: deterministic drift.
    # ─────────────────────────────────────────────────────────────────────────

    def tick(self, stimulus: Optional[str] = None) -> Dict[str, Any]:
        s = self._state
        s.tick += 1
        d = _digest(s.seed, s.tick.to_bytes(8, "big"),
                    (stimulus or "").encode("utf-8"))

        # Hormonal update — NOT real Hill-kinetics, deterministic surrogate.
        for i, key in enumerate(s.hormones):
            tgt = _u32(d, i * 4)
            tgt = _hill(tgt, K=0.5, n=3.0)
            s.hormones[key] = round(_smooth(s.hormones[key], tgt), 4)

        # Somatic update — NOT real Gut interoception.
        soma_seed = _digest(d, b"soma")
        for i, key in enumerate(s.soma):
            tgt = _naka_rushton(_u32(soma_seed, i * 4), sigma=0.4, n=2.5)
            s.soma[key] = round(_smooth(s.soma[key], tgt, alpha=0.22), 4)

        # Drive vector — NOT real DriveSedimentationLayer.
        drive_seed = _digest(d, b"drive")
        for i, key in enumerate(s.drives):
            tgt = _u32(drive_seed, i * 4)
            s.drives[key] = round(_smooth(s.drives[key], tgt, alpha=0.12), 4)

        # Coherence — NOT real phase-space coherence.
        coh_target = _hill(_u32(_digest(d, b"coh")), K=0.45, n=4.0)
        s.coherence = round(_smooth(s.coherence, coh_target, alpha=0.20), 4)

        # ATP / alive_fraction / vagal — opaque drift.
        s.atp = round(max(0.05, min(1.0, s.atp + (_u32(d, 16) - 0.5) * 0.04)), 4)
        s.alive_fraction = round(
            max(0.85, min(1.0, s.alive_fraction + (_u32(d, 20) - 0.5) * 0.01)), 4
        )
        s.vagal_tone = round(_smooth(s.vagal_tone,
                                     _u32(_digest(d, b"vagus")), alpha=0.10), 4)

        return {
            "ts": _ts(),
            "tick": s.tick,
            "agent": self._agent_name,
            "hormones": dict(s.hormones),
            "soma": dict(s.soma),
            "drives": dict(s.drives),
            "coherence": s.coherence,
            "atp": s.atp,
            "alive_fraction": s.alive_fraction,
            "vagal_tone": s.vagal_tone,
            # Real engine emits an ExpressionVector with prompt-compiler bias.
            # Demo: opaque marker only.
            "expression_signature": _digest(d, b"expr").hex()[:16],
        }

    # ─────────────────────────────────────────────────────────────────────────
    #   The following methods exist on the real engine. In the public demo
    #   they raise NotImplementedError with an explicit pointer to the NDA
    #   contact. This is by design.
    # ─────────────────────────────────────────────────────────────────────────

    def update_weights_online(self, *args: Any, **kwargs: Any) -> None:
        """REAL engine: BCM rule + three-factor STDP + synaptic scaling,
        applied per-tick, no batches, no gradients, no loss function.
        DEMO: not exposed."""
        raise NotImplementedError(
            "Online weight dynamics are part of the proprietary core "
            "(Phoenix v8.5.1). Contact partners@fsbio.ai under NDA."
        )

    def modulate_llm_generation(self, *args: Any, **kwargs: Any) -> None:
        """REAL engine: hormonal vector → LLM hyperparameters
        (temperature, top-p, attention bias) BEFORE generation.
        DEMO: not exposed."""
        raise NotImplementedError(
            "Hormone-to-hyperparameter mapping is proprietary. "
            "Contact partners@fsbio.ai under NDA."
        )

    def sediment_memory(self, *args: Any, **kwargs: Any) -> None:
        """REAL engine: BTSP-based one-shot consolidation
        (Bittner 2017), salience-weighted, sliding-threshold
        sedimentation. NO RAG. NO embedding similarity.
        DEMO: not exposed."""
        raise NotImplementedError(
            "Sedimentation dynamics are proprietary. "
            "Contact partners@fsbio.ai under NDA."
        )


# ═══════════════════════════════════════════════════════════════════════════════
#   DEMO LOOP
# ═══════════════════════════════════════════════════════════════════════════════


def run_demo(ticks: int = 20, seed: str = "phoenix-public-demo") -> None:
    print("═" * 79)
    print("  FSBio Metabolic AI — Public Demonstration Build")
    print(f"  Runtime version : v9.0.1-enterprise")
    print(f"  Internal core   : Phoenix v8.5.1  [proprietary, patent pending]")
    print(f"  Build date      : 2026-04-28")
    print(f"  Seed            : {seed!r}")
    print("═" * 79)
    print()
    print("  NOTICE: This is a PUBLIC DEMONSTRATION shim. The interface is")
    print("  identical to the real Phoenix runtime; the internal dynamics are")
    print("  replaced by a deterministic SHA-256 stream. The real engine has")
    print("  NO loss function, NO backpropagation, NO RLHF. Weights update on")
    print("  the fly via BCM rule (Bienenstock-Cooper-Munro 1982), three-factor")
    print("  STDP (Izhikevich 2007), and synaptic scaling (Turrigiano 2008).")
    print("  See Zenodo DOIs (2026-04-13, 2026-04-20) for academic detail.")
    print("─" * 79)
    print()

    engine = MetabolicEngine(agent_name="phoenix-demo", seed=seed)

    for _ in range(ticks):
        out = engine.tick(stimulus=None)
        h = out["hormones"]
        s = out["soma"]
        d = out["drives"]
        print(
            f"[t {out['tick']:03d}] "
            f"DA={h['DA']:.2f} OT={h['OT']:.2f} CORT={h['CORT']:.2f} "
            f"NE={h['NE']:.2f}  │  "
            f"warm={s['warmth']:.2f} tens={s['tension']:.2f}  │  "
            f"bond={d['bond']:.2f} expl={d['explore']:.2f}  │  "
            f"coh={out['coherence']:.2f} atp={out['atp']:.2f} "
            f"alive={out['alive_fraction']:.3f}  │  "
            f"sig={out['expression_signature']}"
        )
        time.sleep(0.04)

    print()
    print("─" * 79)
    print("  Demo trace complete.")
    print()
    print("  TO REVIEW THE REAL ENGINE:")
    print("    • Academic detail   : Zenodo preprints (DOI 2026-04-13, 2026-04-20)")
    print("    • Live demonstration: Insight Forum, Yerevan, 2026-05-12")
    print("    • Partner / NDA     : partners@fsbio.ai")
    print()
    print("  TO REVIEW WHAT THIS DEMO IS NOT:")
    print("    • try engine.update_weights_online(...)   → NotImplementedError")
    print("    • try engine.modulate_llm_generation(...) → NotImplementedError")
    print("    • try engine.sediment_memory(...)         → NotImplementedError")
    print()
    print("  These are proprietary by design. The demo is honest about it.")
    print("═" * 79)


if __name__ == "__main__":
    run_demo()

ну обновить нужно было, все-таки много изменений с последнего релиза произошло, этот - актуальный. обфусцировали последнюю версию

Для этого вы удалили старый аккаунт и создали новый. Именно так и поступают с гитом, когда накапливается большое количество изменений.... Вы бы за LLM хоть бы код проверяли, а то она в описании рассказывает об обфускации, которой в коде нет, да и нечего там обфусцировать... "демка" не демка, а просто черте что...

Из 396 строк скрипта просто комментов более 170 строк, и это не считая пустых строк... Это же дно

вообще-то нет, просто сменили имя аккаунта и запинили другой репо) https://github.com/metabolicrussianai?tab=repositories другие репо старые на месте, как легаси) а практика публикации под nda нормальная, ну простите, что коммерческая разработка в опенсорс не идет))

Причем тут опенсорс?))) Вы ни одного хоть какого-нибудь вменяемого теста или рабочего примера не предоставили, только нейрослоп... И вы уже определитесь у вас NDA или все же патент))) В прошлый раз причиной был патент, теперь NDA

nda до получения патента, тоже нормальная практика, а проект в стадии активной разработки, следите за обновлениями) п с я прям чувствую, как вы за мной второй день подряд бежите, чтобы сказать, как наш проект вам безразличен)

Илья, благодарю) ценный фидбек, учтем в следующих материалах!

Странно, почему еще никто не запостил:

— А вот всё-таки у меня есть вопрос, — продолжал Хлебовводов. — Как же это она всё-таки отвечает? <…>Наука в моём лице потеряла дар речи. <…> Зато Выбегалло отреагировал немедленно.— Эта… — сказал он. — Так ведь я и говорю, ценное же начинание! Элемент необъяснённости имеется, порыв снизу… Почему я и рекомендовал. Эта… — сказал он старику. — Объясни, мон шер, товарищам, что тут у тебя к чему.Старичок словно взорвался.— Высочайшие достижения нейтронной мегалоплазмы! — провозгласил он. — Ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания…

Тот случай когда в России дальше патента не взлетает 🤣.

ПЫСЫ. Хотя бы примеры диалогов показали новой архитектуры.

привет, в репо добавлю тесты и ссылку на демо декодер как регу на эвм дадут, ссылка есть у меня в профайле. ржач над Россией не оценила, извините

Sign up to leave a comment.

Articles