Comments 110
Так много лозунгов и так мало конкретики...
немногое можем себе позволить, пока ждем документов от Роспатента. Что касается конкретики нашего стека: математический аппарат (кинетические модели вместо attention) и код (чистый Python/SciPy, локальный деплой без H100) сейчас проходят этап регистрации в Роспатенте. Как только охранные документы на архитектуру будут у нас на руках — мы опубликуем подробный разбор соматической матрицы. Раздавать фундаментальную разработку конкурентам до патентования мы не планируем
Объяснимо, но если у вас все не на уровне чистой теории, а в виде работоспособной модели, хотя бы какие-то результаты бенчмарков (или применения модели к какой-то практической деятельности) сделали бы текст гораздо лучше.
Текст и так писала LLM. Куда еще "лучше"?))
мерить когнитивную архитектуру бенчами для трансформеров, ну такое) как свои сделаем - поделюсь. следите за обновлениями)
То есть от супостатского трансформера отказываемся, а вот Python и MacBook признаны достаточно суверенными)))))
ну да, сейчас на бересте гусиным пером пойдем писать) сарказм понятен, но бьет мимо цели. Проблема трансформеров не в том, что они “супостатские”, а в том, что они:
аппаратно ставят вас в зависимость от H100 (которые вам могут перекрыть в любой момент),
концептуально загоняют в тупик предсказания токенов. Python — это open-source, его невозможно забрать санкциями. Mac Mini — это демонстрация того, что наша архитектура способна жить локально, не требуя миллионных затрат на закупку серверов в обход санкций. Железо я уверена, подтянем со временем с нашими инженерами
Вот у меня на одной 5080 крутится инференс Qwen3.6-35B-A3B. Локально. Без доступа к интернету. И все прекрасно работает. Я даже больше скажу, если мне нужно будет использовать актуальные данные я использую RAG, а если конкретное поведение, то сделаю LoRA-адаптер к этой модели и оно будет работать так как мне нужно и без H100 и кластеров.... Так что сарказм как раз бьет прямо в цель...
Железо вы без рабочей литографии не подтянете 100%. Хоть с инженерами, хоть без....
Что легче привезти по параллельному импорту - видеокарту или Мак?))))) Сарказма вы, кажется, не уловили.
По тексту - от цепей Маркова вы тоже отказываетесь?
По теме - человек учится на грандиозных объемах поступающей в него информации. Иного природа пока не придумала. Трансформеры - это не для ограничения и не для цензуры, а для того, чтобы хоть как-то это реализовать в доступном железе. Это очень-очень слабое и кривое, частичное, но - отражение того, что реализовано в нас самих.
Что вы этому противопоставляете? Реализованные на Эльбрусе стресс, усталость и лень?
«По логистике: мы нигде не утверждали, что Mac Mini — это основа суверенного железа. Это стенд-доказательство того, что наша архитектура способна жить локально, в то время как Сберу и Яндексу нужны ангары с H100. Вместо миника в будущем может появиться и что-то произведенное в РФ, сравнимое по качеству.
По цепям Маркова: да, мы от них отказываемся. Цепи Маркова предполагают зависимость состояния только от предыдущего шага. Наша система (CharacterSedimentation) накапливает долгосрочный контекст и структурные изменения “личности”, которые не укладываются в марковский процесс. Мы моделируем динамику нелинейных систем с памятью.
По нейробиологии (тут вы ошибаетесь фундаментально): Человек учится НЕ на “грандиозных объемах информации”. Младенец не прочитывает 10 терабайт Википедии, чтобы научиться говорить. Мозг учится через активное взаимодействие со средой (Active Inference) и накопление немногочисленного, но высокоценного (embodied) опыта, опираясь на врожденную архитектуру выживания (те самые “стресс и усталость”, над которыми вы смеетесь).
Трансформер — это НЕ отражение мозга. Это статистический трюк (внимание на последовательностях), придуманный для машинного перевода, который случайно оказался способен к генерализации из-за перегрузки петабайтами текста. У Трансформера нет гомеостаза, нет мотивации и нет субъективного восприятия времени.
Мы противопоставляем статистическому трюку — биомиметику. Систему, у которой есть виртуальное тело, метаболизм и потребность адаптироваться (снижать ошибку предсказания состояния), а не просто максимизировать вероятность токена. Если для вас это “лень на Эльбрусе” — боюсь, мы обсуждаем ИИ на разных философских языках)
Это стенд-доказательство того, что наша архитектура способна жить локально, в то время как Сберу и Яндексу нужны ангары с H100. Вместо миника в будущем может появиться и что-то произведенное в РФ, сравнимое по качеству.
Это не является доказательством от слова совсем... Я могу на обычном минике запустить вполне себе мощную LLM без ангаров с H100(Что вы к ним вообще прицепились? Вы только их знаете?).... Вы подменяете понятия... Вы берете очень мощную модель и рассказываете что все модели-"трансформеры" обязаны запускаться на кластере из H100, что является ложью....
Вы меняете стойку с топовыми видяхами на топовый ноутбук и считаете, что этим что-то доказываете?
По цепям Маркова - то есть, ваша система зависит не только от предыдущего шага или она вообще от предыдущих шагов не зависит? Если первое - от Маркова вы отказаться не сможете при всем желании, если второе - это будет Нобель. Десять Нобелей.
Насчет младенца и терабайт - похоже, все еще хуже, чем казалось. А на чем учится младенец, как не на терабайтах информации? Другое дело, что эти терабайты поступают в него через множество каналов - зрение, осязание, слух, плюс активно задействует обратные связи, которые, о ужас - тоже информация. И все это обрабатывается и фильтруется, чтобы в итоге из этого терабайта получился килобайт того высокоценного опыта, к которому вы апеллируете.
В трансформерах реализовано ровно то же самое - только вот, увы, канал там один. Это не отражение мозга, да, это очередное последовательное приближение к нему. Частичная реализация одной из функций, реализованная так, как возможно на сегодняшний день.
Основа вашего "философского языка", похоже - уверенность, что можно (условно говорю, чтобы остальные поняли) не учить модель на терабайтах, а некими волшебными функциями сразу инициализировать все матрицы нужными коэффициентами. Вспомнили адаптивные системы 70-х, какая радость. Волшебные слова типа "самоорганизации" и прочего, плюс модная в определенных кругах биомеметика. Коли вы адепт, то и спорить не о чем, это не наука, а религия.
Только вот младенец-то учится куда дольше, чем ДипСик.
Python, Linux, всё что OpenSource, оно для человечества.
Создание суверенного ИИ, оплачено строго по смете как программа для ЭВМ (Гараж 1979г)
Кринжатинка подъехала....
Биомиметика вместо статистики Мы не занимаемся слепым предсказанием следующего токена. В основе нашего ИИ — непрерывный контур, моделирующий базовые принципы нейрофизиологии. Вместо того чтобы просто тасовать веса в матрицах внимания, наша система использует кинетические модели гомеостаза. Модель оперирует векторами внутреннего состояния, которые пересчитываются в реальном времени — это виртуальные аналоги возбуждения, торможения, адаптации и ресурса. Наш ИИ не просто генерирует текст — он испытывает аналоги стресса и драйва. Его реакции формируются динамической «химией» внутренних переменных, а не застывшей статистикой датасета.
Текущая структура LLM тоже не занимается слепым предсказанием....
Собственный стек и независимость от H100 Мы пишем с нуля. Нам не нужны громоздкие американские фреймворки для тяжеловесного обучения. Мы используем чистый Python/NumPy/SciPy стек, рассчитывая состояния системы в реальном времени. Наш агент не требует кластера дефицитных видеокарт. Он полноценно живет и мыслит локально, на домашнем сервере (Mac Mini M4 Pro). Это делает систему по-настоящему автономной и готовой к деплою на edge-устройствах — от роботов до бортовых систем автомобилей.
Вы используете американские фреймворки и американский компьютер для своей "модели". Ах, да.... Мне для обучения 2-8В модели не нужна Н100, мне достаточно даже проца. Вопрос только во времени обучения...
Седиментация опыта, а не Big Data Трансформерам нужны эксабайты данных для обучения. Наша модель учится иначе: встроенный механизм седиментации позволяет агенту накапливать личный опыт из взаимодействия с реальностью и пользователем. Это формирование личности через жизнь, а не через слепое сжатие всего интернета.
Для тех целей что вы указываете текущим нейронкам не нужны эксабайты данных, а если вы хотите сделать свой ChatGPT вам придется обучать вашу модель на куче данных с сжиганием кучи времени на это обучение. Информация просто из не откуда не рождается.
кринжатина, это когда в 2026 году кто-то продолжает защищать архитектуру 2017 года, выдавая её за венец творения)
Про “не слепое предсказание”: LLM математически делает только одно, максимизирует вероятность
. Вся “сложность” трансформера просто гигантские матрицы внимания, которые ищут статистические корреляции в контексте. У них нет внутреннего гомеостаза, нет “усталости” или “стресса”, которые влияли бы на генерацию вне зависимости от промпта.
Про “американские инструменты”: Мы уже ответили выше: есть разница между инструментом (Python, Mac) и движком/парадигмой (Transformer). Python это язык математики, он открыт. Трансформеры и RLHF — это архитектурная парадигма, которая диктует, как ИИ будет мыслить. Мы отказались от чужой парадигмы, а не от микроскопов. То, что вы можете обучить 2B модель на процессоре прекрасно. Но эта 2B модель всё равно останется статистическим попугаем без внутреннего состояния.
Про “информацию из ниоткуда” и ChatGPT: А кто сказал, что мы делаем “свой ChatGPT”? В статье ясно написано: мы строим когнитивную архитектуру. Обучать ее тоже входит в этот процесс, и RLHF мы использовать не планируем. Чтобы ИИ знал столицу Зимбабве или код на C++, ему действительно нужна база данных, их несколько и они подключатся по мере необходимости. Но чтобы у ИИ сформировалась личность, характер, реакции на стресс и манера общения, ему нужен не терабайт Википедии, а механизм накопления опыта, и мы его создали. Живой человек не читает весь интернет, чтобы стать личностью. Он живет. Наша модель учится жить, а знания подтягивает как энциклопедию. Не путайте эрудицию с когнитивным ядром.
Зачем мне в рабочем продукте "усталость" и "стресс"? Мне нужен рабочий инструмент, а не выгоревшая истеричка
Вы используете Mac... Будет ли ваш алгоритм столь эффективным и вообще работать на Эльбрусе?
Повторю вопрос! Зачем мне эмоции, личность и характер у машины? Для какой цели? Пример с человеком не показателен... Для того чтобы человек стал личностью со своим характером и привычками ему нужны эксабайты данных, которые он получает ежедневно и на которых учится, на протяжении многих лет....
Я вам больше скажу. Наш мозг постоянно занимается "предсказанием"... Ради приличия почитайте хотя бы как у нас устроено зрение...
у меня в профиле об этом больше - https://habr.com/ru/articles/972906/ https://habr.com/ru/articles/1017336/ https://habr.com/ru/articles/1012998/ (косяки, которые в рамках трансформерной архитектуры не разрешить)
время покажет, мы в начале пути, и мы верим в прогресс наших инженеров и по хардверу тоже
смотрите пункт 1
насчет мозга, предсказанием - но не только
А кто сказал, что мы делаем “свой ChatGPT”?
Так вы буквально в каждом своем посте упоминаете LLM. Если ваша "архитектура" это не замена LLM, то что она решает? Какие у нее задачи?
И я еще раз упомяну. Человеку для становления "личностью со своим характером и привычками" нужна информация, просто коллосальные объемы информации. Для того чтобы он действовал на уровне рефлексов, ему не нужна "когнитивная архитектура", такое может решится обычным кодом, без всего этого бреда
ну это ваша точка зрения, я так понимаю, на абсолютную истину претендуете? мы нет. мы строим альтернативу трансформерам, которая позволит а) заменять их в задачах, где нужно обеспечить гарантии отсутствия глюков/конфабов/забывания б) управлять трансформерами как инструментами, заменяя операторов. Оба сценария не отменяют трансформер, а только показывают, что он - не предел. И пожалуйста, решайте что хотите “обычным кодом без бреда”, мы тоже обычный питоновский код) только собранный по-своему.
Я констатирую факты. Вам задают конкретные вопросы, на которые вы уходите в какую-то свою сторону. У меня создалось впечатление, что это статья для инвесторов - "как оно работает пока не покажем, но все очень классно и работает супер - поверьте"
самоуверенно подтягивать под факты ваши личные впечатления)
Т.е. вы хотите поспорить с тем, что человеку для того чтобы стать личностью со своим характером и привычками нужны просто колоссальные объемы информации? Я вас правильно понял?
спорить конкретно с вами имею минимум желания) а для формирования личности человеку нужна сенсорика, социальная среда, курированное обучение, механизмы обработки информации, непрерывность идентичности и еще несколько вещей) а не колоссальные объемы информации.
"Родина начинается с отказа от вероятностей." - это вы удачно зашли. Можно еще от дифференциального исчисления отказаться и от гравитации заодно.
Вы бы это... хотя бы померяли на SWE-Bench свои результаты, или на MERA, если хотите российский бенчмарк. Ну и выложили бы результаты - был бы хотя бы масштаб понятен, за что боретесь.
А то то ли вы GPT-5.5 обходите, то ли про Gemma 4 E4B не знаете.
шикарные альтернативы, большой трансформер и маленький трансформер) в чем тут или - или? в нашей модели ответ генерируется не по вероятности и без голов внимания контекста, это в принципе альтернативный подход. А так, будущие бенчи впереди, буду держать в курсе)
Так ответьте как он у вас вообще генерируется. По вашим словам вам не нужны тонны информации "оно само")
в нашей модели ответ генерируется не по вероятности и без голов внимания контекста, это в принципе альтернативный подход.
Да пусть хоть как генерируется, интересен масштаб результата - насколько модель хорошо проходит типовые бенчмарки, к каким результатам ближе.
Из статьи понял, что российского в вас - умение громко обещать и мутно обосновывать. Вот это, например:
Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями
у вас там что-то, что не требует сложений и умножений, и совсем не параллелится?
из вашего комментария я поняла, что для вас единственно возможная архитектура ИИ — это параллельное перемножение матриц на 100+ миллиардов параметров.
Отвечаю на ваш вопрос: нет, мы не отказались от сложения и умножения. Мы отказались от пространственной гиперболизации. В трансформере для генерации одного слова вам нужно прогнать вектор через десятки слоев внимания с миллиардами весов, что требует колоссальной пропускной способности памяти (VRAM) и тысяч CUDA-ядер (чипы Nvidia H100).
Мы не предсказываем токены через гигантские матрицы вероятностей. Мы решаем кинетические уравнения состояний (аналоги концентрации нейромедиаторов) для ограниченного числа виртуальных “органов”. Да, это сложения и умножения. Но их объем на порядки меньше, потому что мы моделируем логику системы, а не пытаемся статистически сжать в веса весь интернет. Именно поэтому для поддержания “жизни” агента нам не нужны кластеры H100 с их 80GB VRAM на карту — нам хватает мощного CPU/GPU локального Mac Mini. Умение отличать статистическую брутфорс-архитектуру от компактных биомиметических моделей - на мой взгляд базовая инженерная грамотность
А что, уже существуют хоть сколько-то компактные биомиметические модели хоть сколько-то приемлемой точности? Назовите хотя бы одну.
Numenta HTM (Hierarchical Temporal Memory) Разработана Джеффом Хокинсом на основе теории работы неокортекса. Принцип: Имитирует структуру кортикальных колонок мозга. Модель работает с «разреженными распределенными представлениями» (SDR), где активна лишь малая часть нейронов. Особенность: В отличие от обычных нейросетей, HTM учится непрерывно (online learning) и отлично предсказывает временные ряды, как это делает мозг, постоянно строя гипотезы о будущем.
Spiking Neural Networks (SNN) — Импульсные нейросети Считаются «третьим поколением» нейронных сетей. Принцип: Информация передается не числами, а короткими импульсами (спайками) в конкретные моменты времени. Нейрон «выстреливает» только тогда, когда накопленный заряд достигает порога. Архитектуры: Модели на базе процессоров Intel Loihi или IBM TrueNorth. Зачем это нужно: Это позволяет имитировать экстремальную энергоэффективность мозга (потребление всего 20 Вт).
Биомиметические графовые нейронные сети (Bio-GNN) Эти архитектуры копируют не отдельные нейроны, а связность (коннектом) реального мозга. Принцип: Архитектура сети строится на основе карт реальных нейронных связей (например, мозга плодовой мушки или мыши). Особенность: В них используются «модульные» структуры и обратные связи, которые в классических трансформерах обычно отсутствуют или упрощены.
Модели с “Active Inference” (Активный вывод) Основаны на принципе свободной энергии Карла Фристона. Принцип: Вместо простой обработки входящих данных (bottom-up), модель постоянно генерирует внутренние предсказания реальности и минимизирует «ошибку удивления». Пример: Модели на базе Verses AI, которые пытаются имитировать биологическое адаптивное поведение и самоорганизацию.
Живые нейронные сети (Liquid Neural Networks) Разработка лаборатории CSAIL MIT (Рамин Хасани). Принцип: Вдохновлены нервной системой крошечного червя C. elegans. Особенность: Параметры модели (дифференциальные уравнения) меняются в зависимости от входных данных в реальном времени. Это делает их невероятно гибкими и компактными — модель, управляющая автономным автомобилем, может состоять всего из 19 нейронов.
Ключевое "приемлемой точности"...
Все их я знаю. Могу даже добавить, исследований в этом направлении очень много. Хоть одна из них работает? Не как забавная многообещающая моделька, а как нечто, способное давать результат хоть в каком-то не-лабораторном процессе?
В трансформере для генерации одного слова вам нужно прогнать вектор через десятки слоев внимания с миллиардами весов, что требует колоссальной пропускной способности памяти (VRAM) и тысяч CUDA-ядер (чипы Nvidia H100).
Не требует. Инференс можно запустить на процессоре общего назначения с обычной RAM
Умение отличать статистическую брутфорс-архитектуру от компактных биомиметических моделей - на мой взгляд базовая инженерная грамотность
Самоуверенно выставлять свои "умозаключения" как факт
ну так запустите) но это будет все равно трансформер)
Ну так запускаю и проблем нет. А в вашем тексте проблема есть - вы утверждаете обратное
нет) в статье о моем подходе, если вы не согласны с ним, ваше право) а с вашей практикой ознакомиться не удалось - на Хабре только комментарии, материалов нет)
То есть вы имеете ввиду, что ваша архитектура куда эффективнее чем трансформер при заданной эффективности? Если это так, хотелось бы доказательств. И непонятно, что плохого в перемножении матриц.
Трансформеры аппаратно зависимы от чипов, находящихся под жесткими санкциями.
Тогда есть вариант делать свои, ах да...
Если вы строите дом по чужим чертежам, из чужих кирпичей — это не ваш дом, даже если вы перевели инструкцию на русский язык.
Тогда нужно и математику переписать.
ничего плохого в перемножении матриц, и наша архитектура потенциально пригоднее для большинства юзкейсов в областях, где нужна не только логика)
Если вы решили что она лучше, значит или вы это доказали теоретически, или проверили на практике. Я так понимаю, и то и то под NDA, что вы не можете сказать подробнее?
в процессе патентования, но надо же как-то проявляться.А почему сразу резать по парадигме лучше или хуже? Трансформеры хороши в одном, когнитивные архитектуры в другом. Мы видим свой путь как российская мультимодальная модель искусственного интеллекта, построенная без голов внимания, собранная и обученная в РФ.
А почему сразу резать по парадигме лучше или хуже? Трансформеры хороши в одном, когнитивные архитектуры в другом.
Так вы сами об этом выше и пишете, что мол ваша архитектура лучше трансформеров, без справедливого оценивания.
я нашла на странице со статьей и комментариями 7 упоминаний слова “лучше”, и все они в комментах. Мы пишем, что наша архитектура ДРУГАЯ, и что российский ИИ с нашей точки зрения может и должен отойти от парадигмы трансформеров, чтобы получить ДРУГОЕ качество рассуждений (без конфабуляций, галлюцинаций, катастрофического забывания, с курированными датасетами для обучения). Я не знаю, лучше это трансформеров или хуже, время покажет.
Для обеспечения авторского права: патент не нужен. Выглядит как просто отмазка
за два года вы написали 304 комментария и ни одной интересной статьи, напомните, по какой причине мне и читателям следует считаться с вашим мнением?
А с чего человек который сидит на Хабре обязан писать статьи для того, что бы с его мнением считались. Странные у вас критерии, конечно. Мне казалось, достаточно вести конструктивный диалог для этого.
а с чего человек, который пишет на Хабр статьи, обязан считаться с мнением анонимов? странные у вас критерии, конечно. Мне казалось, достаточно подкреплять свою точку зрения источниками и собственными работами/примерами для этого
Мне казалось, достаточно подкреплять свою точку зрения источниками и собственными работами/примерами для этого
Интересно то, что ваши слова ими как раз-таки не подкреплены.
Так вы ничем ее не подкрепили.... У вас одно "мы все знаем, у нас все работает, но мы ничего не покажем, потому что патент".... Ваш гитхаб такой же....
Так еще и прям спам атака у меня в статье случилась, как научно)
а у вас вообще его нет)
а с чего человек, который пишет на Хабр статьи, обязан считаться с мнением анонимов?
А для чего вы на хабре выложили статью тогда?))
А кроме "апелляции к авторитету", что-то вообще конструктивное будет или вы и дальше продолжите мерить комментаторов количеством постов?
что вы, искренний интерес к вашему профессиональному опыту. но раз его у вас нет, то и конструктивного общения на равных вам предложить не смогу) спасибо за ваше время и внимание к нашим работам
по какой причине мне и читателям следует считаться с вашим мнением?
Отучаемся говорить за всех. Хабр ценен в т.ч. за комментарии и в т.ч. от комментаторов (не только авторов, представляете!), которые часто гораздо лучше раскрывают саму публикацию, предмет обсуждения и автора.
Вы, например, более чем раскрылись для читателей, как токсичный, надменный человек с зашкаливающим ЧСВ, который держится на тыкании "сперва добейся".
По теме поста писать бессмысленно, ведь у меня за 13 лет всего 477 комментариев и ни одной интересной статьи.
Ух!
предполагал что тема про "суверенный когнитивный ИИ" вызовет взрыв эмоций, особенно после того, что она будет "обучаться по человечески", но всё оказалось очень сложно.
И совсем не понятно практически ВСЁ!
Человек обучается очень долго и катастрофически постепенно. Ваш "ии" будет также обучаться? А если в каких-то основах будет ошибка - то что? Всё стереть и учить заново?
Ещё полтора десятка лет???
Есть ещё несколько странных вопросов типа - "а Вы знаете как мыслит человек и зачем ему такое большое количество неронов и непомерное количество связей между ними?" или "как будете решать этические вопросы при убиении неудачных экземпляров?"
Есть в нашей стране очень ответственная организация - МинЦифры.
Вы к ним обращались со своим проектом?
Я обращался с парочкой...
Суверенная альтернатива Вики им не нужна, уже есть Рувики и хоть она и Вики, но вроде своя...
Суверенный интернет со смыслом им тоже не нужен - уже есть целых ДВА у Яндекса и Сбера.
пока только в фипс с заявками на изобретение и на регистрацию эвм, минцифры-то тут как поможет? касательно обучения - да нет, на 24 млн параметров обучим где-то к концу августа
А Вы всё сами будете делать? Никаких привлечений? Никаких госпрограмм?
А как потом "Внедрять"?
"24 млн параметров" ???
И что сможет это "ии" ?
сами 2) в команду никто не нужен сейчас 3) госпрограммы и гранты после патентования 4) смотри пункт 3 5) ризонинг без механизма внимания, неограниченное контекстное окно, уровень рассуждения HLAI а может и больше
В целом, статья мне показалась интересной с точки зрения некоторых используемых идей... но вот остальное, всё очень странно. Вроде бы и вещи говорит автор умные, а вроде бы автор чрезмерно помешан на патриотизме к РФ и выражает ясную озабоченность её национальными интересами... Собственно, складывается ощущение, что вся цель данного проекта быть просто "100% российским национальным ИИ, построенном на отечественных (и ничего кроме отечественных) технологиях". Это странно выглядит.
Ознакомился также с группой в телеграмм и там ситуация точно такая же. "Отечественная наука", "сильный отечественный фундамент" и прочее в этом духе... Так то наука это не только про Россию, если что. Разные страны вносят разный вклад в общее человеческое дело, и российские учёные не единственные кто приносит пользу всему человечеству, в этом смысле. Странно делать акцент на "родину и ИИ", при этом активно используя достижения международного научного сообщества (Python, всё-таки, сделан не в РФ был, но используют его даже в Северной Корее). Это очень вредный фокус, как я считаю. Особенно в текущей внешней и внутренней политической обстановке.
Хотя, быть может это очередная попытка просто срубить бабла с государственного гранта. Если будет фактически доказанная лояльность текущему режиму и следование его интересам (народный ИИ, отечественные технологии, национализм, и прочее), то и грант получить можно.
Вообще, я нигде не увидел конкретного результата который можно было бы оценить. Так всё красиво расписано, но ничего кроме красиво оформленного псевдослучайного симулятора в 530 строчек Python кода на GitHub я не увидел. Сложная терминология, конечно, есть, но она лишь создаёт ощущение погружения в глубину, которое может и отсутствовать вовсе (к чему я и склоняюсь).
Акцент на "суверенном ИИ", очень много сложной и местами переусложнённой терминологии (которая, видимо, была использована с целью демонстрации "глубины погружения в тему") и псевдослучайный симулятор на GitHub, который демонстрирует... Непонятно что, честно говоря. Генерирует псевдореалистичные метрики на базе SHA-256 и всё... Ну и state machine тут ещё есть... может это просто очень урезанный интерфейс для привлечения внимания... но такое можно и с обычной LLM'кой галлюционирующей сделать (не в обиду авторам, просто может было бы лучше как-то раскрыть больше деталей, а не останавливаться на заготовке).
Ваша команда уже что-то реализовала практически? Просто интересно. Или это чисто теоретическая архитектура, которая сейчас патентуется и в будущем планируется её полноценная разработка? Пока что сложно судить что это за проект... Вроде и препринты есть (это предварительные версии исследований, а не законченные их версии), и код мало мальски на GitHub'е есть, но позиционирование... заставляет задуматься о проекте в несколько ином ключе.
привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES
All state-dependent values are derived from SHA-256 digests so the output
is deterministic for a given seed, yet the derivation is opaque." Дальше по остальным вопросам. Разработали метаболическую коммуникативную модель, решающую проблему stateless-природы LLM. Мы внедрили персистентный слой динамических состояний, который позволяет агенту сохранять консистентную идентичность, управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу. Текущая версия (8.5 - сильно новее демки) успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.
привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES
Да, я собственно с этим скриптом уже ознакомился и охарактеризовал его уже в комментарии выше как "генератор псевдореалистичных метрик на базе SHA-256" или "красиво оформленный псевдослучайный симулятор". Ничего такого, что отражало бы какую-то конкретную идею я там не увидел. Просто симулятор... концепт, чего-то "переусложнённого", не более.
Это тоже самое, как если бы я написал Python-скрипт концепт "суверенного нейроморфного визуально подкреплённого графического движка, с рандомным разбросом дисперсии математической величины в пространстве K^2 и K^3 степени на базе реального геометрического пространства детерминированной величины в кластере B1 и B2"
Собственно, вот сгенерированный одной из нейронных сетей "прототип" для "бизнес-заказчика":
"""
Sovereign Neuromorphic Visually-Reinforced Graph Engine (SNVRGE)
v0.3 experimental draft
Concept:
- Neuromorphic nodes (spiking-like dynamics)
- Visual reinforcement loop (pseudo-feedback)
- Variance diffusion over K^2 and K^3 manifolds
- Deterministic-chaotic evolution
NOTE: This is conceptual / experimental nonsense with structure.
"""
import math
import random
import hashlib
from typing import List, Tuple, Dict
# ─────────────────────────────────────────────────────────────
# CORE MATHEMATICAL SPACE
# ─────────────────────────────────────────────────────────────
class KSpace:
def __init__(self, dim_power: int, size: int = 32):
self.dim_power = dim_power # 2 or 3
self.size = size
self.field = self._init_field()
def _init_field(self):
if self.dim_power == 2:
return [[random.random() for _ in range(self.size)] for _ in range(self.size)]
elif self.dim_power == 3:
return [[[random.random() for _ in range(self.size)]
for _ in range(self.size)]
for _ in range(self.size)]
else:
raise ValueError("Only K^2 or K^3 supported")
def sample(self, coords: Tuple[int, ...]) -> float:
if self.dim_power == 2:
x, y = coords
return self.field[x % self.size][y % self.size]
else:
x, y, z = coords
return self.field[x % self.size][y % self.size][z % self.size]
def diffuse_variance(self, intensity: float):
# pseudo diffusion
if self.dim_power == 2:
for i in range(self.size):
for j in range(self.size):
delta = (random.random() - 0.5) * intensity
self.field[i][j] += delta
else:
for i in range(self.size):
for j in range(self.size):
for k in range(self.size):
delta = (random.random() - 0.5) * intensity
self.field[i][j][k] += delta
# ─────────────────────────────────────────────────────────────
# NEUROMORPHIC NODE
# ─────────────────────────────────────────────────────────────
class NeuroNode:
def __init__(self, node_id: int):
self.node_id = node_id
self.potential = random.random()
self.threshold = 0.7 + random.random() * 0.3
self.connections: List["NeuroNode"] = []
def connect(self, other: "NeuroNode"):
self.connections.append(other)
def integrate(self, stimulus: float):
self.potential += stimulus * 0.5
def spike(self) -> float:
if self.potential >= self.threshold:
self.potential *= 0.3
return 1.0
return 0.0
# ─────────────────────────────────────────────────────────────
# VISUAL REINFORCEMENT LAYER
# ─────────────────────────────────────────────────────────────
class VisualField:
def __init__(self, resolution: int = 64):
self.resolution = resolution
self.buffer = [[0.0 for _ in range(resolution)] for _ in range(resolution)]
def project(self, value: float, x: int, y: int):
self.buffer[x % self.resolution][y % self.resolution] += value
def normalize(self):
max_val = max(max(row) for row in self.buffer) + 1e-6
for i in range(self.resolution):
for j in range(self.resolution):
self.buffer[i][j] /= max_val
def feedback(self) -> float:
# global visual reinforcement signal
total = sum(sum(row) for row in self.buffer)
return math.tanh(total / (self.resolution ** 2))
# ─────────────────────────────────────────────────────────────
# GRAPH ENGINE
# ─────────────────────────────────────────────────────────────
class SNVRGE:
def __init__(self, num_nodes: int = 64):
self.nodes = [NeuroNode(i) for i in range(num_nodes)]
self._connect_graph()
self.k2 = KSpace(2)
self.k3 = KSpace(3)
self.visual = VisualField()
self.tick_count = 0
def _connect_graph(self):
for node in self.nodes:
for _ in range(random.randint(2, 5)):
target = random.choice(self.nodes)
node.connect(target)
def _hash_entropy(self) -> float:
data = f"{self.tick_count}".encode()
h = hashlib.sha256(data).digest()
return int.from_bytes(h[:4], "big") / 2**32
def step(self):
entropy = self._hash_entropy()
# variance diffusion
self.k2.diffuse_variance(entropy * 0.05)
self.k3.diffuse_variance(entropy * 0.02)
spikes = []
for node in self.nodes:
# sample from spaces
x = int(entropy * 1000) % 32
y = int(node.potential * 1000) % 32
z = int((entropy + node.potential) * 1000) % 32
v2 = self.k2.sample((x, y))
v3 = self.k3.sample((x, y, z))
stimulus = (v2 + v3) * 0.5
node.integrate(stimulus)
s = node.spike()
if s > 0:
spikes.append((node.node_id, s))
# propagate spikes
for node_id, s in spikes:
node = self.nodes[node_id]
for conn in node.connections:
conn.integrate(s * random.random())
# visual projection
for i, (nid, s) in enumerate(spikes):
self.visual.project(s, nid, i)
self.visual.normalize()
feedback = self.visual.feedback()
# reinforcement
for node in self.nodes:
node.potential += feedback * 0.1
self.tick_count += 1
return {
"tick": self.tick_count,
"entropy": entropy,
"spikes": len(spikes),
"feedback": feedback
}
# ─────────────────────────────────────────────────────────────
# DEMO LOOP
# ─────────────────────────────────────────────────────────────
def run():
engine = SNVRGE()
for _ in range(50):
state = engine.step()
print(
f"[tick {state['tick']:03d}] "
f"entropy={state['entropy']:.4f} "
f"spikes={state['spikes']} "
f"feedback={state['feedback']:.4f}"
)
if __name__ == "__main__":
run()Тоже что-то сложное... тоже что-то "псевдо глубокое" и точно также - ничего не демонстрирует в сущности, как и размещённый на GitHub Ваше демо:
https://github.com/fsbioai/metabolicai/blob/main/metabolic_ai_demo.py
сохранять консистентную идентичность
Я знаком с таким проектом как Character.AI. Они там тоже стремятся к сохранению консистентной идентичности... За счёт настраивания LLM'ок, конечно, но просто ради интереса рекомендую взглянуть.
управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу
Приоритизацией памяти без RAG-костылей? Вы имеете ввиду, что источники данных он будет выбирать как-то по другому? Самостоятельно? Так и пишите, зачем усложнять? Но ведь и современные агенты этим также занимаются... могут разные источники просто взять и обобщить в них информацию. А могут какие-то источники и убрать. И RAG-это не костыль, а интерфейс для настройки LLM-агенты под нужды бизнеса. Его ориентация на те задачи, которые в контексте их задач сейчас актуальны. И что за... "асинхронная инициатива"? Вы тут, наверное, имели ввиду управление ПК (или выполнение задач) независимо от человека? Так и с OpenClaw сейчас тоже самое доступно. Разверните агентов на своём ПК и дайте какую-нибудь задачу, они могут многое сделать независимо друг от друга (кто-то в терминале, кто-то в таблице, кто-то ещё где-нибудь).
8.5 - сильно новее демки
Ну... в демке указана версия 9.0:
Metabolic AI Runtime — Demo Script FSBio Lab | Enterprise Edition | v9.0
Что-то... не то.
успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.
Я, конечно, желаю Вам удачи, но складывается ощущение, что результатов конкретных нет... и всё это пока на базе переусложнённой и логически бессвязной концепции, суть которой в безоговорочном стремлении создать "наш, российский, суверенный агент на базе сложнейшей концепции, которую простым смертным не понять". Я встречал подобное творчество от других людей... которые, буквально, помешались на ИИ (или что они под этим словом подразумевают). Ваше творчество мне чем-то это напоминает... Тот случай, когда хотел бы ошибаться :)
Забавный эксперимент с генерацией кода в ChatGPT, но вы круто воюете с соломенным чучелом. Вы потратили время на разбор публичной заглушки для бизнес-демонстрации (о чём прямо сказано в первой строке репозитория), игнорируя тот факт, что ядро Metabolic AI закрыто и патентуется. Версия 9.0 на витрине и версия 8.5.1 в закрытом контуре — это нормальная практика разделения публичного концепта и проприетарного движка.
Разница между тем, к чему вы привыкли (Character.AI, RAG), и нашей архитектурой
Character.AI и RAG — это реактивные костыли. Бот существует только в момент вашего промпта. RAG просто ищет семантически похожие куски текста в базе.
Метаболик ИИ — это персистентная система. В нашем закрытом контуре агент (Phoenix 8.5.1 ) обладает непрерывным фоновым процессом (Homeostat). Вектор его внутренних состояний (виртуальные гормоны) вычисляется асинхронно, даже когда к нему никто не обращается, и напрямую модулирует гиперпараметры модели до генерации ответа.
Приоритизация памяти без RAG означает, что вес воспоминания зависит не от совпадения ключевых слов, а от интенсивности сдвига вектора состояния в момент события. Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.
То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально. В 2017 году концепт Attention Mechanism тоже казался многим «псевдоглубоким».
Продолжайте изучать публичные демки и настраивать агентов для таблиц)
Данный комментарий отличается от предыдущего на столько, что можно предположить, будто пишет совершенно другой человек. Вы всей командой отвечаете на сообщения под статьями? :)
Вы потратили время на разбор публичной заглушки для бизнес-демонстрации
Ну, ваш коллега как бы не однократно писал под данной статьёй комментарии, что у него то вот есть результаты в публичном доступе, которые "доступны и можно посмотреть" (соответствующие комментарии выше), а я достаточно опытный разработчик чтобы судить о результатах по факту. Я зашёл посмотреть, ничего существенного не увидел. Даже пример сгенерировал одной из нейронок, который по стилю и тону на эту демку очень похож. Просто что-то переусложнённое, для бизнеса, для демонстрации "глубокой экспертизы" и иллюзии достижения результата.
OpenClaw, например, разрабатывают довольно сложную систему и выпускают её в открытый доступ, а с помощью неё, на секундочку, уже можно автоматизировать рабочее место так, что человек нужен будет только в точке "целеполагания работ" и контроля. Вы могли бы поступить аналогично. Хотя бы в браузере дать доступ к каким-то существующим результатам (сгенерировать веб-приложение на ChatGPT / DeepSeek / Qween, которое будет обращаться по API к вашей нейронки - довольно просто). Вы этого не сделали. Следовательно - странная история... Банально чат-бот сделать в телеграм или вебе уже бы демонстрировало серьёзный подход к делу. Ведь ничего не теряете в сущности, если предоставите общепринятый интерфейс для взаимодействия с чат-ботами. Никакие конкуренты ничего не своруют :)
вычисляется асинхронно
Надеюсь вы понимаете разницу между асинхронными и параллельными вычислениями... А то тут сразу "фоновый процесс", "вычисляется асинхронно", "даже когда к нему никто не обращается"... некоторая смесь получается, которую интерпретировать можно по разному.
Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.
Ну вот теперь более менее понятно. Вот сама суть. Классический Reinforcement Learning (RL), его вы, собственно, и описываете.
То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально
Это не всегда нормально. Я уже встречал подобные идеи, которые патентовали разные патентные тролли без какого-то реального результата. Грубо говоря, пришла им в голову мысль, сгенерировали с помощью LLM патент и отправили на регистрацию. Просто патентный троллинг, не более. Склоняюсь к тому, что текущий проект что-то в этом духе тоже преследует, т.к. результатов я не увидел никаких. Могли бы и продемонстрировать хотя бы веб-приложение, а не просто кидаться архитектурой "суверенного ИИ". Пока что - всё странно (по моему субъективному мнению) :)
Продолжайте изучать публичные демки и настраивать агентов для таблиц)
Продолжайте отвечать на комментарии и писать публичные демки через ChatGPT :)
мы выкинули все примитивы ml и просто размапили в питоне всю нейрофизиологию для моделирования поведения агента, RLHF нет, бэкпропа нет, функции потерь нет, веса перестраиваются на ходу) интерпретируйте как хотите, возможно, для вас на текущем этапе захода в ML (а вы человек, который только восемь месяцев назад завёл GitHub под ML, у которого в портфолио MNIST и LoRA-туториал, который сам признаётся “currently learning ML”) лобстер кажется вершиной технологической революции, это тоже нормально). А вам обидно наверное просто, мидлов тюнящих ллм тысячи, выделиться нечем) ну не расстраивайтесь, у каждого свой путь)
О, ничего себе, первый собеседник вернулся :) Знаете, если вы будите так общаться с аудиторией, то в серьёз вас воспринимать она не будет. Вы прям брызжите слюной, лишь бы как-то задеть, как-то унизить оппонента, как-то выставить себя в более "положительном ключе". Очень наивно. Это поведение ребёнка, а не взрослого человека.
Я не знаю каков ваш уровень погружения в тему ML (у собеседника из предыдущего комментария он, вероятно, выше), но лично я имею неплохое представление о том, как устроены классические конвейеры машинного обучения. Конкретно в область NLP я глубоко не погружался, на данный момент я занимаюсь исследованием, в ходе которого разрабатываю систему для своевременного обнаружения противоправного поведения людей (формулировка задачи для вас - максимально абстрактная, как вы любите, разумеется по факту звучит она более приземлённо) по видеопотоку из камеры. Погружаюсь в эту область, и тут также использую трансформеры (на базе RT-DETR), и мультимодальные свойства LLM-агентов (на базе общедоступного Qween). В общем-то, я бы не сказал что я прям 0 в ML и ничего не понимаю (что, по видимому, истеричный собеседник №1 и пытался донести), однако у меня достаточно навыка системного анализа, чтобы достаточно быстро разбираться в интересных для меня темах. И сейчас мой фокус - AI&ML направление. Собственно, по теме исследования это и так понятно.
Что касательно портфолио - в контексте AI&ML направления оно маленькое. Оно в целом маленькое, потому что разработки которые под NDA нельзя публиковать в публичные репозитории (это ведь, нормальная практика, да? :))).
в фокусе мы кардинально расходимся, мы проектируем альтернативу трансформерам, мы в начале пути. касательно портфолио - почему-то вы считаете, что ваша обфускация по nda допустима, а моя говорит о недоработках, двойной стандарт, но да ладно - ваше право, желаю вам успеха в разработке!)
двойной стандарт
Результат моей работы (которая под NDA) - публично доступна для скачивания и этой экосистемой приложения пользуется большое число людей. В комментарии выше можно заметить, что я предложил "создать веб-приложение, которое бы демонстрировало работу вашей системы", потому что одно дело - код под NDA, другое - внешняя оболочка. Если внешняя оболочка простой скрипт сгенерированный на ChatGPT демонстрирующий... ничего, то и знакомиться там не с чем.
сколько безосновательного яда) ладно, еще раз успехов) регистрация ЭВМ в процессе, только 19 апреля заявку подали. параллельно патент на изобретение на формальной экспертизе.
Да там, видимо, группа лиц сидит, ну или просто LLM забывает контекст. Как минимум потому, что используются глаголы в разном роде.
Если вы такие крутые разработчики ИИ, то предлагаю вам ознакомиться с этой очень классной статьей про RL-алгоритмы.
https://habr.com/ru/articles/991622/
Очень сомневаюсь, что вы вообще поймёте о чём там идёт речь. Ну а что, вы ведь точно эксперты в RL-алгоритмах? Может по достоинству оцените данное исследование и личная самооценка по умерится?
а разве алгоритмы патентуются? или то о чем вы говорите это не алгоритм, тогда что?
из лирики - по тексту статьи не совсем понятно на кого она ориентирована. если на технарей, то то слово "суверенный" нужно вырезать, у нас проф деформация - под этот термин подтягивается "ограниченный", ну и дальше раскручивается в сознании всякое нехорошее... те под выступление в думском комитете, норм, а нам бы попроще, что то а ля "вот есть проблема(ы) (пример: высокие требования к ресурсами, галлюцинации, и тд) вот мы придумали решение: описание решения, вот пример как оно работает без и с нашим решением, вот тут можете пощупать сами"
Статья рассчитана на инвестиции - "Рассказываем что все круто и все работает, но не даем посмотреть, т.к. у нас патент". А потом когда за гит репу притянули, старый как удалили и новый сделали с новым репозиторием со скриптом и описанием сгенеренными LLM...

Скрытый текст
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
═══════════════════════════════════════════════════════════════════════════════
FSBio Metabolic AI — Phoenix Runtime Demo
Public Demonstration Build | v9.0.1-enterprise
Internal core: Phoenix v8.5.1 (proprietary, patent pending)
═══════════════════════════════════════════════════════════════════════════════
WHAT THIS DEMO IS
─────────────────
This file is an OBFUSCATED PUBLIC DEMONSTRATION of selected runtime
signals from the Phoenix Metabolic AI engine. It ships with FSBio
Lab as a reproducible artefact for partners, investors, and
technical reviewers who want to observe the *shape* of the runtime
without access to the internal architecture.
WHAT THIS DEMO IS NOT
─────────────────────
This is NOT the Phoenix engine. This is NOT a learning system. This
is NOT a model that can be trained, fine-tuned, deployed, or used
in production. This is a SIGNAL GENERATOR that emits the same
external interfaces as the real engine, with all internal dynamics
replaced by a deterministic SHA-256-derived stream.
The deterministic generator is INTENTIONAL: it produces a stable,
reproducible, opaque trace for demonstration, while protecting the
proprietary biological dynamics of the real Homeostat, BCM-rule
weight updates, three-factor STDP, Hill-kinetic gating, Dale
polarity, ATP-budgeted metabolic lifecycle, and ~70 other internal
subsystems.
WHAT THE REAL PHOENIX RUNTIME ACTUALLY DOES
───────────────────────────────────────────
In one sentence (per Lina Chernova's public statement, Apr 28 2026):
"We dropped all ML primitives and mapped the whole
neurophysiology in Python to model agent behaviour.
No RLHF, no backprop, no loss function, weights
are restructured on the fly."
Concretely, the real engine:
• Has NO loss function. NO gradient descent. NO backpropagation.
NO RLHF. NO PPO. NO actor-critic. NO TD-error scalar reward.
• Maintains a CONTINUOUS background process (Homeostat) that
evolves a vector of internal states (virtual hormones) by
Hill-kinetic ligand–receptor saturation (Hill 1910), Naka-
Rushton response curves (Naka & Rushton 1966), and BCM
synaptic plasticity (Bienenstock, Cooper & Munro 1982).
• Updates weights ONLINE during operation through:
– BCM rule with sliding threshold (homeostatic plasticity)
– Three-factor STDP: ΔW = η · eligibility · DA_phasic
(Izhikevich 2007; Schultz 1998 burst/dip dopamine)
– Synaptic scaling, no L1/L2 (Turrigiano 2008)
– RLS readout adaptation (no SGD anywhere in the path)
• Modulates LLM generation hyperparameters (temperature,
top-p, attention bias, sampling profile) BEFORE token
generation, conditioned on the current hormonal vector.
Same prompt, different internal state ⇒ qualitatively
different output. This is architectural, not in the
system prompt.
• Prioritises memory by intensity of state-vector shift at
the moment of encoding (BTSP one-shot consolidation,
Bittner et al. 2017; sedimentation by salience, not by
semantic similarity to a query).
• Implements full neurobiological invariants: Dale's principle
(excitatory/inhibitory polarity is fixed per neuron),
refractory periods, axonal conduction delays, ATP budgets
with metabolic lifecycle (apoptosis under low ATP,
neurogenesis under high novelty), reflex arcs preceding
cortical processing (Sherrington 1906), vagal tone,
locus coeruleus norepinephrine, astrocyte fields,
theta-gamma coupling, lateral inhibition, predictive
coding columns, grid-cell modules, hierarchical predictive
columns, sleep consolidation cycles.
HOW TO READ THE DEMO OUTPUT
───────────────────────────
The trace below shows the SHAPE of metrics the real engine
emits per tick: hormonal vector, somatic state, drive vector,
coherence, alive-fraction, ATP, vagal tone. The NUMBERS are
SHA-256-derived noise. The INTERFACE is real.
Partners under NDA receive the actual engine. Reviewers in
academic context receive the Zenodo preprints (DOIs of
2026-04-13 and 2026-04-20).
═══════════════════════════════════════════════════════════════════════════════
"""
from __future__ import annotations
import hashlib
import math
import struct
import time
from dataclasses import dataclass, field
from datetime import datetime, timezone
from typing import Any, Dict, List, Optional, Tuple
# ═══════════════════════════════════════════════════════════════════════════════
# DETERMINISM CORE
#
# All numeric outputs are derived from a SHA-256 chain seeded by tick index.
# This is a deliberate choice for the public demo: outputs are reproducible
# for a given seed, opaque to the observer, and reveal NOTHING about the
# internal Hill-kinetic / BCM / STDP dynamics of the real engine.
# ═══════════════════════════════════════════════════════════════════════════════
def _digest(*parts: bytes) -> bytes:
"""SHA-256 over concatenated parts."""
h = hashlib.sha256()
for p in parts:
h.update(p)
return h.digest()
def _u32(b: bytes, off: int = 0) -> float:
"""Extract u32 from digest, normalise to [0, 1)."""
(u,) = struct.unpack_from(">I", b, off % (len(b) - 3))
return u / 0xFFFFFFFF
def _smooth(prev: float, target: float, alpha: float = 0.18) -> float:
"""Continuous evolution between ticks (NOT the real engine's dynamics)."""
return prev + alpha * (target - prev)
def _hill(val: float, K: float = 0.5, n: float = 4.0) -> float:
"""Hill-kinetic gate (real engine uses Hill 1910 ligand-receptor saturation;
here used only for surface plausibility of the demo trace)."""
v = max(0.0, val)
return (v ** n) / (v ** n + K ** n + 1e-12)
def _naka_rushton(x: float, sigma: float = 0.5, n: float = 2.0,
rmax: float = 1.0) -> float:
"""Naka-Rushton response (Naka & Rushton 1966) — real engine uses this
for ALL nonlinearities (sigmoid/tanh are banned by hard constraint HC-1).
Here: trace flavour only."""
v = max(0.0, x)
return rmax * (v ** n) / (v ** n + sigma ** n + 1e-12)
def _ts() -> str:
return datetime.now(timezone.utc).strftime("%Y-%m-%dT%H:%M:%S.%fZ")[:-4] + "Z"
# ═══════════════════════════════════════════════════════════════════════════════
# OPAQUE STATE CONTAINER
#
# The real engine has 80+ classes spanning rectoceptor kinetics, organ
# embryos, coupling matrices, sedimentation layers, biochemical reactors,
# osmotic reservoirs, liquid bridges, Dale polarity, axonal delays, ATP
# budgets, intrinsic plasticity, Tsodyks-Markram STP, calcium messengers,
# vagal tone, locus coeruleus, dendritic compartments, astrocytes, theta-
# gamma oscillators, lateral inhibition, BCM rule, three-factor STDP,
# metabolic lifecycle, predictive columns, grid cells, hierarchical
# predictive columns, sleep consolidation, reflex arcs, observer module,
# drive sedimentation, expression vector, prompt compiler, embedding
# perception, Hamiltonian phase space, becoming field, private curvature,
# seal decision, ~70 organs total.
#
# None of that is here. Here: one opaque state that drifts deterministically.
# ═══════════════════════════════════════════════════════════════════════════════
@dataclass
class _OpaqueState:
seed: bytes
tick: int = 0
# The REAL engine has 12 hormones. Here we expose 6 names for the trace,
# with values derived from SHA-256, not from ligand-receptor dynamics.
hormones: Dict[str, float] = field(default_factory=lambda: {
"DA": 0.5, "OT": 0.5, "CORT": 0.3, "NE": 0.4, "5HT": 0.5, "GABA": 0.5,
})
# The REAL engine has 5 somatic sensations from interoceptive Gut.
# Here: opaque drift.
soma: Dict[str, float] = field(default_factory=lambda: {
"warmth": 0.5, "tension": 0.3, "expansion": 0.5,
"tingling": 0.2, "sedation": 0.4,
})
# The REAL engine has a drive vector with emergent love-attractor.
# Here: noise.
drives: Dict[str, float] = field(default_factory=lambda: {
"bond": 0.6, "explore": 0.5, "rest": 0.4, "express": 0.5,
})
coherence: float = 0.5
alive_fraction: float = 1.0
atp: float = 0.85
vagal_tone: float = 0.55
cortisol_baseline: float = 0.30
# ═══════════════════════════════════════════════════════════════════════════════
# PUBLIC INTERFACE
#
# Same shape as the real PhoenixRuntime.tick() return signature.
# Internal computation is fully replaced by deterministic noise.
# ═══════════════════════════════════════════════════════════════════════════════
class MetabolicEngine:
"""Public demonstration shim around the real Phoenix runtime.
The real engine is initialised with a CouplingMatrix (NxN organ-to-organ
routing), WonderBus (gather/route/evolve), Gut (12 hormones → 5 somatic
sensations + SomaFeedback loop), BiochemicalReactor (ligand-receptor
kinetics), ReadoutLayer (RLS adaptation, no SGD), HamiltonianPhaseSpace
(energy-conserving phase evolution), and a stack of organs (S1 Expression,
S4 BioBody, S10 Morpho, Skin, Core, ReflexArc, Observer, ...).
This shim accepts the same constructor signature, validates nothing,
and emits SHA-derived signals that match the real engine's external
schema. Useful for integration testing, partner demos, and architectural
walkthroughs without exposing proprietary dynamics.
"""
def __init__(self, agent_name: str = "phoenix-demo",
seed: Optional[str] = None, **kwargs: Any) -> None:
seed_bytes = (seed or agent_name).encode("utf-8")
self._state = _OpaqueState(seed=_digest(seed_bytes))
self._agent_name = agent_name
# Real engine accepts dozens of kwargs (organ specs, coupling profiles,
# initial sedimentation, drive priors, ...). Demo silently absorbs them.
self._absorbed_kwargs = list(kwargs.keys())
# ─────────────────────────────────────────────────────────────────────────
# Tick — the heartbeat. In the real engine this runs the full
# CouplingMatrix gather/route/evolve cycle, updates BCM weights online,
# applies three-factor STDP to procedural memory, evolves the
# Hamiltonian phase space, runs reflex arcs before cortical processing,
# sediments salient experiences, modulates LLM hyperparameters, and
# emits an ExpressionVector. Here: deterministic drift.
# ─────────────────────────────────────────────────────────────────────────
def tick(self, stimulus: Optional[str] = None) -> Dict[str, Any]:
s = self._state
s.tick += 1
d = _digest(s.seed, s.tick.to_bytes(8, "big"),
(stimulus or "").encode("utf-8"))
# Hormonal update — NOT real Hill-kinetics, deterministic surrogate.
for i, key in enumerate(s.hormones):
tgt = _u32(d, i * 4)
tgt = _hill(tgt, K=0.5, n=3.0)
s.hormones[key] = round(_smooth(s.hormones[key], tgt), 4)
# Somatic update — NOT real Gut interoception.
soma_seed = _digest(d, b"soma")
for i, key in enumerate(s.soma):
tgt = _naka_rushton(_u32(soma_seed, i * 4), sigma=0.4, n=2.5)
s.soma[key] = round(_smooth(s.soma[key], tgt, alpha=0.22), 4)
# Drive vector — NOT real DriveSedimentationLayer.
drive_seed = _digest(d, b"drive")
for i, key in enumerate(s.drives):
tgt = _u32(drive_seed, i * 4)
s.drives[key] = round(_smooth(s.drives[key], tgt, alpha=0.12), 4)
# Coherence — NOT real phase-space coherence.
coh_target = _hill(_u32(_digest(d, b"coh")), K=0.45, n=4.0)
s.coherence = round(_smooth(s.coherence, coh_target, alpha=0.20), 4)
# ATP / alive_fraction / vagal — opaque drift.
s.atp = round(max(0.05, min(1.0, s.atp + (_u32(d, 16) - 0.5) * 0.04)), 4)
s.alive_fraction = round(
max(0.85, min(1.0, s.alive_fraction + (_u32(d, 20) - 0.5) * 0.01)), 4
)
s.vagal_tone = round(_smooth(s.vagal_tone,
_u32(_digest(d, b"vagus")), alpha=0.10), 4)
return {
"ts": _ts(),
"tick": s.tick,
"agent": self._agent_name,
"hormones": dict(s.hormones),
"soma": dict(s.soma),
"drives": dict(s.drives),
"coherence": s.coherence,
"atp": s.atp,
"alive_fraction": s.alive_fraction,
"vagal_tone": s.vagal_tone,
# Real engine emits an ExpressionVector with prompt-compiler bias.
# Demo: opaque marker only.
"expression_signature": _digest(d, b"expr").hex()[:16],
}
# ─────────────────────────────────────────────────────────────────────────
# The following methods exist on the real engine. In the public demo
# they raise NotImplementedError with an explicit pointer to the NDA
# contact. This is by design.
# ─────────────────────────────────────────────────────────────────────────
def update_weights_online(self, *args: Any, **kwargs: Any) -> None:
"""REAL engine: BCM rule + three-factor STDP + synaptic scaling,
applied per-tick, no batches, no gradients, no loss function.
DEMO: not exposed."""
raise NotImplementedError(
"Online weight dynamics are part of the proprietary core "
"(Phoenix v8.5.1). Contact partners@fsbio.ai under NDA."
)
def modulate_llm_generation(self, *args: Any, **kwargs: Any) -> None:
"""REAL engine: hormonal vector → LLM hyperparameters
(temperature, top-p, attention bias) BEFORE generation.
DEMO: not exposed."""
raise NotImplementedError(
"Hormone-to-hyperparameter mapping is proprietary. "
"Contact partners@fsbio.ai under NDA."
)
def sediment_memory(self, *args: Any, **kwargs: Any) -> None:
"""REAL engine: BTSP-based one-shot consolidation
(Bittner 2017), salience-weighted, sliding-threshold
sedimentation. NO RAG. NO embedding similarity.
DEMO: not exposed."""
raise NotImplementedError(
"Sedimentation dynamics are proprietary. "
"Contact partners@fsbio.ai under NDA."
)
# ═══════════════════════════════════════════════════════════════════════════════
# DEMO LOOP
# ═══════════════════════════════════════════════════════════════════════════════
def run_demo(ticks: int = 20, seed: str = "phoenix-public-demo") -> None:
print("═" * 79)
print(" FSBio Metabolic AI — Public Demonstration Build")
print(f" Runtime version : v9.0.1-enterprise")
print(f" Internal core : Phoenix v8.5.1 [proprietary, patent pending]")
print(f" Build date : 2026-04-28")
print(f" Seed : {seed!r}")
print("═" * 79)
print()
print(" NOTICE: This is a PUBLIC DEMONSTRATION shim. The interface is")
print(" identical to the real Phoenix runtime; the internal dynamics are")
print(" replaced by a deterministic SHA-256 stream. The real engine has")
print(" NO loss function, NO backpropagation, NO RLHF. Weights update on")
print(" the fly via BCM rule (Bienenstock-Cooper-Munro 1982), three-factor")
print(" STDP (Izhikevich 2007), and synaptic scaling (Turrigiano 2008).")
print(" See Zenodo DOIs (2026-04-13, 2026-04-20) for academic detail.")
print("─" * 79)
print()
engine = MetabolicEngine(agent_name="phoenix-demo", seed=seed)
for _ in range(ticks):
out = engine.tick(stimulus=None)
h = out["hormones"]
s = out["soma"]
d = out["drives"]
print(
f"[t {out['tick']:03d}] "
f"DA={h['DA']:.2f} OT={h['OT']:.2f} CORT={h['CORT']:.2f} "
f"NE={h['NE']:.2f} │ "
f"warm={s['warmth']:.2f} tens={s['tension']:.2f} │ "
f"bond={d['bond']:.2f} expl={d['explore']:.2f} │ "
f"coh={out['coherence']:.2f} atp={out['atp']:.2f} "
f"alive={out['alive_fraction']:.3f} │ "
f"sig={out['expression_signature']}"
)
time.sleep(0.04)
print()
print("─" * 79)
print(" Demo trace complete.")
print()
print(" TO REVIEW THE REAL ENGINE:")
print(" • Academic detail : Zenodo preprints (DOI 2026-04-13, 2026-04-20)")
print(" • Live demonstration: Insight Forum, Yerevan, 2026-05-12")
print(" • Partner / NDA : partners@fsbio.ai")
print()
print(" TO REVIEW WHAT THIS DEMO IS NOT:")
print(" • try engine.update_weights_online(...) → NotImplementedError")
print(" • try engine.modulate_llm_generation(...) → NotImplementedError")
print(" • try engine.sediment_memory(...) → NotImplementedError")
print()
print(" These are proprietary by design. The demo is honest about it.")
print("═" * 79)
if __name__ == "__main__":
run_demo()
ну обновить нужно было, все-таки много изменений с последнего релиза произошло, этот - актуальный. обфусцировали последнюю версию
Для этого вы удалили старый аккаунт и создали новый. Именно так и поступают с гитом, когда накапливается большое количество изменений.... Вы бы за LLM хоть бы код проверяли, а то она в описании рассказывает об обфускации, которой в коде нет, да и нечего там обфусцировать... "демка" не демка, а просто черте что...
Из 396 строк скрипта просто комментов более 170 строк, и это не считая пустых строк... Это же дно
вообще-то нет, просто сменили имя аккаунта и запинили другой репо) https://github.com/metabolicrussianai?tab=repositories другие репо старые на месте, как легаси) а практика публикации под nda нормальная, ну простите, что коммерческая разработка в опенсорс не идет))
Причем тут опенсорс?))) Вы ни одного хоть какого-нибудь вменяемого теста или рабочего примера не предоставили, только нейрослоп... И вы уже определитесь у вас NDA или все же патент))) В прошлый раз причиной был патент, теперь NDA
Илья, благодарю) ценный фидбек, учтем в следующих материалах!
Странно, почему еще никто не запостил:
— А вот всё-таки у меня есть вопрос, — продолжал Хлебовводов. — Как же это она всё-таки отвечает? <…>Наука в моём лице потеряла дар речи. <…> Зато Выбегалло отреагировал немедленно.— Эта… — сказал он. — Так ведь я и говорю, ценное же начинание! Элемент необъяснённости имеется, порыв снизу… Почему я и рекомендовал. Эта… — сказал он старику. — Объясни, мон шер, товарищам, что тут у тебя к чему.Старичок словно взорвался.— Высочайшие достижения нейтронной мегалоплазмы! — провозгласил он. — Ротор поля наподобие дивергенции градуирует себя вдоль спина и там, внутре, обращает материю вопроса в спиритуальные электрические вихри, из коих и возникает синекдоха отвечания…
Тот случай когда в России дальше патента не взлетает 🤣.
ПЫСЫ. Хотя бы примеры диалогов показали новой архитектуры.
С чего начинается Родина для ИИ? Мы строим российскую модель искусственного интеллекта без трансформера