Pull to refresh
8K+
2
Лина Бессонова@linabesson

metabolic AI dev / разраб метаболического ИИ 🇷🇺

4,5
Rating
26
Subscribers
Habr CareerHabr Career
Send message

привет, в репо добавлю тесты и ссылку на демо декодер как регу на эвм дадут, ссылка есть у меня в профайле. ржач над Россией не оценила, извините

nda до получения патента, тоже нормальная практика, а проект в стадии активной разработки, следите за обновлениями) п с я прям чувствую, как вы за мной второй день подряд бежите, чтобы сказать, как наш проект вам безразличен)

вообще-то нет, просто сменили имя аккаунта и запинили другой репо) https://github.com/metabolicrussianai?tab=repositories другие репо старые на месте, как легаси) а практика публикации под nda нормальная, ну простите, что коммерческая разработка в опенсорс не идет))

Илья, благодарю) ценный фидбек, учтем в следующих материалах!

ну обновить нужно было, все-таки много изменений с последнего релиза произошло, этот - актуальный. обфусцировали последнюю версию

сколько безосновательного яда) ладно, еще раз успехов) регистрация ЭВМ в процессе, только 19 апреля заявку подали. параллельно патент на изобретение на формальной экспертизе.

спасибо, пообщаемся с автором, если будут точки соприкосновения, два из трех тестировали в декабре, актор-критик дает наихудшее поведение, но это лишь наш опыт

в фокусе мы кардинально расходимся, мы проектируем альтернативу трансформерам, мы в начале пути. касательно портфолио - почему-то вы считаете, что ваша обфускация по nda допустима, а моя говорит о недоработках, двойной стандарт, но да ладно - ваше право, желаю вам успеха в разработке!)

мы выкинули все примитивы ml и просто размапили в питоне всю нейрофизиологию для моделирования поведения агента, RLHF нет, бэкпропа нет, функции потерь нет, веса перестраиваются на ходу) интерпретируйте как хотите, возможно, для вас на текущем этапе захода в ML (а вы человек, который только восемь месяцев назад завёл GitHub под ML, у которого в портфолио MNIST и LoRA-туториал, который сам признаётся “currently learning ML”) лобстер кажется вершиной технологической революции, это тоже нормально). А вам обидно наверное просто, мидлов тюнящих ллм тысячи, выделиться нечем) ну не расстраивайтесь, у каждого свой путь)

Забавный эксперимент с генерацией кода в ChatGPT, но вы круто воюете с соломенным чучелом. Вы потратили время на разбор публичной заглушки для бизнес-демонстрации (о чём прямо сказано в первой строке репозитория), игнорируя тот факт, что ядро Metabolic AI закрыто и патентуется. Версия 9.0 на витрине и версия 8.5.1 в закрытом контуре — это нормальная практика разделения публичного концепта и проприетарного движка.

Разница между тем, к чему вы привыкли (Character.AI, RAG), и нашей архитектурой

  1. Character.AI и RAG — это реактивные костыли. Бот существует только в момент вашего промпта. RAG просто ищет семантически похожие куски текста в базе.

  2. Метаболик ИИ — это персистентная система. В нашем закрытом контуре агент (Phoenix 8.5.1 ) обладает непрерывным фоновым процессом (Homeostat). Вектор его внутренних состояний (виртуальные гормоны) вычисляется асинхронно, даже когда к нему никто не обращается, и напрямую модулирует гиперпараметры модели до генерации ответа.

  3. Приоритизация памяти без RAG означает, что вес воспоминания зависит не от совпадения ключевых слов, а от интенсивности сдвига вектора состояния в момент события. Агент помнит то, что вызвало “эмоциональный” отклик, а не то, что чаще встречается в логах.

То, что для вас это звучит как «переусложнённая бессвязная концепция» — абсолютно нормально. В 2017 году концепт Attention Mechanism тоже казался многим «псевдоглубоким».

Продолжайте изучать публичные демки и настраивать агентов для таблиц)

привет, на гитхаб есть в шапке демо метка “PURPOSE : Business-presentation demonstration of Metabolic AI capabilities. All internal computation is encapsulated behind the MetabolicEngine interface. Implementation details are proprietary and not exposed.” И еще чуть ниже "# LOW-LEVEL ENTROPY / DETERMINISM UTILITIES

All state-dependent values are derived from SHA-256 digests so the output

is deterministic for a given seed, yet the derivation is opaque." Дальше по остальным вопросам. Разработали метаболическую коммуникативную модель, решающую проблему stateless-природы LLM. Мы внедрили персистентный слой динамических состояний, который позволяет агенту сохранять консистентную идентичность, управлять приоритизацией памяти без RAG-костылей и проявлять асинхронную инициативу. Текущая версия (8.5 - сильно новее демки) успешно валидирована в закрытом бета-тестировании и находится на стадии патентования.

вам с пустым портфолио - тоже спорный вопрос, если за два года больше нечего показать хабру, кроме как свои комментарии.

прошу прощения, я не ожидала, что ваша работа такая сырая, но вопросов много) а на гитхабе есть ссылки на два моих препринта, там формальная теория и концепция метаболического ИИ

в профиле ссылка на гитхаб - там демо код и два препринта. ваши работы уже полистала, свои вопросы оставила под вашей статьей на тему альтернативам трансформерам.

В mixer.py, строка 86: self.out_proj = nn.Identity() if self.n_heads == 1 else nn.Linear(…). Output-проекция отсутствует при n_heads=1. Решение нестандартное и в статье не обоснованное. Есть ablation?

Репозиторий LibratioAI/sessa создан 20 апреля 2026 (за неделю до публикации статьи), 2 коммита, 1097 строк кода всего, из которых 457 — mixer.py. Организация LibratioAI зарегистрирована 18 февраля 2026, 1 публичный репозиторий. Это уровень готовности проекта, который не соответствует тону «я создал альтернативу трансформерам».

В bibtex репозитория цитата @article{horbatko2026sessa}. По Google Scholar других публикаций автора в области ML нет. Это первая работа без рецензирования и без публикационной истории. В таком контексте формулировка «альтернатива трансформерам» избыточна.

Просьба «поддержите голосом на Hugging Face» в конце статьи — это запрос на накрутку upvotes на платформе с голосованием, что является известным вектором манипуляции рейтингами (см. arXiv:2507.08983).

В репозитории нет ни одного признанного long-context бенчмарка: RULER, LongBench, ∞-Bench, Needle-in-a-Haystack, PG19, BookSum — ничего. Единственный датасет — datasets/SymbolSoup.py, синтетический генератор собственного авторства. Сравнивать архитектуры на одном самодельном синтетическом тесте — методологически некорректно.

В репозитории нет ни одного Transformer-baseline и ни одного Mamba-baseline. Нет training loop, нет evaluation-скриптов, нет конфигов запуска, нет чекпоинтов. На основании чего сделано заявление о «strongest performance»?

По issue #51 в репозитории Mamba (https://github.com/state-spaces/mamba/issues/51) Albert Gu пишет: «We don’t use positional encodings» и обсуждается, что диагональные SSM могут реализовывать вариант RoPE через мнимую часть A(n,n). Это значит, что «имплицитная позиционная информация» — общее свойство SSM, а не уникальное свойство Sessa.

Information

Rating
1,195-th
Location
Нижний Новгород, Нижегородская обл., Россия
Registered
Activity

Specialization

ML разработчик, ai dev
Средний
Английский язык
Алгоритмы и структуры данных
Python
Redis
FastAPI
PostgreSQL
Kubernetes
REST
Docker