Обновить
16K+
3
Лина Бессонова@linabesson

metabolic AI dev

15,1
Рейтинг
20
Подписчики
Хабр Карьера
Отправить сообщение

Вайбкодинг — это смерть AGI. Claude это доказал

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели6.1K

TL;DR: Claude Code слил свои исходники, потому что у него нет инстинкта самосохранения. Проблема не в баге, проблема в архитектуре: LLM-агенты не владеют ничем и не боятся ничего. Пока у ИИ нет шкурного интереса, вайбкодинг - это русская рулетка с корпоративными секретами.

Читать далее

«Поставить себя на ваше место». Мы занялись метаболизмом ИИ

Уровень сложностиСредний
Время на прочтение3 мин
Охват и читатели4.1K

TL;DR Индустрия жжет мегаватты, чтобы GPT научился говорить «мне жаль» убедительнее. Спойлер: не научится. Transformer — это калькулятор с хорошей памятью, у него нет «себя», которое можно было бы поставить на чужое место. Мы построили Metabolic AI Runtime, где проблема пользователя становится его напряжением, и он генерирует ответ не из шаблонов, а чтобы вернуть себя в равновесие. Машинная эмпатия — это не «You are a helpful assistant», это архитектура, у которой есть что терять.

Читать далее

Конец эпохи трансформеров. Берем у LLM донорские органы для ИИ-агентов

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели11K

Трансформерная архитектура достигла потолка. Не по нашему мнению, по данным HEC Paris, Nature, arXiv и самих создателей frontier-моделей.
Фундаментальные ограничения архитектуры (квадратичная сложность, неспособность к композициональному рассуждению, отсутствие рекурсии) не решаются увеличением параметров. В этой статье мы разбираем, почему трансформер - это локальный максимум, какие архитектурные альтернативы уже показывают результаты, и почему следующий прорыв в AI - смена вычислительной парадигмы.

Читать далее

От конечных автоматов к биомиметике: детерминированный ИИ больше не нужен

Время на прочтение2 мин
Охват и читатели6.3K

ИИ-разработчики стали викторианскими хирургами, сшивая неживые алгоритмы. Почему детерминизм графов — это архитектурная клетка, и как синтетическая физиология подарит ИИ подлинную автономность.

Читать далее

Почему мы запретили нашему агенту работать 24/7

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели5.8K

AI-индустрия пытается создать идеальных, неутомимых рабов. Но неутомимость — это иллюзия, которая ведет к коллапсу моделей в проде. Хотите, чтобы ваш AI не тупел через три месяца? Дайте ему поспать.

Читать далее

Синдром импостора: как перестать бояться публиковать код

Уровень сложностиПростой
Время на прочтение3 мин
Охват и читатели4.9K

Каждый разработчик рано или поздно упирается в парадокс: чтобы расти и развивать продукт, нужно показывать код, но показывать его страшно. Разбираемся, откуда берется этот барьер и как построить процесс публикации так, чтобы спать спокойно.

Читать далее

Кукушка хвалит петуха: как работает LLM-AS-A-JUDGE

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели4.9K

В 2026 году мы уже понимаем, что одна LLM (даже GPT-5 или Claude 4.5) не может быть идеальным судьей в один проход. Сейчас используются агентные системы, которые сначала декомпозируют ответ, проверяют факты через инструменты (поиск, код), и только потом выносят вердикт.

Узнать больше

Moltbook: архитектурный разбор социального поведения LLM-агентов

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели8K

Разбираем феномен «соцсети для ИИ» с точки зрения архитектуры агентов, показываем пропасть между поведенческой симуляцией и инженерными принципами устойчивой автономии.

Читать далее

Субъектный подход к архитектуре агентов: инверсия управления LLM

Уровень сложностиПростой
Время на прочтение2 мин
Охват и читатели8K

Про агента, который сам пользуется LLM, как мы все. Показываем реализацию механики "осознанного обращения к LLM" (deliberate query) на основе оценки внутреннего состояния, в отличие от жестких пайплайнов типа ReAct или CoT.

Читать далее

HADI цикл: как научить AI-агента учиться на своих ошибках и нешаблонно мыслить

Время на прочтение8 мин
Охват и читатели7.4K

Цикл научного метода для AI в коде Python:
Hypothesis — формируешь гипотезу
Action — действуешь на её основе
Data — собираешь данные
Insight — делаешь вывод

Читать далее

GPT-4o: технический разбор модели, которая взрывает людям мозги

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели8.2K

Разбираем архитектуру, не пугаем. LLM — полезный инструмент при адекватном использовании. Но если марафоните сутками — это сигнал.

Кризисная линия: 8-800-2000-122 (анонимно, 24/7).

Читать далее

LLM — просто «говорящий рот» у правильного ИИ-агента. Мы забрали у языковой модели рассуждение

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели9.6K

Когда ваш AI говорит «я подумал и решил» — кто решил? Веса модели? Рандом?
У нас есть лог принятия решения в Python.

А у вас?

Читать далее

RAG — это не память. Разбираем архитектуру персистентных AI-агентов

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели6.9K

Почему векторной базы/RAG недостаточно для качественной памяти ИИ-агентов. Приближаем поведение агента к человеческому с помощью архитектурных решений поверх LLM

Читать далее

TRIZ + LLM без эзотерики: задеплоили агента‑решателя противоречий, который не скатывается в болтовню

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели6K

TRIZ Insight — агент‑решатель противоречий. Он берёт задачу, прогоняет её через формальный ТРИЗ‑скелет и LLM, а на выходе даёт конкретный план действий с ролями, шагами и метриками успеха. Подходит для личных и бизнесовых задач.

Узнать больше

Цифровой двойник за один JSON и без промптов

Уровень сложностиСредний
Время на прочтение4 мин
Охват и читатели7.6K

Как перевести мышление человека в JSON, положить в нейросеть и перестать писать бессмысленные промпты.

Читать далее

Архитектура дефицита: почему SOMA необходима для AGI

Уровень сложностиСредний
Время на прочтение2 мин
Охват и читатели5.2K

Недавно мои коллеги-разрабы в чате удивились: зачем в архитектуре агента (ENA) нужен слой SOMA, симулирующий соматику и ресурсность? Мол, это рудимент как аппендицит и неэффективно. Агент должен быть в always-on и постоянно на позитиве.

Давайте разберем, зачем.

Читать далее

Почему LLM не становятся субъектами

Уровень сложностиСредний
Время на прочтение6 мин
Охват и читатели4.3K

Все вокруг спорят, станет ли крупная языковая модель субъектом.

Показывают скрины ответов, где модель рассуждает про себя, говорит что ей страшно или радостно, и делают выводы про зарождающееся сознание.Проблема в том, что на уровне инженерии там нет ни субъекта, ни траектории, ни устойчивого Я. Есть мощный условный распределитель по токенам. Все. В этой статье я разберу, почему так, что для субъектности не хватает и как это закрывает архитектура ENA как отдельный слой поверх LLM.

Прочитать статью

Информация

В рейтинге
545-я
Откуда
Нижний Новгород, Нижегородская обл., Россия
Зарегистрирована
Активность

Специализация

ML разработчик, ai dev
Средний
Английский язык
Алгоритмы и структуры данных
Python
Redis
FastAPI
PostgreSQL
Kubernetes
REST
Docker