Обновить
16K+
3
Лина Бессонова@linabesson

metabolic AI dev

15,1
Рейтинг
20
Подписчики
Хабр Карьера
Отправить сообщение

Наша да) за остальных не отвечаем

мы раньше доберемся, предложив технологический суверенитет)

погуляйте по гитхабу) Антропики dmca подали но кажется толку пока нет

вдохновляющая цель, смысл)

есть мотивация ОТ - это наказание, а есть мотивация К - это более продуктивный способ управления состоянием системы)

так права доступа-то были)) файлы лежали в закрытом репозитории, сборка шла через CI/CD с авторизацией

собирал релиз агент, он имел легитимный доступ ко всему, иначе он не мог бы собирать билд, прото случайно так закинул туда source map с полными исходниками, потому что для него не существует разницы между “публичный код” и “секретный код”)) это всё одинаковые токены

тулзы аккуратнее выдавайте))

в нашей архитектуре адаптивность этого не допустит)

Они и не «фигня». Решают другой класс задач) домашний телефон тоже не фигня, имеет место быть в 2026 году.

читайте последнюю статью)

)) вот тебе кейс. Робот-манипулятор на конвейере. Берёт деталь, ставит деталь. 24/7. Требования: latency < 5ms, детерминизм 100%, энергопотребление < 10W.

Ставим трансформер. Что получаем?

Latency. Inference даже маленького трансформера на edge 15–50ms. Уже не прошли. Можно дистиллировать, квантизовать, обрезать. Теперь 8ms. Всё ещё не прошли. А нужно 5. Каждый раз. Не в среднем каждый.

Детерминизм. Трансформер стохастическая модель. Один и тот же вход может дать разный выход в зависимости от floating point порядка операций, температуры, шума. На текстовом чат-боте это незаметно. На конвейере при 200 деталях в минуту — это один покалеченный палец оператора в квартал. Страховая скажет спасибо.

Энергия. Vera Rubin монстр. 600W на чип. На конвейере стоят 40 манипуляторов. 40 × 600W = 24kW только на inference. А рядом стоит контроллер на FPGA который жрёт 2W и делает то же самое — но детерминированно.

Трансформер тут не good enough. Не потому что плохой. А потому что это молоток в ситуации где нужна отвёртка.

Вопрос не «трансформер или не трансформер». Вопрос для чего. Генерация, анализ, reasoning - тут да, трансформер на коне. Hard real-time, детерминизм, edge, milliwatt inference уже другие инструменты. Они существуют не потому что кто-то хочет убить трансформер. А потому что мир не состоит из одних чат-ботов.

Модели мира внутри трансформеров - ок да, механисты показали, вопрос закрыт. Фотоника тоже да, хайп. Трансформеры good enough нууу может и да, сейчас.

Но good enough — это не научный аргумент. Это экономический. x86 тоже был good enough, на свое время, и он победил не потому что лучший, а потому что дешевле менять софт чем железо. Трансформеры побеждают по той же причине - экосистема, тулинг, инерция, кадры.

Ну и вы же и пишете «масштабы архитектуры упёрлись», рост через обучение. Это потолок. Высокий — но потолок. И вопрос не «работают ли трансформеры сейчас» (работают), а «что делать когда новые трюки кончатся». Это не вопрос на сегодня. Но это вопрос в целом.

«Убийц трансформеров было много»

Да. И это аргумент в нашу пользу, значит проблема реальна, раз столько людей пытаются её решить. Мы не предлагаем «убить трансформер», мы предлагаем забрать из него знания и запустить их на другой архитектуре. Разница как между «снести здание» и «вывезти из него библиотеку».

«GPT-5.4 запинает титанов, производительность растёт»

Растёт. Вопрос — какой ценой. Orion (предшественник GPT-5) достиг уровня GPT-4 на 20% обучения. Оставшиеся 80% compute дали diminishing returns, настолько, что модель переименовали из GPT-5 в GPT-4.5 (источник: Philippe Dubach, «What Comes After Transformers», март 2026).
Tim Dettmers (декабрь 2025): «The scaling improvements in 2025 were not impressive. We have maybe one, maybe two more years of scaling left because further improvements become physically infeasible.»
Algorithma AI: «brute-force scaling of dense Transformer models is no longer a sustainable or efficient path to progress.» Это не хиты 2023 года, это данные 2025–2026.

«Фотонные компьютеры? Серьёзно?»

Nature Light, июль 2025: optical next-generation reservoir computing — аппаратная реализация с меньшим объёмом данных и reservoir size, превосходящая conventional RC. Nature Communications, 2024: emerging opportunities для RC включая weather forecasting и neuromorphic hardware.

«Define "настоящее понимание"»

С удовольствием. Трансформер предсказывает следующий токен. Это статистическая модель последовательности, не модель мира. Когда GPT-5 «понимает» физику, он воспроизводит паттерны из обучающей выборки. Когда данных нет, то галлюцинирует. Понимание предполагает способность к compositional reasoning на новых данных.
По этому критерию трансформеры систематически проваливаются (Algorithma AI, раздел «Fundamental Flaws», 2025). Можно спорить о терминологии, но нельзя спорить с бенчмарками.

у меня в профайле, но для вас дублирую) есть интерактивное демо можете потыкаться https://github.com/fsbioai

почему не хотим, для прода это мастхев) система должна быть доступна даже пока корневые агенты спят

Про Титаник согласна на 100%. Там архитектурно заложено доверие ко всему, что движется внутри локалки. Патч для localhost не панацея, а скорее попытка заткнуть самую очевидную дыру, через которую сейчас полезут скрипт-кидди с Shodan'а. А насчет цели разработки... учитывая, что это опенсорсный форк форка, скорее всего, там просто классическое "херакаем в продакшн, о безопасности подумаем потом")

а что если документы противоречат друг другу?

У тебя ансамбль ретриверов может вытащить чанки из разных источников с разной информацией (например, старая и новая редакция документа). Как LLM решает кому верить?

мы здесь имеем в виду, что отнимаем направление ризонинга у ллм, прогоняем его теперь уже через 3 слоя (системы 1 и 2 по Канеману + слой 3, который назвали СуперЭго) мышления архитектуры. На выходе она отдает в ллм состояние системы, из которого и складывается структура ответа. Помогает не глючить-не конфабить, держаться контекста даже на очень долгом сроке)

1

Информация

В рейтинге
553-я
Откуда
Нижний Новгород, Нижегородская обл., Россия
Зарегистрирована
Активность

Специализация

ML разработчик, ai dev
Средний
Английский язык
Алгоритмы и структуры данных
Python
Redis
FastAPI
PostgreSQL
Kubernetes
REST
Docker