Лина Бессонова@linabesson
neuromorphic AI dev
Information
- Rating
- 554-th
- Location
- Нижний Новгород, Нижегородская обл., Россия
- Registered
- Activity
Specialization
ML разработчик, ai dev
Средний
Английский язык
Алгоритмы и структуры данных
Python
Redis
FastAPI
PostgreSQL
Kubernetes
REST
Docker
Они и не «фигня». Решают другой класс задач) домашний телефон тоже не фигня, имеет место быть в 2026 году.
читайте последнюю статью)
)) вот тебе кейс. Робот-манипулятор на конвейере. Берёт деталь, ставит деталь. 24/7. Требования: latency < 5ms, детерминизм 100%, энергопотребление < 10W.
Ставим трансформер. Что получаем?
Latency. Inference даже маленького трансформера на edge 15–50ms. Уже не прошли. Можно дистиллировать, квантизовать, обрезать. Теперь 8ms. Всё ещё не прошли. А нужно 5. Каждый раз. Не в среднем каждый.
Детерминизм. Трансформер стохастическая модель. Один и тот же вход может дать разный выход в зависимости от floating point порядка операций, температуры, шума. На текстовом чат-боте это незаметно. На конвейере при 200 деталях в минуту — это один покалеченный палец оператора в квартал. Страховая скажет спасибо.
Энергия. Vera Rubin монстр. 600W на чип. На конвейере стоят 40 манипуляторов. 40 × 600W = 24kW только на inference. А рядом стоит контроллер на FPGA который жрёт 2W и делает то же самое — но детерминированно.
Трансформер тут не good enough. Не потому что плохой. А потому что это молоток в ситуации где нужна отвёртка.
Вопрос не «трансформер или не трансформер». Вопрос для чего. Генерация, анализ, reasoning - тут да, трансформер на коне. Hard real-time, детерминизм, edge, milliwatt inference уже другие инструменты. Они существуют не потому что кто-то хочет убить трансформер. А потому что мир не состоит из одних чат-ботов.
Модели мира внутри трансформеров - ок да, механисты показали, вопрос закрыт. Фотоника тоже да, хайп. Трансформеры good enough нууу может и да, сейчас.
Но good enough — это не научный аргумент. Это экономический. x86 тоже был good enough, на свое время, и он победил не потому что лучший, а потому что дешевле менять софт чем железо. Трансформеры побеждают по той же причине - экосистема, тулинг, инерция, кадры.
Ну и вы же и пишете «масштабы архитектуры упёрлись», рост через обучение. Это потолок. Высокий — но потолок. И вопрос не «работают ли трансформеры сейчас» (работают), а «что делать когда новые трюки кончатся». Это не вопрос на сегодня. Но это вопрос в целом.
«Убийц трансформеров было много»
Да. И это аргумент в нашу пользу, значит проблема реальна, раз столько людей пытаются её решить. Мы не предлагаем «убить трансформер», мы предлагаем забрать из него знания и запустить их на другой архитектуре. Разница как между «снести здание» и «вывезти из него библиотеку».
«GPT-5.4 запинает титанов, производительность растёт»
Растёт. Вопрос — какой ценой. Orion (предшественник GPT-5) достиг уровня GPT-4 на 20% обучения. Оставшиеся 80% compute дали diminishing returns, настолько, что модель переименовали из GPT-5 в GPT-4.5 (источник: Philippe Dubach, «What Comes After Transformers», март 2026).
Tim Dettmers (декабрь 2025): «The scaling improvements in 2025 were not impressive. We have maybe one, maybe two more years of scaling left because further improvements become physically infeasible.»
Algorithma AI: «brute-force scaling of dense Transformer models is no longer a sustainable or efficient path to progress.» Это не хиты 2023 года, это данные 2025–2026.
«Фотонные компьютеры? Серьёзно?»
Nature Light, июль 2025: optical next-generation reservoir computing — аппаратная реализация с меньшим объёмом данных и reservoir size, превосходящая conventional RC. Nature Communications, 2024: emerging opportunities для RC включая weather forecasting и neuromorphic hardware.
«Define "настоящее понимание"»
С удовольствием. Трансформер предсказывает следующий токен. Это статистическая модель последовательности, не модель мира. Когда GPT-5 «понимает» физику, он воспроизводит паттерны из обучающей выборки. Когда данных нет, то галлюцинирует. Понимание предполагает способность к compositional reasoning на новых данных.
По этому критерию трансформеры систематически проваливаются (Algorithma AI, раздел «Fundamental Flaws», 2025). Можно спорить о терминологии, но нельзя спорить с бенчмарками.
да https://github.com/fsbioai/fsbio-preview
у меня в профайле, но для вас дублирую) есть интерактивное демо можете потыкаться https://github.com/fsbioai
почему не хотим, для прода это мастхев) система должна быть доступна даже пока корневые агенты спят
Про Титаник согласна на 100%. Там архитектурно заложено доверие ко всему, что движется внутри локалки. Патч для localhost не панацея, а скорее попытка заткнуть самую очевидную дыру, через которую сейчас полезут скрипт-кидди с Shodan'а. А насчет цели разработки... учитывая, что это опенсорсный форк форка, скорее всего, там просто классическое "херакаем в продакшн, о безопасности подумаем потом")
а что если документы противоречат друг другу?
У тебя ансамбль ретриверов может вытащить чанки из разных источников с разной информацией (например, старая и новая редакция документа). Как LLM решает кому верить?
мы здесь имеем в виду, что отнимаем направление ризонинга у ллм, прогоняем его теперь уже через 3 слоя (системы 1 и 2 по Канеману + слой 3, который назвали СуперЭго) мышления архитектуры. На выходе она отдает в ллм состояние системы, из которого и складывается структура ответа. Помогает не глючить-не конфабить, держаться контекста даже на очень долгом сроке)
Тренд продолжается) https://www.businessinsider.com/executives-board-members-and-researchers-who-left-openai-in-2025-2025-12
душевная) вот тут есть об этом https://dianawolftorres.substack.com/p/openais-gpt-4o-sycophancy-saga-how
кросскультурную, гуманистическую)
нам как инженерам доступна другая сторона вопроса - строить безопасные и этичные системы ИИ)
когнитивные особенности этих юзеров упали в благодатную почву технически "подшитой на согласие" модели)
Почему не langchain выбрали - https://t.me/ena_ai/235 написала пост в тг на эту тему)
https://zenodo.org/records/17389938 одна из наших первых публикаций, слегка устарела, но тем не менее)
придумали, как дать ии-агенту необходимую бесшумность мышления)
приветствую) почему-то в агентных фреймворках редко это вижу)