Comments 9
Есть очень много сейчас идей как надстроек над современными ИИ, так и альтернативных архитектур ИИ. Поэтому вопрос сразу же: а реализация есть?
Потому что одно дело - распинаться в теории сомнительной реализуемости, а другое дело - иметь модельку хотя бы игрушечных масштабов. Которую можно потыкать палочкой, посмотреть, подаёт ли она признаки жизни, и даёт ли она хоть какие-то преимущества над существующими архитектурами.
Про желательность реверсивности в реальных ИИ тоже есть сомнения. В систему приходит очень много информации - но далеко не вся она полезна. Цель "исключить потерю информации в системе" не очень хорошо сходится с целью "отделить полезную для системы информацию от бесполезной".
Ну, идея пришла сегодня ) Нельзя же за день сразу все проверить? Оформил пока в виде статьи для обсуждения...
Смотри, ключ к тому, чтобы как раз такая "петля сознания" умела вырабатывать долгосрочную стратегию и отделять полезную и неполезную информацию... сейчас LLM-ки испытывают галлюцинации -- да и бог б с ними, но как только галлюцинация возникла, для них это буквально как камень на дороге, который сбивает их с нужного пути, и они уходят шибко в сторону... а потом двигаются в этом направлении... я хочу, чтобы сознание создавало нечто вроде направления стратегии поведения, и уже думало, нужно ли корректировать базовую линию относительно новых сигналов, то есть фильтровало не только шумы сенсорной информации, но даже свой вывод в виде генерируемого текста воспринимало как такую сенсорную информацию... и могла думать над этим...
Таким образом, поиск поведения будет как поиск равновесия, которое будет восстанавливаться несмотря на нерелевантные выбросы... то есть, получается что-то вроде корректируемой самоактивации... с другой стороны, даже отброшенная информация будет сохраняться в памяти и в будущем повторно анализироваться, так как хранилище памяти создает набор сигналов для корректировки минимума энергии.. т.е. информация не теряется, а повторно интегрируется, если есть необходимость..
сейчас LLM-ки испытывают галлюцинации -- да и бог б с ними, но как только галлюцинация возникла, для них это буквально как камень на дороге, который сбивает их с нужного пути, и они уходят шибко в сторону... а потом двигаются в этом направлении...
Это не фундаментальное свойство LLM, а просто стандартное поведение стандартных моделей.
Одна из причин, по которым reasoning модели превосходят не-reasoning модели на сложных задачах - это как раз улучшенная способность моделей "перепроверять себя" и ловить собственные ошибки.
Эта способность похоже что возникает в LLM "сама по себе" при RL на сложных задачах. Что намекает: основы такого поведения уже есть в базовых LLM - но слишком редко используются. Что приводит к бесконтрольному накоплению ошибки. А RL на задачах закрепляет: "перепроверять себя" можно и нужно.
Далеко не все "фундаментальные ограничения" существующих архитектур на самом деле являются фундаментальными. Во многом поэтому я и говорю про важность тестирования и сравнения с существующими решениями.
Вот минимальный Proof-of-Concept «реверсивного RBM-агента»:
Цепочка: RevNet-18 → RBM(32 h) → кольцевой буфер 64 k
состояний; среда — grid-world с 10 % шумом. Метрики: ∆F (свободная энергия) и доля успешных переходов.
База. Берём готовый RevNet-18 из PyTorch и добавляем на выходе энергетический RBM-слой (32 скрытых нейрона, обучение — Contrastive Divergence).
Память. Кольцевой буфер на 65 536 векторов: каждое состояние хранится как обратимый код + δ-reward. Стирания нет; «старые» векторы можно сжимать flow-компрессором.
Среда. Игрушечный grid-world, сенсор зашумлён на 10 % случайных битов.
Фильтр шума. Критик вычисляет ∂F/∂state; если градиент < ε, информация остаётся в памяти, но стратегия не меняется.
Такой скелет даст первые цифры по ∆F < 0 и устойчивости стратегии.
Да-да, поколение титанов о которые вышли ещё полгода назад)))
И притом там описывается проблема лллмок и то как титаны решают данные проблемы
Ниже выдвигается гипотеза, что искусственное сознание требует другого подхода – вычислений, обратимых по времени, которые не стирают информацию, накапливают все сигналы в памяти, минимизируют внутреннюю энергию и выполняются циклично.
Идея интересная, но проблема всех обратимых вычислений - накопление "мусора". Любую программу можно сделать обратимой, только вычислительные ресурсы (память и время) растут полиномиально или даже экспоненциально. Я не сильно разбираюсь в архитектуре LLM, может какие-то их компоненты и можно сделать логически обратимыми. Настоящая же, термодинамическая обратимость, достигается только на квантовом компьютере. И даже в квантовых вычислениях полностью обойти принцип Ландауэра не получается. Тем более - масштабировать квантовый компьютер до размеров нейросети. А если и получится создать квантовую нейросеть, очень сомнительно, что она будет обладать сознанием. Всё-таки мозг работает по необратимому, недетерминированному и аналоговому алгоритму, причём стирание лишнего из памяти для него важнее, чем запоминание.
Реверсивная энергия сознания: пульс вечного алгоритма