Search
Write a publication
Pull to refresh

Comments 9

Есть очень много сейчас идей как надстроек над современными ИИ, так и альтернативных архитектур ИИ. Поэтому вопрос сразу же: а реализация есть?

Потому что одно дело - распинаться в теории сомнительной реализуемости, а другое дело - иметь модельку хотя бы игрушечных масштабов. Которую можно потыкать палочкой, посмотреть, подаёт ли она признаки жизни, и даёт ли она хоть какие-то преимущества над существующими архитектурами.

Про желательность реверсивности в реальных ИИ тоже есть сомнения. В систему приходит очень много информации - но далеко не вся она полезна. Цель "исключить потерю информации в системе" не очень хорошо сходится с целью "отделить полезную для системы информацию от бесполезной".

Ну, идея пришла сегодня ) Нельзя же за день сразу все проверить? Оформил пока в виде статьи для обсуждения...

Смотри, ключ к тому, чтобы как раз такая "петля сознания" умела вырабатывать долгосрочную стратегию и отделять полезную и неполезную информацию... сейчас LLM-ки испытывают галлюцинации -- да и бог б с ними, но как только галлюцинация возникла, для них это буквально как камень на дороге, который сбивает их с нужного пути, и они уходят шибко в сторону... а потом двигаются в этом направлении... я хочу, чтобы сознание создавало нечто вроде направления стратегии поведения, и уже думало, нужно ли корректировать базовую линию относительно новых сигналов, то есть фильтровало не только шумы сенсорной информации, но даже свой вывод в виде генерируемого текста воспринимало как такую сенсорную информацию... и могла думать над этим...

Таким образом, поиск поведения будет как поиск равновесия, которое будет восстанавливаться несмотря на нерелевантные выбросы... то есть, получается что-то вроде корректируемой самоактивации... с другой стороны, даже отброшенная информация будет сохраняться в памяти и в будущем повторно анализироваться, так как хранилище памяти создает набор сигналов для корректировки минимума энергии.. т.е. информация не теряется, а повторно интегрируется, если есть необходимость..

сейчас LLM-ки испытывают галлюцинации -- да и бог б с ними, но как только галлюцинация возникла, для них это буквально как камень на дороге, который сбивает их с нужного пути, и они уходят шибко в сторону... а потом двигаются в этом направлении...

Это не фундаментальное свойство LLM, а просто стандартное поведение стандартных моделей.

Одна из причин, по которым reasoning модели превосходят не-reasoning модели на сложных задачах - это как раз улучшенная способность моделей "перепроверять себя" и ловить собственные ошибки.

Эта способность похоже что возникает в LLM "сама по себе" при RL на сложных задачах. Что намекает: основы такого поведения уже есть в базовых LLM - но слишком редко используются. Что приводит к бесконтрольному накоплению ошибки. А RL на задачах закрепляет: "перепроверять себя" можно и нужно.

Далеко не все "фундаментальные ограничения" существующих архитектур на самом деле являются фундаментальными. Во многом поэтому я и говорю про важность тестирования и сравнения с существующими решениями.

Вот минимальный Proof-of-Concept «реверсивного RBM-агента»:

Цепочка: RevNet-18 → RBM(32 h) → кольцевой буфер 64 k состояний; среда — grid-world с 10 % шумом. Метрики: ∆F (свободная энергия) и доля успешных переходов.

  1. База. Берём готовый RevNet-18 из PyTorch и добавляем на выходе энергетический RBM-слой (32 скрытых нейрона, обучение — Contrastive Divergence).

  2. Память. Кольцевой буфер на 65 536 векторов: каждое состояние хранится как обратимый код + δ-reward. Стирания нет; «старые» векторы можно сжимать flow-компрессором.

  3. Среда. Игрушечный grid-world, сенсор зашумлён на 10 % случайных битов.

  4. Фильтр шума. Критик вычисляет ∂F/∂state; если градиент < ε, информация остаётся в памяти, но стратегия не меняется.

Такой скелет даст первые цифры по ∆F < 0 и устойчивости стратегии.

Да-да, поколение титанов о которые вышли ещё полгода назад)))

И притом там описывается проблема лллмок и то как титаны решают данные проблемы

Ниже выдвигается гипотеза, что искусственное сознание требует другого подхода – вычислений, обратимых по времени, которые не стирают информациюнакапливают все сигналы в памятиминимизируют внутреннюю энергию и выполняются циклично.

Идея интересная, но проблема всех обратимых вычислений - накопление "мусора". Любую программу можно сделать обратимой, только вычислительные ресурсы (память и время) растут полиномиально или даже экспоненциально. Я не сильно разбираюсь в архитектуре LLM, может какие-то их компоненты и можно сделать логически обратимыми. Настоящая же, термодинамическая обратимость, достигается только на квантовом компьютере. И даже в квантовых вычислениях полностью обойти принцип Ландауэра не получается. Тем более - масштабировать квантовый компьютер до размеров нейросети. А если и получится создать квантовую нейросеть, очень сомнительно, что она будет обладать сознанием. Всё-таки мозг работает по необратимому, недетерминированному и аналоговому алгоритму, причём стирание лишнего из памяти для него важнее, чем запоминание.

Sign up to leave a comment.

Articles