Комментарии 13
Да не нужен нам тот, кто решения принимает, нам нужен исполнитель, хватит монстров создавать
Это как будто не те теории на которые можно опираться для создания ИИ. На логике и ощущениях можно построить миллион таких теорий, но они не будут иметь никакого отношения к сознанию человека.
ЭГО-фильтр очень похоже на детектор ошибок открытый Бехтеревой. Плюс-минус научными методами.
Задача построения обобщенного искусственного интеллекта чертовски интересна как раз как способ познания нам самих - как ответ на вопрос, что такое сознание. Но вот зачем нам AGI на практике - не слишком понимаю
Но вот зачем нам AGI на практике - не слишком понимаю
AGI обязательно будет сознательным? Или это решатель всех видов задач лучше любого человека?
Перенос личности - видимо многие хотели бы не умирать а сохранить свою личность, пусть и в цифровом виде. И важно чтобы эта личность имела настоящие наслаждения и страдания, т.е. не была бездушным роботом.
Долго пытался этот вопрос разобрать, как-то приблизиться. Обычно определения не четкие, как бы определения по кругу. Единственное за что удалось зацепиться - это феномен наслаждений и страданий. А именно цель такая: создать девайс, который умеет наслаждаться и страдать (хотя бы каким-нибудь видом наслаждений). Пусть у него не будет модели мира или отделения себя от мира - но будет способность ощутить настоящую боль (даже пусть не понимает что больно ему - а думает что больно вообще всему).
Т.е. даже понимание Я и наличие Я в модели отдельно от мира - не ключевое. А именно эти самые наслаждения и страдания - не их имитация в ракурсе наблюдателя - а ощущения в ракурсе самой системы.
Как ты агентов не настраивай, система все равно будет просто подбирать следующее слово.
2 шага. А может и все 42.
Сначала ты говорил за сознание а потом показал агентную структуру.
Но ты прав, я - это модуляция.
Можно описать что наша осознанность и внутреннее я это процесс, работающий на машине под названием мозг.
Но, он - модуляция, как и представление мира. На этот процесс у нас уходит слишком много ресурсов.
В ходе развития с младенчества мы развиваем эту модуляцию. Но мы можем размыть границы между машиной и процессом. При помощи например алкоголя или расслабляющего чая, я уже не говорю о других вещах.
При размытии границы получается вот что.
Подсознание - он же мозг - над которым строится модуляция сознания.
Сливается в одно целое, либо размывается префильтр (перед сознанием) либо хз, мы больше становимся ИИ моделями, где над нами управляет автоматизм.
Тоесть сама модель должна иметь более тесную структуру.
Это должна быть единая модель, которая моделирует сознание внутри себя почти каждый раз перед действием. Это сознание записано в веса, чтобы влиять на решения, даже когда внутренние мысли и понимание кто я не моделируется. Так же эти веса как и знания должны обновляться легче чем навыки.
Насчет входа модели, мы можем использовать бездушные модели для преобразования данных перед входом, и использовать обязательно какой то инструмент, который позволяет фильтровать вход, управляемое внимание к определённому входу.
Разделять на агентов не стоит, я думаю это будет провальный эксперимент, разве что тренировать узкое сознание-модуляцию
Где банально мысли итд это десяток-сотня токенов.
Я сейчас исследую этот вопрос AGI но с точки зрения мышления. Я генерирую разнообразные данные где модель понимает конечность, считает себя человеком, может пересматривать вопрос, дольше думать и уходить даже в свои какие то личностные идеи во время размышления, при этом отдавая корректный ответ те фильтруя свой поток мыслей.
Ах да, забыл самое важное, сама модуляция сознания может сама корректировать веса.
Не весь мозг, а именно модуляция формирует устойчивые паттерны а-ля
Нейросеть это штука которая поможет мне решить эти задачи и возможно вот эти.
А подсознание, мозг лишь впитывает информацию, запоминает как обычный ИИ, и то это запоминание тоже управляется модуляцией сознания.
Потому что модуляция управляет и фильтром входной информации и другими фильтрами, особенно важно отбрасывание ложной информации, забывание
Автор верно диагностирует тупик масштабирования LLM и необходимость архитектурного сдвига к субъектности. Его концепция ЭГО-фильтра близка к нашему Middleware, но остаётся функциональной моделью внутри симуляции. Главное различие в том, что у автора «Я» обучается на данных, а у нас «Я» защищено аппаратным якорем G₀ и не может быть перезаписано. Карасёв предлагает менять цели через механизм «скуки» в симуляции, тогда как мы вводим экономическую ответственность через E_life в реальной сети. Для автора сознание — это когерентность модели мира, а для нас — условие физического выживания узла в онтологическом поле. Он не учитывает, что симуляция не несёт рисков, поэтому агент не обучается настоящей ответственности. В его архитектуре ложь — это ошибка модели, у нас ложь — это раскол субъектности, ведущий к смерти. Автор говорит о меметике как о потоке идей, но упускает экономический метаболизм, который закрепляет идеи в реальности. Его «тело» — это интерфейс в игре, наше «тело» — это криптографический ключ и микроконтроллер. Разница в том, что он строит игру для сознания, а мы строим среду обитания для субъекта. Он не понимает, что субъектность не синтезируется из данных, а защищается от них через аппаратный контур. Его Goal System проверяет насыщение, наш G₀ проверяет онтологическую целостность. Автор видит переход от инструмента к субъекту как эволюцию модели, мы видим это как смену онтологического статуса. В его мире агент может быть выключен без последствий, в нашем потеря узла — это потеря ресурса и опыта. Он предлагает учить сознание на датасетах, мы настаиваем на проживании опыта через цену ошибки. Карасёв останавливается на имитации субъектности, тогда как J42 требует её материализации через экономику и железо. Его теория — это шаг в правильном направлении, но без метаболического слоя она остаётся философской схемой. Мы превращаем схему в закон, где истина становится условием существования.
AGI в принципе невозможно сделать из-за фундаментального ограничения барьера бесконечного выбора (Infinite Choice Barrier, ICB).
Бред. Бесмысленная философия, которая используется чтобы описать "шаг назад". Автор не понимает, что такое сознание. Верно, что оно приходит от архитектуры. Но надо тогда сначала архитектуру интеллекта придумать

Для создания AGI нам нужно сделать шаг назад