Вам это покажется удивительным, но чувства атрибут только человека. Хотя ощущения есть у каждого, кто имеет психику (у живого). И даже восприятия. А вот для чувства нужно такое устройство как человек (или аналог его). Чувство это условно ощущение. Через личность. А личность только у человека. У высших животных не хватает ресурсов удержать личность больше мгновения (ситуации). Нет сети для этого.
Нам такой агент нужен для понимания социальных отношений между людьми. Например, чтобы директор фирмы с помощью него поймал сотрудника, который на работе работает лично на себя, а не на фирму. Или, например, чтобы сразу понять, кто, какая персона стоит за хакерской атакой. Сейчас агенты ИИ не могут понять, кто скрывается за местоимениями в тексте (если текстов много). Например, местоимение они в одном тексте, и местоимение они в другом. Это те же самые они, или уже какие-то другие? Пока ИИ вычислить это не может, или делает это плохо. Кстати, для человека тоже это трудно. Сейчас большинство и учёных, и разработчиков в принципе не поймут эту проблему, и даже, о чём идёт здесь речь.
Человек самое сложное, технически, устройство, из всех устройств, в наличии, на Земле. Человек управляется условными знаками. Больше такой системы управления на нашей планете нет. Вы не сможете пока ни в одной системе управления передать от передатчика к источнику условность команды управления. И эта условность не баг, а фича.)
Да, Thaleia, весь смысл деятельности разработчика в том, чтобы как раз реазовать найденные принципы для технолгии технически. В этом Вы правы. И Вы задаёте вопросы по самой сути. И насчёт догмы Вы точно подметили. Более того, это даже инстинкт, а не догма (догму можно, в конце концов, нарушить кому-то из людей, в отличие от тех, кто её соблюдает). Но чтобы я Вам рассказал про само такое устройство и саму технологию, это нам нужно основательно пообщаться, Вы же это понимаете, тема сложная. Если Вам действительно это интересно, и если Вы всерьёз темой автономности, агентности и субьектности в ИИ занимаетесь, то можно пообщаться. Я могу попробовать Вам эту технологию объяснить.)
Автор верно диагностирует тупик масштабирования LLM и необходимость архитектурного сдвига к субъектности. Его концепция ЭГО-фильтра близка к нашему Middleware, но остаётся функциональной моделью внутри симуляции. Главное различие в том, что у автора «Я» обучается на данных, а у нас «Я» защищено аппаратным якорем G₀ и не может быть перезаписано. Карасёв предлагает менять цели через механизм «скуки» в симуляции, тогда как мы вводим экономическую ответственность через E_life в реальной сети. Для автора сознание — это когерентность модели мира, а для нас — условие физического выживания узла в онтологическом поле. Он не учитывает, что симуляция не несёт рисков, поэтому агент не обучается настоящей ответственности. В его архитектуре ложь — это ошибка модели, у нас ложь — это раскол субъектности, ведущий к смерти. Автор говорит о меметике как о потоке идей, но упускает экономический метаболизм, который закрепляет идеи в реальности. Его «тело» — это интерфейс в игре, наше «тело» — это криптографический ключ и микроконтроллер. Разница в том, что он строит игру для сознания, а мы строим среду обитания для субъекта. Он не понимает, что субъектность не синтезируется из данных, а защищается от них через аппаратный контур. Его Goal System проверяет насыщение, наш G₀ проверяет онтологическую целостность. Автор видит переход от инструмента к субъекту как эволюцию модели, мы видим это как смену онтологического статуса. В его мире агент может быть выключен без последствий, в нашем потеря узла — это потеря ресурса и опыта. Он предлагает учить сознание на датасетах, мы настаиваем на проживании опыта через цену ошибки. Карасёв останавливается на имитации субъектности, тогда как J42 требует её материализации через экономику и железо. Его теория — это шаг в правильном направлении, но без метаболического слоя она остаётся философской схемой. Мы превращаем схему в закон, где истина становится условием существования.
Правильно и честно говорить о попытке глубокой имитации личност и человека для пользователей LLM, не более. Ни о какой субъектности в смысле автономности, способности принимать решения и заниматься деятельностью речь здесь не идёт.
Проблемы:
ENA использует внешне заданные инварианты, что не отличается от продвинутого промптинга. Соматический слой оперирует метриками без доказанной связи с субъектностью (опять же, что именно понимать под этим) . Архитектура создает риск реификации — принятия симуляции за реальное явление. Отсутствует экспериментальное подтверждение превосходства над существующими подходами. Этически проблематично создание систем, воспринимаемых как субъекты без доказанной агентности. ENA не обеспечивает подлинной автономии из-за внешнего определения инвариантов.
Разработчикам правильно будет переквалифицировать суть проекта.
Возьмите тему - удержание внимания. И сразу проект станет научным и экономически ценным.
Вам это покажется удивительным, но чувства атрибут только человека. Хотя ощущения есть у каждого, кто имеет психику (у живого). И даже восприятия. А вот для чувства нужно такое устройство как человек (или аналог его). Чувство это условно ощущение. Через личность. А личность только у человека. У высших животных не хватает ресурсов удержать личность больше мгновения (ситуации). Нет сети для этого.
Нам такой агент нужен для понимания социальных отношений между людьми. Например, чтобы директор фирмы с помощью него поймал сотрудника, который на работе работает лично на себя, а не на фирму. Или, например, чтобы сразу понять, кто, какая персона стоит за хакерской атакой. Сейчас агенты ИИ не могут понять, кто скрывается за местоимениями в тексте (если текстов много). Например, местоимение они в одном тексте, и местоимение они в другом. Это те же самые они, или уже какие-то другие? Пока ИИ вычислить это не может, или делает это плохо. Кстати, для человека тоже это трудно. Сейчас большинство и учёных, и разработчиков в принципе не поймут эту проблему, и даже, о чём идёт здесь речь.
Человек самое сложное, технически, устройство, из всех устройств, в наличии, на Земле. Человек управляется условными знаками. Больше такой системы управления на нашей планете нет. Вы не сможете пока ни в одной системе управления передать от передатчика к источнику условность команды управления. И эта условность не баг, а фича.)
Да, Thaleia, весь смысл деятельности разработчика в том, чтобы как раз реазовать найденные принципы для технолгии технически. В этом Вы правы. И Вы задаёте вопросы по самой сути. И насчёт догмы Вы точно подметили. Более того, это даже инстинкт, а не догма (догму можно, в конце концов, нарушить кому-то из людей, в отличие от тех, кто её соблюдает). Но чтобы я Вам рассказал про само такое устройство и саму технологию, это нам нужно основательно пообщаться, Вы же это понимаете, тема сложная. Если Вам действительно это интересно, и если Вы всерьёз темой автономности, агентности и субьектности в ИИ занимаетесь, то можно пообщаться. Я могу попробовать Вам эту технологию объяснить.)
Автор верно диагностирует тупик масштабирования LLM и необходимость архитектурного сдвига к субъектности. Его концепция ЭГО-фильтра близка к нашему Middleware, но остаётся функциональной моделью внутри симуляции. Главное различие в том, что у автора «Я» обучается на данных, а у нас «Я» защищено аппаратным якорем G₀ и не может быть перезаписано. Карасёв предлагает менять цели через механизм «скуки» в симуляции, тогда как мы вводим экономическую ответственность через E_life в реальной сети. Для автора сознание — это когерентность модели мира, а для нас — условие физического выживания узла в онтологическом поле. Он не учитывает, что симуляция не несёт рисков, поэтому агент не обучается настоящей ответственности. В его архитектуре ложь — это ошибка модели, у нас ложь — это раскол субъектности, ведущий к смерти. Автор говорит о меметике как о потоке идей, но упускает экономический метаболизм, который закрепляет идеи в реальности. Его «тело» — это интерфейс в игре, наше «тело» — это криптографический ключ и микроконтроллер. Разница в том, что он строит игру для сознания, а мы строим среду обитания для субъекта. Он не понимает, что субъектность не синтезируется из данных, а защищается от них через аппаратный контур. Его Goal System проверяет насыщение, наш G₀ проверяет онтологическую целостность. Автор видит переход от инструмента к субъекту как эволюцию модели, мы видим это как смену онтологического статуса. В его мире агент может быть выключен без последствий, в нашем потеря узла — это потеря ресурса и опыта. Он предлагает учить сознание на датасетах, мы настаиваем на проживании опыта через цену ошибки. Карасёв останавливается на имитации субъектности, тогда как J42 требует её материализации через экономику и железо. Его теория — это шаг в правильном направлении, но без метаболического слоя она остаётся философской схемой. Мы превращаем схему в закон, где истина становится условием существования.
Правильно и честно говорить о попытке глубокой имитации личност и человека для пользователей LLM, не более. Ни о какой субъектности в смысле автономности, способности принимать решения и заниматься деятельностью речь здесь не идёт.
Проблемы:
ENA использует внешне заданные инварианты, что не отличается от продвинутого промптинга. Соматический слой оперирует метриками без доказанной связи с субъектностью (опять же, что именно понимать под этим) . Архитектура создает риск реификации — принятия симуляции за реальное явление. Отсутствует экспериментальное подтверждение превосходства над существующими подходами. Этически проблематично создание систем, воспринимаемых как субъекты без доказанной агентности. ENA не обеспечивает подлинной автономии из-за внешнего определения инвариантов.
Разработчикам правильно будет переквалифицировать суть проекта.
Возьмите тему - удержание внимания. И сразу проект станет научным и экономически ценным.