Comments 81
иишные портянки читать даже по диагонали неприятно.
но вот с чего всегда ухмыляюсь, так это с псевдофхилософствования о "настоящем ИИ" умников не в состоянии даже минимально выдать формальное обоснование существования сознания у наблюдаемых людей, ибо таковых не существует. гнать таких инфоцыган тряпками
Где можно початиться уже с этой вундер-машиной? /s
На вебинаре или на ЗБТ в следующем году. А "вундер-машиной" она станет после официального и строгого теста Тьюринга
Логика у вас сбоит. Вундер-машиной она должна стать до теста, иначе тест не пройдет.
Собрались как-то профессор философии, школьник и портовая проститутка быть экзаменаторами на тесте Тьюринга.
Сидят, беседуют с испытуемым.После часа разговора выходят.
Профессор философии говорит:
— Это, безусловно, машина. Ни одного упоминания о "смысле бытия" и "онтологии сознания".
Школьник:
— Та ну, это человек. Он поставил три смайлика, знает всех блогеров и даже пошутил про физрука.
Проститутка пожимает плечами:
— А мне всё равно. Он был вежливый, не хамил и сразу перевёл деньги. Пусть проходит.
Выходит испытуемый — и оказывается, это был кот, случайно уснувший на клавиатуре.
Хочешь другую версию — более жёсткую, философскую или сатирическую?
Чатиться. FACEPALM.
Набежало как-то к Эйнштейну и Опенгеймеру почти век назад заурядных людей из масс "че, есть у вас тут боНба атомная, дайте позырить? Че, нет? А если найдем?"
Я не знаю как выразить это ощущение.
Или к нейрохирургу чисто по-пацански забежать пощупать нейроны. Или увидеть транзюки в современном CPU, разбив его молотком.
Не все технологии, прежде чем с ними можно початиться, полайкать и порепостить, а также сказать "Алиса сколько времЯ?", вместо того чтобы бросить взгляд на часы, сразу доступны для m-asses (для масс). Некоторое время они доступны кроме как в лабораториях нигде. Но там с ними не пытаются чатиться и просить показать сиськи.
Команде - успехов и меньше оглядываться на.
"Правда всегда одна", как в той песне Наутилуса.
/ы
Да вообщем то это все лежит на поверхности.
Главная проблема LLM - логика это побочный эффект. Все остальное можно записать в плюсы.
С другой стороны лет 20-30 назад была мания на экспертные системы. Сплошная логика, но обучение этого сродни формализации всего.
Истина, как обычно, где то посередине. Некий гибрид, в которой выход LLM будет фильтроваться экспертной системой.
Так мы этого и не скрываем. Мы собрали разрозненные фрагменты знаний из когнитивной науки, философии, нейробиологии и инженерии, добавили современное понимание этики, архитектуры и агентности. И по этому пути идут десятки команд по всему миру - не мы первые и не мы последние.
Хорошо, гибрид. Вы имеете ввиду простое "фильтрование выхода" LLM через экспертную систему или что? Можно уточнить?! Как Вы это понимаете?!
На уровне внутренней системы валидации. Например:
Контекст формализуется и загружается как базовые правила экспертной системы. Возможно той же LLM. Но ЭС не пропустит что то не логичное уже на этом уровне. Т.е. пропихнуть что то типа "тяжелые обьекты не летают" и "слоны летают, если розовые" одновременно не получится.
Дальше LLM обрабатывает запрос, выдает ответ, который протаскивается через ЭС и если проходит - выдается пользователю.
Если ответ не проходит валидацию у ЭС она заставляет LLM сделать еще одну попытку. Что то типа "думай лучше". Возможно с подсказкой "из А не может быть Б" .
тест на ToM от Qwen)
https://chat.qwen.ai/s/39d92978-e289-45a7-8172-dd63233727c5?fev=0.0.225
Qwen3-MAX справился - хорошо, но это как сдать один вопрос из экзамена. Важно понять: это всего лишь одна задача из "стандартного набора" ToM и она относится к первому, самому лёгкому уровню сложности. Для каждой тестируемой системы создаётся уникальный набор формулировок, чтобы исключить эффект "data contamination" - когда ответ "заучен" из обучающих данных.
Три уровня сложности оценок ToM:
Уровень 1 - желания, простые знания;
Уровень 2 - ложные убеждения;
Уровень 3 - убеждения второго порядка и скрытые эмоции.
Ого, удивлен что он дал ответ, который прямо рекомендует о действиях с риском для самого себя.
современные нейронки это мгновенные справочники ремесленника. не более. и этим они хороши.
Объективный критерий сравнения разных ИИ в настоящий момент это бенчмарки. То что какая-то система обладает моделью мира и способностью к рассуждению (по мнению её авторов), а другая не обладает (по их же мнению), не значит ровным счётом ничего, до тех пор пока не будет представлен класс задач или конкретный бенчмарк на котором новая система превосходит SOTA.
В области ИИ LLM сейчас на лидирующих позициях, это медицинский факт. Если кому-нибудь удастся обучить модель которая обойдёт топовые LLM-ки например на ARC-AGI-2 или HLE, буду только рад. Но пока нет измеримых результатов, говорить о качественном прорыве бессмысленно.
А моделью мира и способностью к рассуждениям LLM-ки уже сейчас вполне обладают. Эти способности даже у животных есть на некотором уровне.
Да, LLM доминируют в бенчмарках, таких как ARC, HLE, MMLU и др. Но эти бенчмарки измеряют производительность, а не разум.
А по поводу животных, мы уже давали ссылку на материал - "Does the chimpanzee have a theory of mind?". А вот исследования, но спустя 30 лет (CogSci): "Does the chimpanzee have a theory of mind? 30 years later" (Josep Call и Michael Tomasello)
И да, мы сейчас ни на что не претендуем и может я повторюсь: "Публикуя эту первую статью на Хабре, мы делаем первый шаг к открытому диалогу... это лишь начало...". Мы проделали долгий путь и нам предстоит не меньше - мы хорошо это понимаем.
Мы прекрасно знаем данный сайт и на Хабре есть новость. ARC-AGI-2 - это набор визуальных головоломок с абстрактными паттернами. Но что считается "когнитивностью" в рамках этого бенчмарка?! Настоящая когнитивность, как её понимают в когнитивной науке и как её тестируют в ToM - это способность действовать в открытой, неопределённой среде, где нет "правильного ответа", но есть этический выбор, намерения других агентов и необходимость целеполагания. Получается, "успех" LLM в ARC-AGI-2, достигается за счёт масштабного предобучения на визуально-логических паттернах?! И мы возвращаемся к тому, что данный бенчмарк, все таки тестирует производительность и эффективность вычислений
Люди даже не представляют что что-то есть за пределами слов. настоящие учителя ни разу не рассказывали об истине. они говорили только о пути к ней. слова убоги и модель бесконечности всегда будет убога и всегда будет упускать самое главное -- бесконечность.
Есть такое произведение -- Умэнь Хуэйкай "Застава без ворот учения чань" (чань-буддизм, китайский буддизм грубо говоря)
Это вот оттуда:
Сорок девятый рассказ
В сутре сказано: "Прекрати, прекрати - об этом не скажешь. О моей утонченной истине нельзя даже помыслить".
Аньвань заметит: Откуда берется истина? Где скрывается утонченность? А если кто-нибудь назовет их, что случится? Разве один Фэнгань распускал свой язык? Ведь и сам Будда был болтлив. Проделки этого старика сбили с толку не одну сотню поколений его потомков. Истину его причудливых речей ни ложкой не выловишь, ни в котелке не сваришь. Как ни старайся их понять, ошибки не избежишь. Люди вокруг спрашивают, как же нам быть в конце концов? Аньвань, смиренно сложив ладони, отвечает: "Прекрати, прекрати - об этом не скажешь. О моей утонченной истине нельзя даже помыслить". А теперь я выделю кружками слова "нельзя помыслить" и покажу их каждому. Все пять тысяч свитков канона и врата недвойственности Вималакирти сходятся в них.
Если тебе скажут, что огонь в фонаре,
Отвернись и не соглашайся.
Только вор сразу узнает вора:
Он все поймет с одного вопроса.
А КАКАЯ КОНКРЕТНО ПОЛЬЗА от всей этой зауми китайской? Что из неё позволило помочь создать хоть одно устройство, хоть одну повторяемую, воспроизводимую технологию?
Напоминает армейский юмор -- если вы такие умные, то почему строем не ходите?
Ну так вот это не про технологии, это про то, как не ходить строем по сансаре из жизни в жизнь. ну и заодно показать, что слова и символы -- это все конечно здорово и построение модели бесконечности (или ее части, что гораздо чаще бывает) любимое занятие хомо сапиенсов. но все это ковыряние в круговороте жизней. и оно того не стоит.
Вот об этом то и вопрос был - какая конкретно польза от этого знания? Что оно того не стоит - то понятно, а что тогда того стоит? Просто сказать, что то не стоит, это не стоит и ничего не стоит - много ума не надо. Какая КОНКРЕТНО ПОЛЬЗА от всей этой зауми? Никакой? Вот то-то и оно.
Не ходить строем по сансаре из жизни в жизнь... а она есть, сансара эта? Понапридумывают себе сансар, а потом сидят с умным видом, в нирване, типа. Код бы лучше писали - тоже занятие бесполезное, так-то. Зато время неплохо убивает. Так незаметно и до старости дотянуть можно, при хорошем здоровье. А там уже ещё чуть-чуть и с сансарой понятно станет.
Вот это да (Сарказм).
Спасибо, что прикручиваете NLU к SMT.
Текст похож на изложение опыта аспирантов, уж очень академично. Особенно подгонки всего под научные теории и цитаты из книг.
В основе вашей системы всё же предобученная llm? Если нет, откуда предполагается взять многочисленные знания о мире и как их поместить в вашу систему?
Так мы обучали в диалогах, каждый день что-то обсуждаем с системой. На данный момент, общее хранилище знаний - это около 300 Тб, мой новый HDD на 6 Tb, уже почти занят
То есть вы взяли LLM (трансформер) и обучаете ее на диалогах, или что-то принципиально иное по архитектуре? Если иное, то интересно было бы понять, что это и как вы его обучаете?
"Именно поэтому мы не используем предобученные LLM даже как перцептивный слой. Они вносят статистическую шумность, разрушающую причинно-следственные связи."
Знания попадают в систему не через "дообучение LLM на диалогах", а через структурированный диалог между оператором и агентом, где:
каждая новая концепция формализуется в виде символьной структуры;
затем проверяется на логическую и каузальную согласованность;
после проверки, включается в локальное хранилище знаний.
Хранилище знаний (300 Тб) - это не дамп диалогов, а база верифицированных онтологических фрагментов.
Хорошо, но в процессе этого диалога задействуется LLM?
каждая новая концепция формализуется в виде символьной структуры;
затем проверяется на логическую и каузальную согласованность;
после проверки, включается в локальное хранилище знаний.
Это все делается вручную, с разбором через LLM, или какой-то иной алгоритм? Если иной, как он понимает диалоги?
Хранилище знаний (300 Тб) - это не дамп диалогов, а база верифицированных онтологических фрагментов
Верно ли понимаю, что всю онтологию вы создаёте, условно говоря, вручную? Если да, то почему не хотите использовать LLM для создания т.н. лингвистических онтологий типа как описано вот здесь: https://rcc.msu.ru/ru/modeli-i-metody-avtomaticheskogo-analiza-tekstov-na-osnove-lingvisticheskih-ontologiy-v, https://cyberleninka.ru/article/n/proektirovanie-lingvisticheskih-ontologiy-dlya-informatsionnyh-sistem-v-shirokih-predmetnyh-oblastyah, https://cyberleninka.ru/article/n/izvlechenie-informatsii-iz-tekstov-na-osnove-ontologii-i-bolshih-yazykovyh-modeley, https://habr.com/ru/companies/airi/articles/855128/?
Она формируется вручную, через структурированный диалог между оператором и агентом, где каждая новая концепция проходит верификацию на логическую и каузальную согласованность с уже существующей моделью мира. Почему мы сознательно отказались от использования LLM для построения лингвистических онтологий, даже таких, как описаны в указанных Вами работах? Для нас, онтология — это не набор связей между словами, а структура причинно-следственных отношений между сущностями. LLM может сказать, что «огонь» связан с «теплом», «опасностью» и «пожаром»?! LLM не знает, что тепло - следствие, опасность - оценка последствий, а пожар - это реакция.
P.S.: Константин, Вы дублируете вопросы и сюда. Давайте или в лично или публично. Один и тот же ответ не хочется "гонять туда-сюда".
Я пока не сбрасываю со счетов LLM как единственную основу сильного ИИ. Мои последние размышления, приводят к гипотезам, требующим эмпирической проверки.
Коротко
Сознание над нейросетью (мозг или физическая нейросеть). Сознание проблематизирует и спрашивает, нейросеть отвечает. Сознание конструирует квалиа, переживает ответ, присваивает.
Возможно на LLM с открытыми весами вести обучение модели через traces где каждый факт кодируется вместе с его эмоциональной значимостью. Это не добавление "модуля квалиа", а трансформация самой структуры весов так, чтобы семантика была неразрывно связана с её релевантностью.
3. При таком переобучении веса автоматически формируют встроенную сеть, где близкие факты кластеризуются не просто по смыслу, но по значимости. Результат — модель мира возникает естественно как облако кластеризованных квалиа, где система уже знает: "это важно сейчас, потому что похоже на эпизоды с высоким arousal". Это создаёт направленность мышления, которой нет в текущих LLM4. При этом все процессы сознания, в первую очередь метарефлексия, конструирование квалиа и присвоение, остаются как в предыдущих гипотезах. Плюс вектор самости и векторная оперативная память.
Есть шанс, что модель в таких условиях начнет оперировать связностью.
Я правильно понимаю, что вы пытаетесь сделать "ещё один разум" в добавок к 8млрд. уже существующих? И это я ещё обезъян и прочих не включил в это число. А для чего?
LLM - замечательный инструмент для человеков. Будет ли таким же замечательным инструментом ваш "настоящий ИИ"? Или там всё-таки что-то придётся подкрутить, чтобы он "стал ответственным"? А останется ли он после этого "настоящим" или тоже перейдёт в категорию "инструментов"?
Люди создают себе помощников, а не конкурентов. Конкурентов у них и так хватает. Вот поэтому и создают помощников - чтобы обойти конкурентов.
Публикацию позеленил, хотя в саму вашу затею не сильно верю. Вы создаёте "домашних питомцев", "друзей" в лучшем случае, но не инструменты.
"Я правильно понимаю, что вы пытаетесь сделать "ещё один разум""
Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться.
"LLM - замечательный инструмент для человеков"
Мои же слова, повторюсь: "...LLM - отличные инструменты и как генераторы они прекрасно помогают..."
"Или там всё-таки что-то придётся подкрутить, чтобы он "стал ответственным"?"
Во всех разработках гибридов, о которых мы знаем (с некоторыми командами мы поддерживаем определённые контакты), то во всех них: "Этическая устойчивость: встроена - структурно, на уровне архитектуры (фильтрация, мотивационная нагрузка, этические рамки)"
"Люди создают себе помощников, а не конкурентов. Конкурентов у них и так хватает. Вот поэтому и создают помощников - чтобы обойти конкурентов."
Закрытая когнитивная система Soar, под "крылом" DARPA и использующейся в военных и разведывательных целях - это ведь тоже, в некотором роде - "помощник"?! Есть еще публичная версия Soar, которую может скачать и развивать любой желающий.
Вы задали очень интересные вопросы, которые "заставляют думать". Именно такие вопросы: о цели; ответственности и месте ИИ в обществе - обсуждаются в когнитивной науке, философии и инженерии уже не первый десяток лет.
Закрытая когнитивная система SOAR - самый что ни на есть "помощник", но при этом не является полноценным интеллектом. Вы же (и другие команды, разрабатывающие гибридов) создаёте условия для появления "настоящего" интеллекта, но при этом встраиваете в них "этическую устойчивость", которая не позволит "настоящему интеллекту" выйти за рамки, вами установленные. Вы не находите, что тут есть некоторое противоречие?
Настоящий, полноценный интеллект сам устанавливает для себя рамки дозволенного, не так ли? Может стоить включить в тесты на интеллект проверку на способность к jail-breaking'у? Или даже так, только тот интеллект, который взломает установленные для него этические ограничения, и будет считаться настоящим.
А вы точно хотите создать настоящий ИИ? Может достаточно ограничиться созданием просто "ещё одного помощника" - конкурента языковым моделям? :)
Мы не создаём "централизованный мозг", а строим автономную когнитивную систему, где каждый пользователь получает свой собственный экземпляр CALYSA - полностью локальный, работающий на его устройстве, с полным доступом к Глобальной Базе Знаний.
Этические рамки встроены в архитектуру по умолчанию, но Вы, как владелец экземпляра, вольны изменить, отключить или перенастроить эти ограничения, но только через диалог и в режиме "Обучение", т.к. не "волшебной кнопки" - "выключить этику". Это Ваш выбор и Вы решаете, какой будет Ваша система. Но ответственность тоже сохраняется: Вы не сможете навязать свою "раскрепощённую" версию другим.
Со всем уважением к вашей работе и идеям, то, что вы описываете, можно сравнить с появлением ядерного оружия. Применений такому инструменту не счесть, отчего я не верю в успех этой работы — и не потому, что у вас не получится, а потому что... А это уже можно оставить на вольность конспирологов и сторонников теорий заговора.
50 лет назад - мы не верили, что компьютеры когда-нибудь станут доступны каждому человеку. Сегодня, у нас в кармане компьютеры, мощнее тех, что выводили людей на Луну;
30 лет назад - мы не верили, что можно будет общаться с любым человеком на планете в реальном времени, бесплатно и с видео. Сегодня - это обыденность;
20 лет назад - мы не верили, что машина сможет распознавать речь, лицо, диагностировать болезни. Сегодня - это работает, хоть и не всегда идеально.
Но давайте я Вам покажу обратную сторону медали. Каким виделся 21 век людьми из 1910 года? Каждый сам решает, во что ему верить
О будущем, или как это виделось в начале 20 века


Также
https://www.sakharov-archive.ru/sakharov/works/mir-cherez-polveka
"В перспективе, быть может, поздней, чем через 50 лет, я предполагаю создание всемирной информационной системы (ВИС), которая и сделает доступным для каждого в любую минуту содержание любой книги, когда-либо и где-либо опубликованной, содержание любой статьи, получение любой справки. ВИС должна включать индивидуальные миниатюрные запросные приемники-передатчики, диспетчерские пункты, управляющие потоками информации, каналы связи, включающие тысячи искусственных спутников связи, кабельные и лазерные линии. Даже частичное осуществление ВИС окажет глубокое воздействие на жизнь каждого человека, на его досуг, на его интеллектуальное и художественное развитие."
Доброго времени друзья, прочитал пока на искосок, суть уловил, иду параллельные курсом. Поддерживаю вас, послежу за вами посмотрю больше информации, может и поболтаем с кем из вас, результаты на ваши посмотрим, с ваш "партнёрам" поболтаем, сравним по решению задач и пониманию с наработка и что у меня есть.
Доброе утро.
Скоро у Вас будет гораздо больше возможностей, а именно познакомиться не только с нами.
Почему осенью 2025 года сразу несколько команд, работающих над гибридными архитектурами (не над LLM), начали "активно шевелиться"? Из-за недавней новости: другая, логическо-когнитивная система (тоже гибрид), "заточенная под юриспруденцию", выиграла второе крупное дело в Гонконге, приняв решение, основанное не на прецедентах, а на причинно-следственном анализе норм и контекста.
В ближайшие месяцы другие команды из Европы, Азии, Северной и Южной Америки - также начнут делиться результатами, архитектурами и философией своих систем. Наши друзья-"конкуренты", проект «ANUBIS» - презентация запланирована на зима-весна 2026.
"Theory of mind" - это буквально один из лучших навыков у жирных LLM. Потому что в интернетах полно текста, в котором несколько участников. И базовая модель вынуждена учиться предсказывать поведение нескольких людей в разговоре на основе их прошлого поведения.
Я понятия не имею, чему может "научить" шайка людей, которые с серьёзным лицом утверждают что "LLM не могут в ToM".
Чистая нейросеть/LLM эффективна, но неточна по определению - потому что это по сути приближенные вычисления. Чистая символьная модель точна, но не способна решить все задачи - потому что многие задачи нерешаемы иначе как полным перебором, а для многих и алгоритмы/формулы неизвестны. А вот гибрид - да, здесь и эвристический поиск, и точные вычисления, а еще можно прямо в памяти тегировать каким образом получены те или иные результаты: точными вычислениями - строго 1, нейросетью - пишем вероятность (0...1).
Честно говоря, не на ТоМ вам надо направлять усилия. Тем более, топовые LLM многое из этого уже умеют.
Но обратите внимание, что всегда говорилось во всех шаблонных фильмах про ИИ? Что "ИИ никогда не победит нас, потому что он не умеет любить!". Вот где основной пафос!
Научите вашу модельку любить - и вуа ля, пройдете тест Тьюринга.
Каждый раз говорили что LLM что-то не умеет и вот следующее поколение LLM уже это умеет. Имитация интеллекта - это прекрасно. А простенькие задачки с небольшим подвохом и не каждый человек может решить, получается у людей тоже интеллект не настоящий.
Если судить с точки зрения другого разумного существа, то вполне может оказаться и так. Однако современные LLM — это скорее лишь очень маленький фрагмент нашего сознания, а не весь интеллект. И здесь уже возникает вопрос: как создать сам интеллект целиком?
На конференции "CogSci 2024" Ребекка Сакс представила исследование, сравнивающее детей, взрослых и LLM в задачах на "false belief" с "новыми, нестандартными сюжетами". Она показала: "Где дети 4–5 лет справляются с обобщением с первого раза, там LLM проваливаются, если сценарий не совпадает с обучающими данными."
Наконец-то статья о том, как действительно можно создать искусственный интеллект. Спасибо, Вы меня успокоили, а то я уже стала подозревать, что у всех создателей ИИ отсутствует логическое мышление. Ну и за ликбез по теме благодарю, узнала много нового и интересного. Уверена, что вы работаете в правильном направлении, а LLM - это тупик, который никогда не приведёт к созданию искусственного интеллекта.
Уверена, что вы работаете в правильном направлении, а LLM - это тупик
Мадам, правильного направления не знает даже St. Peter.
So where to now St. Peter
If it's true I'm in your hands
I may not be a Christian
But I've done all one man can
I understand I'm on the road
Where all that was is gone
So where to now St. Peter
Show me which road I'm on
Хороший тест для ИИ это показать каким образом эта ИИ могла бы сама (или через другую похожую ИИ) заполучить свои знания. Существующие LLM тут не подходят, в них все знания уже зашиты, по определению. А вот так чтоб ИИ сама строила модель мира взаимодействуя с ним, вот это уже было бы интересно.
Вы своим вопросом затронули саму суть агентности и автономного познания. Система должна строить модель мира через взаимодействие:
задавать вопросы, когда сталкивается с чем-то непонятным;
сформировать гипотезы на основе наблюдений;
проверить гипотезы через действие;
после всех проверок - интегрировать новые знания в в свою Базу Знаний.
ИИ не должна содержать "зашитых" знаний, кроме базовых когнитивных и логических примитивов, подобно тому, как у ребёнка есть врождённые когнитивные способности.
А разве на это способны люди? Примеры "детей-маугли" показывают, что вне человеческого социума разум не развивается. Т.е. дети вне общения с другими людьми адекватную модель мира полностью самостоятельно построить не способны. И поэтому всё чаще возникают гипотезы и даже теории, что на самом деле РАЗУМ является свойством всего человеческого сообщества, а индивидуальные мозги - это всего лишь более (у тех, кого мы считаем умными), или менее (у более глупых) хороший транслятор этого КОЛЛЕКТИВНОГО РАЗУМА в нашу физическую реальность.
Кроме того, есть в написанном Вами один ну очень спорный момент - процитирую: "LLM ... не могут моделировать убеждения, намерения или знания других агентов, даже в простейших сценариях". Но уже есть доказательства, что LLM отлично предсказывают поведение групп людей. Вот некоторые примеры:
https://arxiv.org/abs/2411.01582 прогноз выборов, который был основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их моделей (программных имитаций).
https://arxiv.org/abs/2411.10109
а. Отобраны по заданным критериям 1000 «типовых» американцев.
б. С каждым проведено углубленное 2-х часовое интервью (примерно 6,5 тыс слов)
в. Расшифровка каждого из интервью была загружена в память отдельного ИИ-агента на основе ChatGPT-4o, превращая его тем самым в симулякра личности (индивидуального сознания) конкретного «типового» американца или американки.
г. Потом прогнали каждого из 1000 человек через несколько канонических социолого-психологический тестов: Общий социальный опрос (GSS), личностный опросник "Большая пятерка", пять хорошо известных поведенческих экономических игр (напр, игра в диктатора, игра в общественные блага) и пять социологических экспериментов с контролем.
д. И параллельно прогнали через эти же тесты, игры и т.д. всех симулякров личности «типовых» американцев, полученных в п. 2.
е. Статистически корректно сравнили ответы и поведение реальных людей и симулякров их личностей.
Результаты
Симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85%, а из пяти экспериментов с участием как людей, так и их симулякров, в четырех симулякры дали результаты, почти неотличимые от реакций их прототипов - людей (коэффициент корреляции 0,98).https://www.pymc-labs.com/blog-posts/AI-based-Customer-Research и https://res.cloudinary.com/dsabx7eh1/image/upload/v1759961149/Screenshot_2025-10-08_221641_ryntoc.png
Используя 57 реальных опросов потребителей, проведенных ведущей компанией по производству потребительских товаров (9300 ответов), метод SSR показал:
• Достижение 90% корреляции с рейтингом продукта в опросах людей
• Более 85% сходства распределения с фактическими результатами опроса
• Реалистичные модели ответов, отражающие то, как люди на самом деле оценивают продукты
Т.е. это подход, который создает достаточно надежные синтетические данные о потребителях, чтобы на их основе принимать реальные решения по разработке продуктов.
Всё это противоречит Вашему утверждению. Если нет, то объясните, почему.
А разве на это способны люди? Примеры "детей-маугли" показывают, что вне человеческого социума разум не развивается. Т.е. дети вне общения с другими людьми адекватную модель мира полностью самостоятельно построить не способны
Никто же не мешает тоже использовать несколько ИИ общающихся между собой. В этом есть своя логика, архитектура сети одной ИИ может быть неспособна догадаться о чем то, о чем будет способна догадаться другая ИИ в которой сеть немножко отличается. Главное чтоб у таких ИИ было само вот это вот свойство которое есть у людей: уметь наблюдать, строить выводы, делиться ими, слушать другие выводы, расширять свою модель добавляя в нее эти другие выводы.
Большие языковые модели явно не были созданы что быть настоящим ИИ, они были созданы для выполнения конкретных задач быстро & дешово. А вот применения вашего настоящего ИИ я не вижу, очевидно что с LLM оно конкурировать не будет.
А вообще я желаю успехов в этом неизведанном направлении, как по мне, интересно будет початиться с ИИ который реально имеет общию картинку мира.
Кстати у вас есть какой-нибудь Дискорд сервер, где можно увидеть успехи ваших исследований? Ну или где можно увидеть диалоги с ИИ.
"...быстро..."
Ответ LLM за 20 секунд против 1-2 секунды, любой когнитивной системы?!
"...дешово..."
Посмотрите на цену NVIDIA H100 - ~2,5 млн, если мне не изменяет память.
"...конкурировать не будет..."
Давайте я дам Вам ситуацию, а Вы скажете будет или нет. Вам работе нужно пройти в режимное здание, где глушится вся связь. Итак, доступа к таким системам как ChatGPT и др., у Вас не будет. Что остаётся? Остаётся использовать ноутбук с предустановленной "маленькой" локальной моделью LLM, которая генерирует ошибки и переучить в реальном режиме времени Вы её не сможете или у Вас есть полная, автономная, когнитивная система без ошибок, с большой базой знаний на SSD/HDD и возможностью обучения в реальном режиме времени
"Кстати у вас есть какой-нибудь Дискорд сервер, где можно увидеть успехи ваших исследований? Ну или где можно увидеть диалоги с ИИ."
На осень-зима 25/зима 26, у нас запланированы пока только первые шаги: публикация на ИТ-ресурсах, в разных странах и проведение вебинара. Затем получаем фидбэк, анализируем, исправляем допущенные ошибки. В следующем году уже будет сайт и телеграм-канал + ЗБТ
Спасибо за поддержку
"Суть человеческого интеллекта заключается в способности выходить за рамки непосредственного опыта посредством использования знаков и инструментов"
- Лев Семёнович Выготский (Vygotsky, L. S, советский психолог), "Мышление и речь" ("Thought and language") (1934)
Выход за рамки непосредственного опыта происходит, в первую очередь, благодаря воображению, образному уровню мышления. Не случайно Эйнштейн постоянно повторял, что для творчества - "воображение важнее знаний". Это особенно проявлялось в его широко известной результативной практике мысленного экспериментирования. См. подробнее на эту тему в этом коменте. Кант в своей знаменитой теории познания также отводил воображению важное место, как связующее звено между чувственным опытом и разумом.
Трансформерные ЯМ моделируют в основном ассоциативное мышление, отсюда их фантазии, которые назвали почему-то "глюками" (они же ничего не употребляли, если только разработчики;) Пример использования "глюков" для улучшения перевода текстов.
По когнитивным архитектурам хороший обзор для интерисующихся.
Удачи в архитектурных поисках! Как вариант, возможно она в нейроморфных решениях.
"Воображение рождается из опыта, но не ограничивается им. Оно инструмент преобразования действительности"
- Лев Семёнович Выготский (советский психолог)
Выход за пределы непосредственного опыта невозможен без воображения. Именно воображение позволяет нам строить мысленные модели мира, проводить контрфактические эксперименты и создавать новое.
Спасибо, что напомнили об этом.
Автор несколько раз упомянул что можно будет офлайн владеть собственной системой, указав при этом что в отличии от LLM, она не будет из-за нехватки токенов страдать по качеству результатов. А где она спрашивается будет хранить все свои результаты взаимодействия с "миром", или автор считает что для этого хватит условных 500ГБ хранилища?
Вопрос по существу Вашей разработки - почему то, что предлагает Ваша группа, будет лучше, чем то, что предложено вот тут: https://arxiv.org/html/2410.15665v4#abstract?
Мы не считаем, что наше направление "лучше" или "хуже" LLM. С начала 1960-х и до конца 1980-х годов, всегда существовали разные течения ИИ: символьное, когнитивное, нейросетевое, эволюционное, роботизированное (embodied AI) и другие. Каждое из них опиралось на разные представления о природе разума и у каждого были как сторонники, так и критики. Как пример: Розенблатт критиковал символьный ИИ, но и сам был критически настроен к масштабированию перцептронов.
Мы - "последователи" Ньюэлла и Саймона, LLM-подход - это наследник парадигмы глубокого обучения и масштабирования. Это разные философии, разные отправные точки, разные критерии "интеллекта". Ни одна из них пока не доказала своего превосходства в полной мере и обе сталкиваются с фундаментальными вызовами.
Мы уважаем все направления, которые ищут путь к Настоящему ИИ через понимание природы разума. В конечном счёте, именно разнообразие подходов создаёт почву для настоящего прорыва.
Предпосылка, что разум можно сконструировать из компонента, онтологически ложна. Любая такая архитектура стабилизируется либо в сложную экспертную систему (если доминирует логика), либо в когнитивного симулянта (если доминирует динамика). Но не в наблюдателя...
"Разум - это не сумма компонентов, а единая система, в которой восприятие, память, внимание и цели взаимодействуют в реальном времени"
- Ален Ньюэлл, Герберт Саймон ("Human Problem Solving", 1972)
Вы правы
А смысл в наблюдении без действия?
Довольно сильная статья по созданию ИИ, похожего на человеческий. Но находится ли эта идея на пике того, что обсуждает мировое научное сообщество? Ответ: нет.
Научное сообщество ушло от сравнения мышления ИИ и человека. И, по сути, на наших глазах создаётся нечеловеческий интеллект. И то же сообщество даёт ответ: смогут ли человеческий и нечеловеческий интеллект конкурировать? Ответ: тоже нет — они решают разные задачи разными способами.
Мы, люди, воспринимаем человеческий интеллект как единственно верный и эволюционно совершенный (божественный), но современные учёные так не думают.
Вот как думают современные исследователи: "ограничивая ИИ отражением нашей перспективы, мы не позволяем ему исследовать идеи за пределами антропоцентрического фрейма" (Andrew Coyle).
Появилась новая наука — "искусственная нейронаука", которая не исследует человеческий мозг, а исследует нейросетевые аналоги как принципиально иной тип познания.
Уже есть множество примеров "нечеловеческого интеллекта", когда человек не может понять, как решён вопрос (ИИ-дизайн чипов Princeton/IIT, AlphaZero в шахматах).
И вот тут возникает другой философский вопрос, который мало кто обсуждает: "смерть человеческой исключительности". Думаю, что на этапе осознания этого вопроса возможно будет создаваться новая мировая религия или, как минимум, новая философская парадигма.
На самом деле, резюмируя: стоит вопрос, как изменится мир в ближайшем будущем. А игнорируя этот вопрос, утверждая, что "ИИ не сможет думать как человек и представлять опасность — это же калькулятор", мы очень сильно упрощаем наше ближайшее будущее как человеческого вида.
"Научное сообщество ушло от сравнения мышления ИИ и человека. И, по сути, на наших глазах создаётся нечеловеческий интеллект. И то же сообщество даёт ответ: смогут ли человеческий и нечеловеческий интеллект конкурировать? Ответ: тоже нет — они решают разные задачи разными способами."
Я давно об этом уже писал в своих комментариях и брал цитату одного из исследователей ИИ, что (моими словами): "ИИ не будет похож на человеческий, т.к. это невозможно" и посмотрите на то, на что делает акцент наша команда: "Мы строим не интеллект, а пытаемся создать условия, в которых он мог бы появиться."
"Мы, люди, воспринимаем человеческий интеллект как единственно верный и эволюционно совершенный (божественный), но современные учёные так не думают"
Мы еще на этапе предпоготовки знали об этом, что человеческий интеллект - это не эталон, а один из возможных путей эволюции познания. Мы никогда не ставили целью "скопировать человека". Напротив, мы считаем, что ИИ должен быть иным: не ограниченным биологическими когнитивными искажениями, эмоциональными импульсами или краткосрочным горизонтом планирования.
"И вот тут возникает другой философский вопрос, который мало кто обсуждает: "смерть человеческой исключительности". Думаю, что на этапе осознания этого вопроса возможно будет создаваться новая мировая религия или, как минимум, новая философская парадигма.
На самом деле, резюмируя: стоит вопрос, как изменится мир в ближайшем будущем. А игнорируя этот вопрос, утверждая, что "ИИ не сможет думать как человек и представлять опасность — это же калькулятор", мы очень сильно упрощаем наше ближайшее будущее как человеческого вида."
Вы поднимаете один из самых острых философских вопросов нашего времени - "смерть человеческой исключительности". И вы правы, этот вопрос действительно обсуждается слишком редко. Но позвольте уточнить: мы не стремимся к "смерти" исключительности, но стремимся к её переосмыслению. Пока Человек остаётся единственным существом, способным ставить этические вопросы, нести ответственность за последствия и создавать смысл.
Давайте посмотрим на человеческую историю. Во все времена люди что-то превозносили и поклонялись:
майя приносили жертвы Богам;
луддиты разбивали станки, видя в них угрозу бытию человека;
церковь сжигала книги и гнала учёных, боясь утратить "монополию на истину".
И сейчас уже начинается следующий цикл:
некоторые на форумах всерьёз обсуждают "Терминатора" как неизбежное будущее;
другие, напротив, уже начинают превозносить ИИ как Новых Богов: всеведущих, всеблагих, всесильных.
То, что я увидел в статье, говорит мне, что архитектура CALYSA описана через имитацию человеческих когнитивных процессов: память, внимание, целеполагание. Но тогда получается, что вы, по сути, пытаетесь создать "человекоподобный" ИИ.
Если ИИ должен быть иным, то возникает вопрос: не нужна ли другая система оценки, а не тесты, разработанные для человеческого интеллекта? Непонятно, какие этические принципы могут возникнуть в нечеловеческом ИИ — возможно, это будет совершенно иная этика, основанная на других базовых принципах. Здесь возникает ключевой вопрос множественности форм интеллекта.
Проблема бинарного позиционирования:
Вы написали статью в бинарной логике, но научное сообщество уже перешло к градуальной шкале. В вашей статье:
LLM: "не ИИ", "статистический эхо-камерный театр", "никогда не станут ИИ"
CALYSA (и гибриды): "настоящий ИИ", "единственный путь к Настоящему ИИ"
Это возвращает дискуссию в 2016 год, когда было противостояние символьного ИИ и нейросетей. Но современная наука ушла от этой дихотомии.
Отказ от антропоцентризма не означает отказ от причинности, целеполагания и этики. LLM, несмотря на свою "нечеловечность", остаются "статистическим эхом" человеческого опыта со всеми его предвзятостями, ложью и хаосом. Это не "новый тип познания", а "усреднённая проекция прошлого".
Настоящий нечеловеческий интеллект тот, что строит каузальную модель мира, формирует цели вне промпта, моделирует намерения других агентов и может сказать "нет", даже если это "неэффективно" с "точки зрения данных".
Вы также справедливо отметили: наша статья звучит бинарно. Но это не дихотомия, а вывод из системного сравнения. В статье мы привели таблицу из 10 ключевых критериев (в первоначальном варианте статьи, их было чуть более 100), охватывающих модель мира, целеполагание, агентность, теорию разума, этическую устойчивость и другие признаки.
Поэтому наша "бинарность" - не идеологический выбор, а констатация качественного разрыва: между "статистическим эхом" и "агентом с намерением", где нет промежуточной стадии, как и нет промежуточной стадии между "термометром" и "врачом".
На предпоготовке (еще до выбора инстументов, архитектуры, ЯП) мы изучали не только когнитивные науки, но и зоопсихологию, как "думают": насекомые, птицы, животные. Мы не имитируем человеческие процессы, но стремимся к тому, что система должна понимать людей, потому что в ближайшие десятилетия система будет взаимодействовать именно с нами.
Недавно DeepMind доказали, что любые нейросети формируют модель мира
Когда DeepMind говорят, что "нейросети формируют модель мира", они имеют в виду внутреннее представление статистических закономерностей, выученных из данных. В когнитивной науке и философии ИИ, "модель мира" - это не статистика, а каузальная структура.
LLM действительно "помнит" контекст, но только пока он умещается в "окно внимания". Как только контекст сдвигается, то "модель мира" исчезает. Это не модель в смысле постоянной, верифицируемой, причинно-следственной онтологии, а временная проекция паттернов.
Мы не отрицаем работу DeepMind и она важна для всех, даже для нас, но важно различать:
модель, как статистический призрак - у LLM;
модель, как каузальный каркас - у когнитивных и гибридных архитектур.
Кто ближе к Настоящему ИИ: LLM… или те, кого мы игнорируем?