Обновить
1
0
Константин Владимирович Утолин@konstantinutolin

Пользователь

Отправить сообщение

Если массовый ИИ будет "выровнен" под человеческое понимание (ChatGPT-уровень), а элиты получат доступ к системам с нечеловеческой логикой (квантовые симуляции, фундаментальные открытия), возникает не просто экономическое, а эпистемологическое неравенство - разница в качестве знания о реальности.​

Не совсем так. Поскольку если имеющие доступ не смогут понять, КАК получено это самое новое знание, то какое-то время они даже может быть смогут его использовать себе на пользу, но тут очень быстро может возникнуть эффект, отлично описанный вот в этом рассказе: https://royallib.com/read/sharov_sergey/uchenik_gerostrata.html#0
Поэтому, кстати говоря, появление нечеловеческих разумов потребует от людей создания способов понимать то, как они мыслят, т.е. развития своего разума. Иначе это может закончится концом человеков...

Мозг, даже ребёнка, предсказывает на основе каузальной модели

Вопрос в том, КАК и после какого количества времени, проведённого в обществе других людей, у ребёнка возникает эта модель?

Проблема построения мышления за пределами лингвистической гипотезы заключается в отсутствии ТЕХНОЛОГИЙ описания "чистых смыслов". На этот счёт хорошо говорит Олег Бахтияров в https://podster.fm/podcasts/kuznica-russkoj-nauchnoj-mysli/e/423551/smyslovoy-sloy-soznaniya-kak-pole-nauchnyh-smyslov-sposoby-postizheniya-oleg-georgievich-bahtiyarov, https://dzen.ru/video/watch/66cf3cde7fa01b0436ac392c, https://www.youtube.com/watch?v=AsVHDoozHFc
Бахтияров пытается создать технологию, которая позволит производить описания смыслов, которые лежат за пределами символов (образов), но... Но проблема утыкается в две сложности:
1. Как передать эти смыслы другому человеку, не используя никаких символов? Остаётся только телепатия, существование которой так и не доказано.
2. Некие содержащие смыслы пред-символы могут быть разными у разных людей. И это создаёт ту же проблему, что и при переводе с одного языка на другой, и даже глубже - нужен перевод одной модели восприятия мира в другую.
И как создать ТЕХНОЛОГИЮ, позволяющую решить обе эти проблемы, пока не понятно.

Конечно же, LLM порождает смысл, иначе бы ими никто не пользовался. 

Не согласен. Разве использование любого инструмента порождает новые смыслы? И разве выявление любой корреляции в наборах данных порождает новый смысл?

А Вы можете доказать наличие перерождений и нирваны? Или наличие вообще посмертного существования души? Да и самой души тоже?
Электрический двигатель, радио, автомат Калашникова и атомная бомба - это реально, постижимо и, что важно, повторимо и воспроизводимо.

Всё просто - все эти медитации и т.п. улучшили, или ускорили создание хотя бы теплого унитаза и канализации, не говоря уж о спутниках связи и атомных электростанциях? Они дали преимущество тем, кто ими пользовался, при создании хотя бы чего-то типа стула, или молотка, не говоря уж об интегральной микросхеме?
А если нет, то всё это полезно разве что в качестве одного из методов психотерапии.

Тут невольно возникает вопрос - а что есть "каузальный каркас"? Скажем, т.н. второй закон термодинамики указывает направление возможных энергетических превращений и тем самым выражает необратимость процессов в природе. Но он установлен путем обобщения опытных фактов и по факту является тем самым статистическим признаком. А ответа на вопрос - а почему природа устроена именно так, у нас нет. Но второе начало термодинамики является одним из принципов "каузального каркаса" современной физики.

Согласен. Однако остаётся вопрос - сможет ли набор из тех же LLM, даже усиленных RAG и долговременной памятью, суметь наблюдать и делать выводы?

Есть ли корреляции между принципами системы, описанной вот тут: https://zenodo.org/records/17389938, с теми, которые используете Вы?

А смысл в наблюдении без действия?

Хранилище знаний (300 Тб) - это не дамп диалогов, а база верифицированных онтологических фрагментов

Верно ли понимаю, что всю онтологию вы создаёте, условно говоря, вручную? Если да, то почему не хотите использовать LLM для создания т.н. лингвистических онтологий типа как описано вот здесь: https://rcc.msu.ru/ru/modeli-i-metody-avtomaticheskogo-analiza-tekstov-na-osnove-lingvisticheskih-ontologiy-v, https://cyberleninka.ru/article/n/proektirovanie-lingvisticheskih-ontologiy-dlya-informatsionnyh-sistem-v-shirokih-predmetnyh-oblastyah, https://cyberleninka.ru/article/n/izvlechenie-informatsii-iz-tekstov-na-osnove-ontologii-i-bolshih-yazykovyh-modeley, https://habr.com/ru/companies/airi/articles/855128/?

Вопрос по существу Вашей разработки - почему то, что предлагает Ваша группа, будет лучше, чем то, что предложено вот тут: https://arxiv.org/html/2410.15665v4#abstract?

А разве на это способны люди? Примеры "детей-маугли" показывают, что вне человеческого социума разум не развивается. Т.е. дети вне общения с другими людьми адекватную модель мира полностью самостоятельно построить не способны. И поэтому всё чаще возникают гипотезы и даже теории, что на самом деле РАЗУМ является свойством всего человеческого сообщества, а индивидуальные мозги - это всего лишь более (у тех, кого мы считаем умными), или менее (у более глупых) хороший транслятор этого КОЛЛЕКТИВНОГО РАЗУМА в нашу физическую реальность.

Кроме того, есть в написанном Вами один ну очень спорный момент - процитирую: "LLM ... не могут моделировать убеждения, намерения или знания других агентов, даже в простейших сценариях". Но уже есть доказательства, что LLM отлично предсказывают поведение групп людей. Вот некоторые примеры:

  1. https://arxiv.org/abs/2411.01582 прогноз выборов, который был основан на анализе ИИ-моделью мнений и возможного выбора не людей, а их моделей (программных имитаций).

  2. https://arxiv.org/abs/2411.10109
    а. Отобраны по заданным критериям 1000 «типовых» американцев.
    б. С каждым проведено углубленное 2-х часовое интервью (примерно 6,5 тыс слов)
    в. Расшифровка каждого из интервью была загружена в память отдельного ИИ-агента на основе ChatGPT-4o, превращая его тем самым в симулякра личности (индивидуального сознания) конкретного «типового» американца или американки.
    г. Потом прогнали каждого из 1000 человек через несколько канонических социолого-психологический тестов: Общий социальный опрос (GSS), личностный опросник "Большая пятерка", пять хорошо известных поведенческих экономических игр (напр, игра в диктатора, игра в общественные блага) и пять социологических экспериментов с контролем.
    д. И параллельно прогнали через эти же тесты, игры и т.д. всех симулякров личности «типовых» американцев, полученных в п. 2.
    е. Статистически корректно сравнили ответы и поведение реальных людей и симулякров их личностей.
    Результаты
    Симулякры предсказали ответы своих реальных прототипов – людей по тесту GSS с точностью 85%, а из пяти экспериментов с участием как людей, так и их симулякров, в четырех симулякры дали результаты, почти неотличимые от реакций их прототипов - людей (коэффициент корреляции 0,98).

  3. https://www.pymc-labs.com/blog-posts/AI-based-Customer-Research и https://res.cloudinary.com/dsabx7eh1/image/upload/v1759961149/Screenshot_2025-10-08_221641_ryntoc.png
    Используя 57 реальных опросов потребителей, проведенных ведущей компанией по производству потребительских товаров (9300 ответов), метод SSR показал:
    • Достижение 90% корреляции с рейтингом продукта в опросах людей
    • Более 85% сходства распределения с фактическими результатами опроса
    • Реалистичные модели ответов, отражающие то, как люди на самом деле оценивают продукты
    Т.е. это подход, который создает достаточно надежные синтетические данные о потребителях, чтобы на их основе принимать реальные решения по разработке продуктов.

    Всё это противоречит Вашему утверждению. Если нет, то объясните, почему.

А КАКАЯ КОНКРЕТНО ПОЛЬЗА от всей этой зауми китайской? Что из неё позволило помочь создать хоть одно устройство, хоть одну повторяемую, воспроизводимую технологию?

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность