Комментарии 167
Его парижский стартап … системы, которые понимают физику и причинно-следственные связи вместо предсказания следующего слова.
А, ну то есть не "Skynet", а "Le Réseau Céleste" ;)
никогда не достигнут человеческого уровня интеллекта
Я абсолютно доверяю суждениям этого человека в части искусственных нейросетей, но что касается человеческого интеллекта - сдаётся мне, он его переоценивает.
Для AGI нужна одна небольшая мелочь - несколько гигаватт электричества. Или несколько десятков гигаватт.
То то человеку надо всего 20 ватт. Вот гад притворяется мыслящим! А на самом деле вообще оказывается симулякр какой то!
Не так всё просто с человеком, 20Вт только на мозг, организму уже надо 100Вт, причем он не умеет гибернацию делать и нужно 24/7 питать. В итоге для выполнения задачи, например на написание статьи или отчета ИИ может тратить даже меньше энергии. Условно ИИ потребляет пусть даже 1 кВтч и уходит в реальный спящий режим или переключается на другие задачи, а человек продолжает потреблять как потреблял. Например пишет статью 5 дней и 2 дня отдыхает в итоге 16,8 кВтч только на энергию организма. Реально же энергию потребляют еще климатические системы в киловатты уже и сам человек потребляет энергию изначально усвоенную с КПД примерно 0.5% растениями. На этом фоне ИИ можно сказать ничего не потребляет, а датацентры обслуживают миллионы человек, на каждого приходятся доли кВтч, что не так много.
А ещё сколько было потрачено на обучение, в течение всей жизни, этого человека, чтобы он смог иметь свое мнение, а сколько энергии на поиск в интернете дополнительной информации, оформление, форматирование, на компьютере, нейросети-то держат все в себе. И на чистый киловатт выдают четкое количество токенов. Человек вообще требует отдыха больше чем работает, плюс выходные, отпуск, больничные, детство и старость так вообще не продуктивны, если мерить жизнь написанными статьями. А в популяции в целом статьи пишут или совершают открытия какие-то жалкие проценты. В этом плане чистый разум на электричестве от солнца гораздо эффективнее. Зато человек эффективнее в энтропии.😄
О, там таки есть адекватные люди?
Ну так случайно один раз совпало, что человек на руководящей должности имеет профильное техническое образование и опыт научной работы.
Большинство легендарных профессионалов выгнали из IT в начале 2000-х, они своими дурацкими маленькими и эффективными программами мешали делать деньги продавцам апгрейдов.
Стоит учесть, что он является основателем стартапа по ИИ, который занимается не-языковыми нейросетевыми моделями. То есть по сути тоже ангажирован, только тянет в свою сторону)
Ну он потому и занимается неязыковыми моделями, что считает это правильным. В этом смысле любой человек ангажирован своей системой взглядов. Другое дело, что кто-то своих взгдядов придерживается из-за того, что понимает стоящую за ними научно-техническую основу, а кто-то из-за их рыночной стоимости.
Так то он топил за идею мировых моделей еще работая на Цукерберга (что последнему не очень то выгодно, т.к. огромные деньги уходят на разработку ламы), поэтому назвать его ангажированным не совсем правильно, как по мне.
Абсолютно верно. Но будут модификации.
Ну так то и Гугл развивает мировые модели, для понимания физики, пространства и времени нейросетями
Статистическая модель ничего не понимает бай дизайн. Она генерирует следующее самое вероятное слово.
О, «понимание». Интересный концепт!
Например, почему вы считаете, что вы что-то понимаете? Или что я что-то понимаю. Или кто-то ещё на ваш выбор.
Человек составляет в голове какую-то картину мира. Не факт что верную и местами противоречивую, но составляет. И мыслит в соответствии с этой картиной.
Сетка же просто собирает статистику по входным данным. Картины мира нет. Есть множество циферок какое слово должно стоять после какого.
Человек составляет в голове какую-то картину мира.
Чем «картина мира» принципиально отличается от набора весов в графовой модели этого мира?
Утверждаю, что (с некоторыми несущественными здесь упрощениями) человеческая картина мира — это просто набор условных вероятностей, а упомянутое вами размышление — вывод наиболее вероятного факта вместе с обновлением весов этих условных вероятностей согласно наблюдаемым данным.
Чем «картина мира» принципиально отличается от набора весов в графовой модели этого мира?
На самом нижнем слое ничем. Мясные нейроны передают друг другу частотные импульсы. Кремневые нейроны передают друг другу float.
Но на этом уровне что у мяса что у кремния и нету никакого AI.
AI это же прцесс. AI это алгоритм. Алгоритм эмуляции. Так вот дальше идут как раз координальные отличия алгоритма.
Если алгоритм оперирует образами ну или в другой терминологии - символами, также строит модели используя эти образы. Также в моделях реализует логику. То это AI.
Если алгоритм сделан так что организовывает огромную базу данных статистики и выдаёт следующий наиболее вероятный статистический вариант, а под вариантом я имею ввиду объекты статистики. В случаии с LLM это просто числа. Так вот это - симулякр. И ведёт себя как самый настоящий симулякр - внешне вроде живой, но постояно выдают сбои типичные для симулякра.
Но на этом уровне что у мяса что у кремния и нету никакого AI.
Для начала неплохо бы определить, что такое «I», наконец, и мы тут вроде ровно этим пытаемся заниматься.
Ну либо вы очень большой вес вкладываете в «на этом уровне», и вы сторонник эмерджентности, но тогда непонятно, почему какое-нибудь там I не может эмерджентнуться и в достаточно большой LLM'ке.
Если алгоритм оперирует образами ну или в другой терминологии - символами, также строит модели используя эти образы. Также в моделях реализует логику. То это AI.
Чё-т всё ещё не понял. Вон свёрточные сети оперируют образами «палка под углом π/4». Они уже AI?
Если я при решении задачи по теоркату не оперирую образами (в том же смысле, в котором мне хочется представить схему, не знаю, моей домашней локалки), то я в этот момент не интеллект? И размышления о домашней локалке требуют большего интеллекта (что бы это ни значило), чем доказательство, что правые сопряжённые сохраняют пределы?
Так вот это - симулякр. И ведёт себя как самый настоящий симулякр - внешне вроде живой, но постояно выдают сбои типичные для симулякра.
Мой поинт в том, что в этих терминах люди — тоже, тащем, симулякр (который сам себе придумал платонический образ сознания, чтобы его потом можно было отсимулякрить по полной).
Не владею теоркатом, однако в математике есть разделы, касающиеся как семантики, так и чистого синтаксиса. Чтобы сложить 2+3 или продифференцировать a+b, интеллект в общем понимании этого слова не нужен.
Не спорю.
Интереснее другой вопрос: а для чего он нужен?
Чтобы получить знания, синтаксически не выводимые из доступного корпуса текстов.
Приведёте пример?
Любое естественнонаучное открытие.
Какое из? Открытие уровня «чё-т у протона разный диаметр по разным измерениям, но хз почему», или открытие уровня «ОТО»?
В первом случае это интерпретация данных от своеобразного оракула, во втором — аргмакс по правдоподобию разных нагенерённых ранее теорий по наблюдаемым данным согласно куче разных оракулов из первого случая, что тоже вполне себе синтаксически выводится настолько же, насколько выводится теорвер.
Так этот оракул (осмысленный эксперимент) и составляет основу целесообразного поведения человека и животных.
А когда LLM берёт тул и проверяет результаты поиска/скомпилируется ли код/етц — это не осмысленный эксперимент?
Это результат хардкора в её алгоритме, а не проявления её воли поставить эксперимент. В лучшем случае как инстинкт у насекомых. И это не LLM берет. Но в целом это движение в правильном направлении.
Чем это отличается от хардкода в алгоритме людей, сделанного учителями этих людей?
Воли не существует, олсо.
Отдельно отмечу, что у нас тут с вами гоалпосты подвинулись: раньше для демонстрации наличия интеллекта нужно было получать что-то, синтаксически невыводимое, ставя эксперименты. Теперь уже самих экспериментов недостаточно, и нужно, чтобы для этих экспериментов ещё была некая личная воля агента, при этом не обусловленная контекстом обучения.
Тем что инструкции учителей - это не хардкод в алгоритме, а просто свёртка результата обучения. Вот как раз как у компьютерной нейросети. Имеют статистический характер выполнения и не определяют поведение целиком.
Воли не существует, олсо.
Так мы не договоримся.
Тем что инструкции учителей - это не хардкод в алгоритме, а просто свёртка результата обучения.
Процесс обучения нейросети гарантирует™, что при таких-то условиях нейросеть поставит такой-то эксперимент, запустив внешний тул для проверки результата компиляции кода.
Процесс обучения будущего учёного гарантирует™, что при таких-то условиях учёный поставит такой-то эксперимент, выбив деньги на БАК для проверки результата работы кода.
В чём разница? Я не вижу разницы. Более того, я вижу очень много параллелей, включая, например, параллели с человеческим instinct to learn.
Так мы не договоримся.
Вы либо считаете, что мир недетерминирован и потому не описывается законами физики, либо в нём нет пространства для свободы воли. Какой из этих вариантов вы выбираете?
Для простоты считаем кванты детерминированными (потому что в MWI так и есть, а другие интерпретации не имеют смысла, но и даже для других интерпретаций есть контр-аргументы, если вы вдруг решите, что вся свобода воли держится на их способах разрешения конфликта микро- и макро-).
MWI не означает детерминированности, а просто выбирает такое представление, в котором волевые акты (т.е. траектория наблюдателя) не описываются.
Генератор недетерминированных случайных чисел можно купить не особо задорого.
Процесс обучения будущего учёного гарантирует™, что при таких-то условиях учёный поставит такой-то эксперимент, выбив деньги на БАК для проверки результата работы кода.
Не гарантирует.
Большинству вещей, определяющих поведение учёного, его никто не учил.
MWI не означает детерминированности, а просто выбирает такое представление, в котором волевые акты (т.е. траектория наблюдателя) не описываются.
То есть, вы выбираете первый вариант: мир не описывается законами физики. Окей.
А может быть такое, что у классического бильярдного шара есть свобода воли? Просто классическая механика выбирает такое представление, в котором волевые акты шара не описываются.
Это нериторический вопрос: мне бы хотелось услышать ответ, который при этом нельзя было бы применить к человеку.
Генератор недетерминированных случайных чисел можно купить не особо задорого.
Проекция представления из MWI на то, что мы можем воспринимать. Свободы воли здесь по-прежнему нет.
Не гарантирует.
Там было «™» ещё — намёк на то, что гарантии примерно в одном и том же смысле (вероятностном). Моделька может решить (согласно текущему состоянию ГПСЧ) не делать эксперимент, а сказать «я ни на что не годна, rm -rf». Учёный может решить (согласно текущему состоянию нейронов) бросить это всё и уехать быть инструктором йоги на Гоа.
Большинству вещей, определяющих поведение учёного, его никто не учил.
Большинство учёных занимается настолько скучной наукой (подтверждение имеющихся парадигм и уточнение численных параметров), что там около нуля творчества и практически конвейер производства учёных. И учёных в пайплайне «BS → MS → PhD → постдок» именно что учат.
Я видел, как делается сосиска. Вы, похоже, излишне романтизируете учёных.
Мир, возможно, описывается законами физики, однако MWI - не только не единственный закон физики, но и не закон физики вообще, а просто философская интерпретация уравнения Шрёдингера. Мир не описывается одним только уравнением Шрёдингера, это наблюдаемый факт. Неприятный, но приходится с ним жить.
А может быть такое, что у классического бильярдного шара есть свобода воли?
Может, почему нет. Я готов рассматривать панпсихизм как возможность.
Большинство учёных
не занимаются наукой в философском смысле и не применяют интеллект к своей основной деятельности. Если так уж разобраться.
Мир, возможно, описывается законами физики, однако MWI - не только не единственный закон физики, но и не закон физики вообще, а просто философская интерпретация уравнения Шрёдингера.
Это единственная [мейнстримная] интерпретация, которая консистентна с остальным квантмехом, и для которой не приходится вводить магию в виде непонятно что из себя представляющего непонятно как себя ведущего процесса измерения.
Но, опять же, это даже неважно: засовывать свободу воли в квантовый «рандом» очень странно. Что вы там волей выбираете, куда именно схлопнуть волновую функцию?
Мир не описывается одним только уравнением Шрёдингера, это наблюдаемый факт. Неприятный, но приходится с ним жить.
Очень интересно! А чем он ещё описывается на релевантных для человека масштабах скоростей, масс и энергий? Только чтобы это описание не было классическим пределом квантмеха.
Может, почему нет. Я готов рассматривать панпсихизм как возможность.
Тогда почему у нейросети не может быть свободы воли?
не занимаются наукой в философском смысле и не применяют интеллект к своей основной деятельности. Если так уж разобраться.
И тут мы плавно подбираемся ровно к тому тезису, который я озвучивал рядом.
Впрочем, если разбираться в структуре научных революций (ЕВПОЧЯ), то окажется, что это тоже скорее социальный процесс, чем интеллектуальный.
Я сам склонен к MWI, однако она, как и любая другая интерпретация квантовой механики, никак не предсказывает единичные результаты классических измерений, то есть многие важные для нас вещи.
Но, опять же, это даже неважно: засовывать свободу воли в квантовый «рандом» очень странно. Что вы там волей выбираете, куда именно схлопнуть волновую функцию?
Почему бы и нет? Или предложите другую интерпретацию субъективного ощущения свободы воли. Если это иллюзия в механически детерминированном мире, то как она эволюционно возникла и закрепилась?
Тогда почему у нейросети не может быть свободы воли?
Может, но у современных компьютерных нейросетей нет механизма её реализации в макромире.
Я сам склонен к MWI, однако она, как и любая другая интерпретация квантовой механики, никак не предсказывает единичные результаты классических измерений, то есть многие важные для нас вещи.
Она предсказывает распределение на них, и она говорит, что ничего лучше нет и не может быть, а других законов физики нам пока не завезли, увы.
Почему бы и нет?
Может, но у современных компьютерных нейросетей нет механизма её реализации в макромире.
А почему нейросеть не демонстрирует свободу воли через какие-нибудь там туннельные эффекты в транзисторах? Даже микротубулы (или как там это по-русски) придумывать не нужно, транзисторы в процах явно зависят от квантовых эффектов прям по построению, Пенроуз будет доволен!
Почему бы и нет?
Потому что это противоречит квантмеху, если упрощать.
Или предложите другую интерпретацию субъективного ощущения свободы воли.
Свобода воли — это эффективная невычислимость функции, предсказывающей ваше поведение. Ваша (моя, чья угодно) свобода воли не отличается принципиально от свободы воли идеальной точки в задаче трёх тел улететь на бесконечность. Или от свободы воли программы никогда не остановиться.
Если это иллюзия в механически детерминированном мире, то как она эволюционно возникла и закрепилась?
А как возникла и закрепилась иллюзия, что это Солнце встаёт на востоке и заходит на западе, а мы неподвижные?
Она предсказывает распределение на них, и она говорит, что ничего лучше нет и не может быть, а других законов физики нам пока не завезли, увы.
Почему не завезли? Например, ОТО – другой закон физики, причём несовместимый с квантмехом. А если исходить из того, что свобода воли – это единичный квантовый эффект, то этика его в определённой степени предсказывает.
А почему нейросеть не демонстрирует свободу воли через какие-нибудь там туннельные эффекты в транзисторах?
Потому что компьютер, на котором работает нейросеть, специально построен таким образом, чтобы не давать транзисторам проявлять свою свободу воли. Все квантовые эффекты локализованы внутри транзистора, а сам транзистор, как целое, полностью классичен, иначе его ОТК не пропустит.
Потому что это противоречит квантмеху, если упрощать.
Квантмех тут причём? С точки зрения квантмеха и космологических представлений, вообще всё в нашей Вселенной спутано между собой. Только мы не знаем, как.
> Если это иллюзия в механически детерминированном мире, то как она эволюционно возникла и закрепилась?
А как возникла и закрепилась иллюзия, что это Солнце встаёт на востоке и заходит на западе, а мы неподвижные?
В системе координат, связанной с наблюдателем, гораздо проще решать практические задачи выживания. Поэтому такая иллюзия даёт большое эволюционное преимущество перед тем зверем, который попытался бы рассчитывать своё движение, принимая за неподвижную точку Солнце.
Например, ОТО – другой закон физики
Я же изначально написал: «А чем он ещё описывается на релевантных для человека масштабах скоростей, масс и энергий?» (и курсив там тоже был изначально). Да и ОТО тоже детерминировано. «Свобода воли возникает потому, что массивные объекты детерминированно искривляют пространство» — это, гм, интересный тезис.
Не вылезает нигде недетерминированность, увы!
причём несовместимый с квантмехом.
Кстати, довольно забавно, что один из основных источник проблем (не помню, насколько хорошо решённый на сегодня) — эволюция чёрных дыр плохо совместима с тезисом квантмеха об унитарности операторов эволюции квантовых систем (что, кстати, существенно более сильный тезис, чем детерминированность эволюции, и его выкинуть поэтому эпистемологически проще). Но физики чё-т пытаются это унифицировать — а могли бы просто сказать, что у ЧД есть свобода воли. Ну тупые!
А если исходить из того, что свобода воли – это единичный квантовый эффект, то этика его в определённой степени предсказывает.
Не понял. Как предсказывает?
Потому что компьютер, на котором работает нейросеть, специально построен таким образом, чтобы не давать транзисторам проявлять свою свободу воли. Все квантовые эффекты локализованы внутри транзистора, а сам транзистор, как целое, полностью классичен, иначе его ОТК не пропустит.
Так это только те аспекты, которые выявляемы на масштабах одного транзистора или процессора в рамках тестов ОТК. ОТК не гоняет LLM — почему квантовая свобода воли транзисторов не может появиться на масштабах ЛЛМ? Почему вообще ОТК проверяет транзисторы целиком?
Здесь прямое отражение ваших аргументов про людей, если что. Если они вам кажутся бредово звучащими — это хорошо. Для меня настолько же бредово звучат аргументы о том, что вот вообще оператор эволюции квантовых систем детерминирован, но вот у людей есть такая вот тут лазеечка…
а сам транзистор, как целое, полностью классичен
Не то что человек! Люди-то у нас как целое квантовые.
Квантмех тут причём?
Потому что вероятность наблюдения конкретного исхода зависит только от конкретной волновой функции, а не от желаний человека (или электрона) оказаться в одном из этих исходов.
И раз там в соседней ветке речь про худлит пошла, именно поэтому Quarantine — ИМХО худшее произведение Игана.
В системе координат, связанной с наблюдателем, гораздо проще решать практические задачи выживания.
Аналогично в мире, где у вас (якобы) есть свобода воли, проще прикладывать усилия для выживания и развития (зачем их прикладывать, если всё предрешено?), поддерживать социум и наказывать людей за отклонения от социальных норм (за что наказывать, если люди — просто автоматоны?), и так далее. Социумы из достаточно интеллектуальных агентов, считающих, что у них есть свобода воли, выиграют эволюционную гонку социумов, при некоторых дополнительных естественных предположениях.
Я как раз в субботу вечером (увы, после диалога с @developer7, а то оно релевантно) начал читать забавную книжку — «The origin of consciousness in the breakdown of the bicameral mind». Она чуть-чуть про другой аспект психологии (самосознание, а не свобода воли, но вера в свободу воли невозможна без наличия самосознания), и вообще экспериментальные данные с тех пор ушли далеко вперёд, но поинт тот же: самосознание (и концепт свободы воли) — это очень недавнее психологическое изобретение, и даже в обществе, породившем «Иллиаду», его ещё не было (потому что конкретно в «Иллиаде» нет ничего про волеизъявление, внутренний диалог и прочие атрибуты сознания — это всё делегируется богам).
Дважды забавно, что Фейерабенд в «Against method», например, тоже посвящает достаточно много места анализу восприятия древних людей, включая в том числе ту же «Иллиаду» и прочие (до)гомеровские артефакты, пусть и с немного другой точки зрения (про непостоянство методов размышления и анализа, да и вообще цивилизационных мировоззрений в целом).
Что-то там про целостную картину мира и всё такое.
Хабр призвал меня сюда. Не знал что у него такой функционал есть.
Я посматривал тему но в дисскусию не вмешивался. Хотя несколько раз спорил про свободу воли и мне есть что сказать.
Господа вы спорите есть ли свобода воли или ёё нет - но вы так и не определили критерии этого термина.
Что есть вообще свобода воли?
Человек всегда поступает из логики работы своей нейронной мясной сети. Которая обучилась жизненным опытом. С обывательской точки зрения - человек поступает так как считает лучше для себя.
LLM - вообще строго детерминирована. И если бы не костыль в виде алгоритма температуры то её выход всегда был бы одинаков на одинаковый входной промт.
И так мы приходим к сути свободы воли. Что она есть для человека или для машины?
Ну с натяжкой можно предположить что это делать рандомный выбор в двух одинаковых равнозначных вариантах. Ну типо хочу есть сосиску или котлету когда одинаково их люблю.
И толку от такой свободы воли? Если человек любит больше котлеты чем сосиски - он выберет котлеты. А если сделает наоборот - в противоположность своим убеждениям (ну или текущего запроса организма), то это будет свидетельствовать о болезни. Нарушении системы. Шизофрении.
В LLM рандомизатор выбора для одинаковых условий обеспечивает - генератор рандома. Который может быть аппаратный встроенный в процессор. Который может быть основан на тепловом шуме транзистора например.
Человек может выбрать ДА или НЕТ на равные условия в зависимости от спец химии вколотой в организм. А так скорее всего зависит от температуры и химического состава нейрона. Который будет находится в пограничном состоянии и будет готов сработать или нет от любого чиха - например от нейтрино пронзившего его из космоса и вызвавшего ионизацию отдельного атома - который запустит лавинообразную химическую реакцию.
Вы знаете сколько через вас проходит высокоэнергетических частиц каждую минуту? Ответ вас удивит. Если закрыть глаза то иногда можно увидеть вспышку света - это свечение Черенково в жидкости глаза вызванная пролётом через этот глаз каково нибудь высокоэнергетического протона.
Но повторяю - вы слишком сильно придаёте значение "свободе воли". Чем чётче человек работает по внутренней программе - тем лучше для него. Если человек будет действовать во вред себе - это сбой. Выбор рандома из одинаковых выборов - это ничего не дающий, никаких преимуществ алгоритм. Он либо есть и работает одинаково у всех. Либо его нет.
Как видите в следствии физической природы мясного AI а также LLM которые берут рандом у аппаратных генераторов рандома, эти системы можно назвать обладающими свободой воли. Вот только сам термин этот бессмысленный! Он вообще ни чего толком не обозначает и не объясняет.
Он стал какой то иконой которую используют для обозначения человека. При этом используют абсолютно бездумно.
Чем чётче человек работает по внутренней программе - тем лучше для него
Даже если так (что спорно), то человек, тем не менее, не работает чётко по внутренней программе. А то, что вы пишете, называется механицизмом, и в европейской философской мысли лет двести как раскритиковано с разных позиций. Проще всего тут сказать, что система не сводится к своим составным частям.
Выбор рандома из одинаковых выборов - это ничего не дающий, никаких преимуществ алгоритм.
Например, он даёт преимущество непредсказуемости в игре с противником. Поэтому даже в простейших основах теории игр оптимальная стратегия часто заключается в бросании монетки.
Но вопрос тут глубже функциональной оценки.
Даже если так (что спорно), то человек, тем не менее, не работает чётко по внутренней программе. А то, что вы пишете, называется механицизмом, и в европейской философской мысли лет двести как раскритиковано с разных позиций.
Ну философы могут считать что угодно - на то они и философы. Особенно 200 лет назад.
По современным представлением науки - человек самая настоящая машина. Работающая на строгих алгоритмах передачи информации по средством частотных импульсов.
В конкретный момент времени такая машина будет работать строго в соответствие с текущей сложившейся архитектурой.
Если есть нейроны находящиеся в пограничном состоянии - то в них будет рандом сработки основанный на тепловом шуме в химической реакции.
Да есть состояние когда нейрон может сработать сам по себе - эпилепсия называется. Целые участки мозга начинают самопроизвольно срабатывать. И да - человек в это время полностью отключается. Нету ничего - даже памяти не остаётся. Попросту разрушается внутренний алгоритм эмуляции мира.
Проще всего тут сказать, что система не сводится к своим составным частям.
Всё там сводится. Сознание. Чувство собственного Я. Всё это иллюзии появляющиеся в ситеме эмуляции мира. У животных нету речи - но они оперируют образами и чувством пространства и чувством нахождения тушки в этом пространстве.
У человека появилась речь. Внутренний диалог - вот где пик иллюзии. Мы строим внутренний диалог - "азм Я ЕСТЬ?" - так как слова привязаны к образам - идёт проекция на эмуляцию своей тушки в внутреннем мире. Далее вступает вдело древний животный алгоритм.
Например, он даёт преимущество непредсказуемости в игре с противником.
Я имею ввиду что если дан выбор равнозначных вариантов - то любой выбор будет оптимален. Например всегда выбирать первый вариант из равнозначных.
Опять же при игре с противником - у кого преимущество? Один с рандомом, другой нет. В случае более лучшего выбора - оба выберут лучший вариант. В случае выбора в одинаковой позиции - рандом выберет рандом. А нерандом - выберет вариант который заложен в текущем алгоритме.
Так вот обладающий рандомом - не знает текущий алгоритм нерандома. И он не знает что выберет нерандом.
Разверну мысль - мы не знаем какое состояние имеют все нейроны в головном мозге нерандома что бы предсказать его выбор.
Да и не имеет это всё значение. Как я говорил - мы живём в материальном мире. Отдельная часть мира - нерандом. Но взаимодействие всех частей - даёт непредсказуемую вычислительность. Которая превращается в самый настоящий рандом. Локальный рандом. Никто ФИЗИЧЕСКИЙ не сможет просчитать взаимодействие всех нерандомных состовляющих. Ну Бог сможет )
P.S. Да я знаю про 1 факт который современная физика не может объяснить причинно-следственными связями. Время распада ядра частицы. Но такой рандом не влияет на поведение в такой сложной системе как мозг. И да я уверен - ни каких квантовых эффектов задействованных в общей архитектуре работы мозга - нету.
По современным представлением науки - человек самая настоящая машина. Работающая на строгих алгоритмах передачи информации по средством частотных импульсов.
Я не знаю, кого вы подразумеваете под современной наукой, но о работе человеческого мозга вы можете почитать и послушать, например, профессора Савельева, посвятившего этому вопросу всю жизнь. Ничего подобного изложенным вами мыслям он не говорит, а наоборот, всячески издевается над идеей подобия компьютерных нейросетей мозгу.
У человека появилась речь. Внутренний диалог - вот где пик иллюзии. Мы строим внутренний диалог - "азм Я ЕСТЬ?" - так как слова привязаны к образам - идёт проекция на эмуляцию своей тушки в внутреннем мире. Далее вступает вдело древний животный алгоритм.
Не буду обобщать, но лично у меня никакого внутреннего диалога нет, и, за исключением отдельных строго формализованных вопросов вроде нижнего уровня математики и программирования, я мыслю семантическими образами, а не синтаксическими единицами. Которые зачастую не имеют синтаксического выражения вообще (как, например, отношение к какому-нибудь человеку или вкус блюда).
Я не знаю, кого вы подразумеваете под современной наукой, но о работе человеческого мозга вы можете почитать и послушать, например, профессора Савельева, посвятившего этому вопросу всю жизнь.
А сами уже аргументировать не хотите? Призываете на помощь кого то другого? Какая разница кто там всю жизнь чему то посвятил. Если профессор Савельев отрицает работу мозга как взаимодействия нейронов друг с другом по средством передчи частотных импульсов - то грош цена такому профессору. А ничего более я и не утверждал. И я говорю что этого достаточно для эмуляции виртуального мира. Никаких магий или квантовых или религиозных вещей не надо для организации машины для эмуляции внешнего мира во внутреннюю абстракцию. И получения ряда интерфейсов из этой абстракции. Таких например как иллюзия сознания.
всячески издевается над идеей подобия компьютерных нейросетей мозгу.
Я не знаю что он там издевается. Но походу он издевается над здравым смыслом. Скажи такому проффессору лет 5 назад что на локальном ноутбуке можно будет запустить LLM которая будет владеть человеческой речью не хуже любого человека- наверно он бы поиздевался бы над таким аппонентом по полной. Да и вообще - не надо этой демагогии. Есть что сказать - говорите. Интересно читать здесь диалог аппонентов. Я вообще не утверждаю что я прав. Просто у меня такая картина мира сейчас - которая подкреплена текущими знаниями. И в интересном диалоге я хочу найти новый знания.
Не буду обобщать, но лично у меня никакого внутреннего диалога нет
Не верю. Любой человек ведёт внутренний диалог на языке которым владеет. Этим мы кстати отличаемся от животных.
Да можно заставить себя думать только образами - мы как никак есть животные, и речь это только надстройка над образной архитектурой. Люди даже могут наглататся каких нибудь наркотиков что бы ввести себя в какие нибудь пограничные сотояния. Но почти всегда когда мы оперируем логикой - внутренний диалог имеется.
Да вы даже не сможете задать себе вопрос "Я есть ?" используя только образы. Отсюда забавный факт - а не является ли иллюзия самосознания только следствием речи ?
Интересно почитать людей которые знают несколько языков - на каком языке они думают. Там интересная каша получается.
Да вы даже не сможете задать себе вопрос "Я есть ?" используя только образы.
Разумеется, потому что этот вопрос вообще не имеет семантического содержания. Можно с тем же успехом спросить себя "Бла бла?". Вы сами себя опровергаете здесь лучше, чем мог бы это сделать я.
Не верю. Любой человек ведёт внутренний диалог на языке которым владеет. Этим мы кстати отличаемся от животных.
Есть даже такие люди, которые не просто не ведут внутреннего диалога, но в принципе не способны мысленно воспроизводить слова. Погуглите по слову "анендофазия".
А так вы описываете у себя дигитальный тип восприятия из НЛП, и думаете, что у всех так.
этот вопрос вообще не имеет семантического содержания.
А от куда вообще взялось такое понятие как самомознание? Любой (ну почти любой - всегда есть какие то отклонения) человек считает что он существует. Что он личность. Постоянно обсуждают феномен "Я".
Любой человек осознаёт себя как личность, как самостоятельная еденица - через внутренний диалог.
Вы утверждаете что внутренний диалог ничего не значит или вообще некоторые с дефектами вообще не могут им пользоваться. Вопрос конечно к таким - как можно не пользоваться внутренним диалогом при этом пользоваться внешним - иметь речь. Это по сути одно и тоже. Один и те же мясные алгоритмы. Есть дети маугли. Там как раз проблема с речью - не формируется участок мозга отвечающий за речь. Такие дети в последствии ведут себя как животные.
Вобщем всё сводится к тому что нас как человека определяет именно речь. Потому что с помощью речи мы можем строить логические композизици - отсюда произошла логика мышления.
Речь привязана к образам. Но речь даёт очень большую абстракцию - которую образами не представить. Например математический аппарат не представить только образами. А речью - легко.
Так же я знаю что некоторые кошки в зеркале могут понять что это они. Это я объясняю хорошо развитым аппаратом внутреннего моделирования мира.
Кстати словил себя на мысли - а почему глухонемые не животные. Если подумать они пользуются аналогом речи - визуальные фигуры построенные руками.
Надо будет обдумать как этот факт ложится на гипотезу что речь породила самосознание. Сейчас что то лень пока.
И да я бы из всего сказанного разделял понятия Сознание и Самосознание.
Сознанием обладают все животные. Даже муравьи в кокой то степени. Все внутри себя строят проекцию внешнего мира. От примитивных видов до сложнейших у высших животных.
А вот самосознание - это уже внутренний диалог с самим собой. Это подразумевает под собой что можно ставить виртуальные запросы и отвечать на них. Можно строить виртуальные проекции мира и модулировать поведение в этом мире по собственному желанию.
Как по мне нету чёткого разделения между этими мирами. Переход идёт плавно. От высших животных к человеку. Хотя наверно с появлением речи - преход к самомознанию сделал скачкообразный рывок
Получается что чем больше в системе алгоритмов для построения и манипуляции обстракциями (кирпичиками для модулирования - образами или словами/речью или другими единицами) тем больше система обладает самосознанием.
А от куда вообще взялось такое понятие как самомознание? Любой (ну почти любой - всегда есть какие то отклонения) человек считает что он существует. Что он личность. Постоянно обсуждают феномен "Я".
Конечно, любой человек ощущает (а не считает), что он существует, и это является самосознанием. Но здесь нет предмета для вопроса (подразумевающего разные ответы). Или "я есть?" – это риторический вопрос? Тогда в чём риторика?
Более того, слово "есть" в данном случае не имеет семантики даже в утвердительном предложении. Совершенно очевидно, что мой бытийный статус принципиально отличается от бытийного статуса различных предметов, поэтому использование одного слова "есть" в данном случае бессмысленно. Это просто передёргивание синтаксических конструкций. Пелевин, кстати, об этом много писал.
Индусы в этом деле дальше пошли со своей мантрой "Ом", но это не имеет прямого отношения к обсуждаемому вопросу. Вы ж не на санскрите внутренний диалог ведёте, полагаю?
Любой человек осознаёт себя как личность, как самостоятельная еденица
Да (с учетом неясного смысла слова "личность", я бы сказал здесь "субъект").
- через внутренний диалог.
Нет.
Вопрос конечно к таким - как можно не пользоваться внутренним диалогом при этом пользоваться внешним - иметь речь. Это по сути одно и тоже.
Если бы это было по сути одним и тем же, вы, в частности, могли бы думать только о том, что можете назвать. За вас не ручаюсь, но я точно не ограничен речью и языком в своём мышлении. Иногда и свои собственные придуманные слова использую при необходимости фиксации обозначения.
Вобщем всё сводится к тому что нас как человека определяет именно речь.
Высказывание известное, но несколько тавтологичное и потому ничего не означающее. А собаку определяет отсутствие речи? Она не обладает при этом самосознанием?
Потому что с помощью речи мы можем строить логические композизии - отсюда произошла логика мышления.
Собака не обладает логикой мышления?
Речь привязана к образам. Но речь даёт очень большую абстракцию - которую образами не представить. Например математический аппарат не представить только образами. А речью - легко.
Математический аппарат бывает разный, синтаксический и семантический. Синтаксис вроде лямбда-исчисления и выводимых из него вещей вроде арифметики и машины Тьюринга действительно можно вывести сам из себя. Но, например, понятие множества и прочие первичные понятия – синтаксически не представить.
Конечно, любой человек ощущает (а не считает), что он существует, и это является самосознанием.
Вот в чём фокус. Человек в обычной повседневной жизни вообще не задаётся вопросом существует ли он. Он просто живёт. Под этим я подразумеваю что человек действует в текущий момент как самый настоящий робот - согласно текущего необходимого алгоритма.
Типичный пример езда за рулём - часто просто едешь и не думаешь ни о чём. Часто едешь не туда куда надо - а по маршруту по которому до этого 100 раз ездил. Поступил как робот с программой. Пропустил поворот. Потом подумал что не туда едешь и уже осознанно корректируешь маршрут.
Отсюда вывод что иллюзия самосознания это процесс. Процесс когда сам с собой ведёшь диалог. В этом диалоге ты можешь явно утвердить что ты есть. И как не смешно выглядит - явно это можно сделать только речью - потому как она кодирует образы.
Наверно можно напрямую кодировать образы без речи, представить самого себя со стороны. И эта модуляция будет аналогом я есть, только в образной архитектуре.
Ну наверно если так взглянуть на вещи - то животные которые могут представить себя со стороны - то они обладают самосознанием. Которые не могут - обладают только сознанием. Которые не модулируют внешний мир - не обладают вовсе сознанием. Это скорее всего всякие одноклеточные, черви. Там полный конечный автомат.
Если бы это было по сути одним и тем же, вы, в частности, могли бы думать только о том, что можете назвать. За вас не ручаюсь, но я точно не ограничен речью и языком в своём мышлении. Иногда и свои собственные придуманные слова использую при необходимости фиксации обозначения.
Ну человек может думать только образами - потому как эволюционно развивался с глазами. Потом получил речь. Это как бы всё. Может ли человек думать ещё чем то другим? Я имею ввиду использовать семантические кирпичики другого вида? По идее может использовать только те чувства которые в него заложила природа. Вот собаки - у них информация о картине мира получается от запахов. Там львиная часть информации поступает от запахов. Они наверно думают запахами. Как устроена внутрення модуляция мира основанная на запахах ? Какие интерфейсы даёт ? Можно ли применять математический аппарат к ним? По типу что будет если сложить или поделить запахи.
Собака не обладает логикой мышления?
Я тут развил мысль вверху. Добавлю. Логикой мышления обладает существо способное манипулировать виртуально внутри себя семантическими кирпичиками. Семантические кирпичики исходя из своей природы накладываю те или иные ограничения на интерфейсы. Как показала жизнь - манипуляция только образами не позволяет получить математичекий аппарат. Не работает. А вот с речью всё работает. Понятно почему - речь намного обстрактнее и даёт очень много вариативности. Образ же чёткий - вариативности даёт минимум.
Но даже через образы особо умные собаки способны получить интерфейс к несложной логике.
Пример - собака видела как человек дёргает ручку двери и дверь открывается. Собака представила что зубами дёргает ручку двери - собака ожидает от двери такое же поведение. Ну собственно потом в реальности собака ткрывает дверь. Для человека - это очевидность. Для логики собаки - это просто запредельная сложность мышления.
Только что пришёл к мысли. Что через речь мы кодируем в мозгу алгоритмы поведения. Очень много и очень разных алгоритмов. Создаём архитектурную сесть - пропуская через которую новые входные данные - мы получаем логические решения.
Через образы это сделать очень сложно.
Вот пример из жизни - визуальные средства проектирования программ родились и вымерли. А код - остался. Код как концентрация логики.
Типичный пример езда за рулём - часто просто едешь и не думаешь ни о чём. Часто едешь не туда куда надо - а по маршруту по которому до этого 100 раз ездил. Поступил как робот с программой. Пропустил поворот. Потом подумал что не туда едешь и уже осознанно корректируешь маршрут.
Это хорошо изученная вещь, она связана с тем, что много раз отработанные навыки спускаются с сознательного уровня на уровень условных рефлексов, в другую часть мозга. Там всё, действительно, автоматично (и работает быстрее).
Отсюда вывод что иллюзия самосознания это процесс. Процесс когда сам с собой ведёшь диалог. В этом диалоге ты можешь явно утвердить что ты есть. И как не смешно выглядит - явно это можно сделать только речью - потому как она кодирует образы.
Наверно можно напрямую кодировать образы без речи, представить самого себя со стороны. И эта модуляция будет аналогом я есть, только в образной архитектуре.
Ну наверно если так взглянуть на вещи - то животные которые могут представить себя со стороны - то они обладают самосознанием. Которые не могут - обладают только сознанием. Которые не модулируют внешний мир - не обладают вовсе сознанием. Это скорее всего всякие одноклеточные, черви. Там полный конечный автомат.
Примерно так, только вместо диалога многие люди используют другие способы восприятия. Для кодирования образов совершенно не обязателен промежуточный носитель в виде речи.
Как показала жизнь - манипуляция только образами не позволяет получить математичекий аппарат.
Верно, но из этого нет далеко идущих выводов.
А вот с речью всё работает.
Не всё, а только то, что может быть представлено в языке.
Поэтому, кстати, изучение иностранных языков, особенно не родственных, развивает мышление. Но не является обязательным механизмом выхода за границы языка.
Собственно, язык бы не мог появиться и развиваться, если бы не было внеязыкового мышления.
Вы, кстати, себе как-нибудь геометрически представляете взаимное положение прошлого, настоящего и будущего?
Это хорошо изученная вещь, она связана с тем, что много раз отработанные навыки спускаются с сознательного уровня на уровень условных рефлексов, в другую часть мозга.
А в этом и весь прикол. Мозг эволюционно сложился так что бы тратить как можно меньше энергии. Он автоматизирует всё на постоянной основе. В аналитический - энергозатратный отдел, данные поступают только с новой информацией.
Поэтому я постоянно и подчёркиваю такой феномен. В обычной жизни - особенно однообразной, человек может жить так что мы можем с полной уверенность сказать что в нём нету самосознания. Потому что нету необходимости обдумывать новые данные. Входящие данные полностью укладываются в настроенные алгоритмы обработки. В нём только сознание. В котором действую в данный момент автоматические алгоритмы.
Для кодирования образов совершенно не обязателен промежуточный носитель в виде речи.
Я как раз утверждал всегда противоположное. Образы - эволюционно превичны. Речь появилась недавно. И речь это надстройка над образами.
Глубокое аналитическое самомознание, которое дало такие интерфейсы как сложные математические абстракции, появилось только с появлением надстройки - речи над образной архитектурой. Это кстати не мои догадки - это просто факт. Только человек способен в математику. Хотя взять того же дельфина - мозги побольше и посложнее человечьих, даже примитив речи есть. Но цивилизацию так и не создали.
Вы, кстати, себе как-нибудь геометрически представляете взаимное положение прошлого, настоящего и будущего?
Хороший пример. Образами - нельзя. Словами можно. Вот пример - Я вчерашне-сегодняшне-завтрашний.
Хороший пример. Образами - нельзя. Словами можно. Вот пример - Я вчерашне-сегодняшне-завтрашний.
Ну Вы довольно уникальный человек тогда. У нас в группе изучения китайского языка все сошлись на том, что для русского человека будущее находится справа или сверху от настоящего и прошлого (первое, очевидно, предопределено осью времени на графиках). А у китайцев прямо на уровне языка закодировано, что будущее снизу или сзади, а прошлое сверху или спереди (下 означает вниз или позже, 后 означает сзади или в будущем, 上 означает вверх или раньше, 前 означает спереди или в прошлом). Такая связь в языке и мыслях между направлениями в пространстве и времени предполагает, что время имеет геометрический образ, используемый при кодировании в языке.
А чтобы понять китайские базовые концепции движения 去 и 来 (приблизительно – туда и сюда), вообще приходится сложные схемы рисовать. Этого бы не было, если бы слова объяснялись через слова.
Я не понял сути вопроса. Вернее не особо задумывался - занимаюсь нуднейшим делом параллельно, а сюда захожу мозг расслабить.
Я подумал что нужно представить образ себя который одновременно будет находится в прошлом, настоящем и будущем. Причём этот образ должен быть однозначно представлен - что бы если его показать другому человеку то он точно понял что я имею ввиду.
Я прикинул что концепция изображения времени в образах достаточно трудоёмкая штука, вернее мой мозг прикинул и алгоритмы внутри сработали - забить на эту задачу )))
Вот подмечена обратная сторона медлали для речи. С одной стороны она обладает максимальной абстрактностью - словами мы с лёгкостью смешиваем образы. Даже в случаях когда сами по себе образы не смешиваемы. Но из за глубокой абстакции на другой стороне принимающий не сможет корректно сделать обратную разупаковку в образы.
Так же я знаю что некоторые кошки в зеркале могут понять что это они. Это я объясняю хорошо развитым аппаратом внутреннего моделирования мира.
Чтобы смоделировать «там я», нужно иметь понятие/модель себя?
нас как человека определяет именно речь
Попугая можно научить фразе «Я человек».
А вот самосознание - это уже внутренний диалог с самим собой.
По каким внешним признакам детектировать наличие внутреннего диалога у всех, кроме себя? «Я точно‑точно веду внутренний диалог, зуб даю»? Можно заставить калькулятор вывести этот текст, или опять же научить попугая.
По каким внешним признакам детектировать наличие внутреннего диалога у всех, кроме себя?
Отвечу сама себе: нейроинтерфейс.
Чтобы смоделировать «там я», нужно иметь понятие/модель себя?
Так я же постоянно про это и пишу. Внутреннее моделирование проекции внешнего мира и объекта в этой модели собственной тушки произошло не прост так. Это эволюционное достижение. Те кто плохо предсказывал будущее на основании этой проекции - тех сожрал хищник. Потомство оставляли только те кто лучше и лучше это делал.
Эта проекция и алгоритмы - это аппаратно сформированная древняя часть. И уже как надстройка к этой древней части идут новые алгоритмы. Внутренний диалог. Речь. У особо развитых высших животных - идёт манипулирование образами. Сложное манипулирование которое уже можно назвать зачатком логического мышления. И зачатком развития самосознания. Как я уже писал - самосознание это способность получить интерфейс к управлению древним механизмом моделирования мира. Попросту возможность воображать (манипулировать образами) и в фантазиях представлять собственную тушку как отдельный объект и главное отождествлять этот объект с самим собой. Это я пытаюсь объяснить ЧТО делают внутренние алгоритмы. Но не КАК. Потому КАК - это будет выглядеть как хаотичный обмен импульсами друг с другом нейронами. Просто все нейроны и все импульсы - они не сами по себе, Они реализуют сложный алгоритм по построению абстракции мира. И внутри этой работы на самом деле нету никакого мира. Мир проявляется только через интерфейсы к этой машине. К этому алгоритму. Это я пытаюсь объяснит что эмуляция мира это процесс. А не реальный мир.
Попугая можно научить фразе «Я человек».
Я читал исследование нейронов птиц. Воронов, попугаев. Там какие то особенные нейроны. Очень мелкие и очень функциональные. Короче их нейроны намного эффективнее человеческих. Грубо говоря для построения сложной логики им нужен намного меньше объём пространства. Т.е. в такой мелкой голове как попугая может поместится очень сложная машина.
Но опустим это.
Насколько я понимаю попугаи пользуются речью без привязки к образам. Это не надстройка над алгоритмом модулирования мира. Эта надстройка над чем то другим. Птицы поют перед самками. Брачный танец. Потомство продолжают только те кто лучше всего поют. Насколько я знаю они часто не придумывают новые песни а копируют другие звуки. И получилось что эволюцией сформировался алгоритм для ЗАПОМИНАНИЯ звуков. Разнообразных. Без привязки к образам.
Это кстати очень напоминает LLM. Там тоже привязка к токенам без какой либо привязки к образам.
Но в природе не бывает что то строгого. И вполне допускаю что особо умные попугаи могут прорастить у себя в маленьком мозге нейронные связи и привязать образы к конкретным звукам. Ну тогда мы имеем вполне себе заражающуюся цивилизацию которая в будущем вполне сравняется с логикой с людьми. Осталось только что бы попугаи между собой так начали разговаривать.
По каким внешним признакам детектировать наличие внутреннего диалога у всех, кроме себя?
А что тут сложного то? Просто надо знать внутреннее устройство. У человека это есть. Я не буду рассматривать всякие филосовские демагогии по типу "мир есть пока я живу" "всё вокруг меня эмуляции" и подобное. Я придерживаюсь логичного принципа. Остальные люди точно такие же как и я. Ну разумеется не копии. Общая структура.
Я знаю как устроен калькулятор. Я знаю как устроена LLM.
Короче вывод не пальцем в небо - а просто надо знать устройство. Где устройство не знаешь - используешь проекции на подобное. Ну например - не надо знать устройство всех калькуляторов что бы знать что там нету никакой модуляции внешнего мира. Для этого надо иметь как минимум пару видеокарт и киловаттный блок питания.
Я же изначально написал: «А чем он ещё описывается на релевантных для человека масштабах скоростей, масс и энергий?» (и курсив там тоже был изначально).
Тогда причём здесь квантмех?
Не понял. Как предсказывает?
Ну воля человека гуманитарно в целом предсказуема, хотя и произвольна.
Почему вообще ОТК проверяет транзисторы целиком?
Потому что такое требование записано в ТУ.
Не то что человек! Люди-то у нас как целое квантовые.
Именно. К людям никто не предъявлял требования иметь модульную конструкцию и не закладывал в них отрицательные обратные связи для исключения распространения незначительных возбуждений. Наоборот, человек достоверно имеет множество положительных обратных связей, и к самовозбуждению крайне склонен. Поэтому предположение о том, что в конечном итоге человек является устройством для усиления волновой функции одного электрона, вполне имеет право на существование.
Аналогично в мире, где у вас (якобы) есть свобода воли, проще прикладывать усилия для выживания и развития (зачем их прикладывать, если всё предрешено?), поддерживать социум и наказывать людей за отклонения от социальных норм (за что наказывать, если люди — просто автоматоны?), и так далее.
В детерминированном мире не нужно прикладывать усилия и вообще не может ставиться вопрос "зачем". Независимо от воли и желания людей всё равно всё сложится по изначально заданной траектории. Кстати, вот ещё вопрос: почему в таком случае нам кажется, что от наших усилий что-то зависит? Откуда взялась такая сложная и ни для чего не нужная иллюзия? Мы же тогда просто смотрим кино.
Тогда причём здесь квантмех?
Можно без квантмеха, можете считать человека чисто классическим. Но тогда пространства для свободы воли ещё меньше. И люди в таких спорах обычно находят свободу воли в квантмехе, поэтому я про него и упомянул.
Ну воля человека гуманитарно в целом предсказуема, хотя и произвольна.
Это какая-то обратная логика уровня «телевизоры бывают чёрно-белые и пингвины бывают чёрно-белые, следовательно, пингвины — телевизоры».
Потому что такое требование записано в ТУ.
Так это проверяются только те аспекты, которые не позволяют проявить транзистору свою свободу воли. Плюс, есть вариант, что транзистор волевым путём проходит ОТК, а применяет свободу воли уже после. И чем меньше техпроцесс, чем больше квантовые эффекты вроде туннелирования влияют на поведение транзистора — тем больше у него источников свободы воли.
Или, может, каждый отдельный блок чипа проходит ОТК, а 1000 видеокарт вместе — уже начинают играть роль квантовые эффекты эмержентного порядка, дающие ЛЛМ свободу воли.
Почему нет? Сможете доказать, что такого быть не может? Я вот с ЛЛМ общаюсь и чувствую, что у неё есть свобода воли точно так же, как она есть у других людей, не могут же мои чувства врать?
К людям никто не предъявлял требования иметь модульную конструкцию и не закладывал в них отрицательные обратные связи для исключения распространения незначительных возбуждений.
Ваще-т эволюция как процесс закладывает. Поддержание гомеостаза того требует.
Поэтому предположение о том, что в конечном итоге человек является устройством для усиления волновой функции одного электрона, вполне имеет право на существование.
Как и ЛЛМ в целом.
В детерминированном мире не нужно прикладывать усилия и вообще не может ставиться вопрос "зачем". Независимо от воли и желания людей всё равно всё сложится по изначально заданной траектории. Кстати, вот ещё вопрос: почему в таком случае нам кажется, что от наших усилий что-то зависит? Откуда взялась такая сложная и ни для чего не нужная иллюзия? Мы же тогда просто смотрим кино.
В чём смысл цитировать абзац, в котором я ответил на эти вопросы, чтобы задать их потом отдельно?
Ну и с другой стороны: если бога нет, то в чём смысл такой иллюзии, что бог есть? Почему религии есть практически во всех культурах, которые даже не взаимодействовали? Шах и мат, аметисты!
Ну и с другой стороны: если бога нет, то в чём смысл такой иллюзии, что бог есть?
У меня нет такой иллюзии. Собственно, как иллюзия, то есть род непосредственно воспринимаемого чувства, бог есть у очень немногих людей. Большинство верующих его воспринимают как идею, то есть некоторое умозрительное объяснение чувственного опыта (неважно в данном случае, истинное или нет).
Почему религии есть практически во всех культурах, которые даже не взаимодействовали?
Концепция бога зато есть далеко не во всех. Это в основном появилось как ближневосточная фишка.
Если брать языческие вероучения, то там богами называются фактически просто носители каких-то необычных способностей. Будда, тот прямо учил, что богом может стать каждый, но быть им не очень-то хорошо, хотя приятно.
А происхождение религии вполне материалистично раскрыто Энгельсом.
Почему нет? Сможете доказать, что такого быть не может?
И про чайник Рассела тоже не смогу.
Собственно, как иллюзия, то есть род непосредственно воспринимаемого чувства, бог есть у очень немногих людей. Большинство верующих его воспринимают как идею, то есть некоторое умозрительное объяснение чувственного опыта (неважно в данном случае, истинное или нет).
А это неважно: можно переформулировать вопрос в терминах чувственного опыта. Или веры во что-то выше/больше/етц нас. Веры в ангелов-хранителей, проклятия, етц.
И про чайник Рассела тоже не смогу.
Почему свобода воли ЛЛМ — чайник Рассела, а человека — нет?
Потому что свою свободу воли я воспринимаю непосредственно и не вижу механизма детерминированности, а в случае LLM наоборот.
Мой поинт в том, что вы рационализируете историю своего поведения как демонстрацию свободы выбора.
Точно так же, кстати, как верующий человек воспринимает горящий куст (или луч света из облаков) как знак.
не вижу механизма детерминированности, а в случае LLM наоборот
Я не могу понять модель мира, в которой у LLM есть механизмы для детерминированности, а у человека — нет.
У человека есть механизмы для детерминированности, но ничто не заставляет его ими пользоваться.
Я вообще-то именно онтологически вас не особо понимаю. Вроде, очевидная вещь, что порядок из хаоса получается большим трудом, а хаос из порядка - сам собой. И LLM смогли собрать только тупым программированием, а не самостоятельной самоорганизацией материи.
У человека есть механизмы для детерминированности, но ничто не заставляет его ими пользоваться.
Для меня это звучит как «у человека есть механизмы для участия в гравитационных взаимодействиях, но ничто не заставляет его ими пользоваться».
Э, ну, я не знаю, законы физики заставляют?
Вроде, очевидная вещь, что порядок из хаоса получается большим трудом, а хаос из порядка - сам собой.
А связь со свободой воли здесь какая?
Э, ну, я не знаю, законы физики заставляют?
Вроде с детерминизмом в физике разделались сто лет назад.
А связь со свободой воли здесь какая?
Хаос предполагает отсутствие детерминированного результата. Свобода воли может это обстоятельство использовать.
Вроде с детерминизмом в физике разделались сто лет назад.
Кажется, мы заходим на второй круг.
В MWI (и некоторых других интерпретациях) даже квантмех детерминирован.
Квантмех действует на все объекты одинаково. Нет никаких оснований считать, что у человека больше свободы воли на основе отсылок к квантмеху, чем у электрона, у бильярдного шара или у песчинки, выбирающей, как именно ей скатываться с холма.
Хаос предполагает отсутствие детерминированного результата.
Меня этот тред начинает очень сильно печалить :'-(
Хаос — это, если по-человечески, сильная зависимость системы от начальных условий, не более.
Или, если топологически, функция (детерминированная!) f на топологическом пространстве X хаотична, если множество её периодических точек плотно в X и для любых открытых U, V в X. ∃ u ∈ U.∃ n ∈ ℕ. f^n(u) ∈ V (упрощая — функция бесконечно бегает почти по всему пространству).
Простейшая, абсолютно детерминированная функция
f : [0; 1] → [0; 1]
f x | x ≤ ½ = 2x
| otherwise = 2 - 2xхаотична.
Свобода воли может это обстоятельство использовать.
Для протокола — этот аргумент не в ту сторону, в которую вы думаете.
Меня восхитило ваше определение хаоса и я не удержался написать ответ!
Абсолютный хаос — это, пожалуй, как картина Брюлова «Последний день Помпеи». Такие события в жизни случаются крайне редко. Любая воля превращается в иллюзию когда наступает Doomsday — у вас нет никакого выбора кроме как стать частью хаоса, на человеческом языке это называется - СМЕРТЬ. Это забавно в том смысле, что хаос дает огромный выбор микросостояний - сколькими способами можно было умереть в Помпеях, но почему-то никто не считает это настоящей свободой! Обычно же человек довольно успешно предсказывает определённые процессы: ламинарное течение воды в трубе, движение автомобилей на регулируемом перекрестке, солнечные затмения и может воспользоваться результатами. Свобода воли реальна только в мире, где человек способен предвидеть последствия своих действий хотя бы частично. В этом смысле её можно интерпретировать как неосознаваемый детерминизм, когда результат действий лежит за пределами субъективной предсказуемости и нельзя оценить последствия прагматично или нормативно. Например, начинающий шахматист в миттельшпиле может иметь около 30–40 легальных ходов, но обычно рассматривает лишь 2–3 наиболее очевидных, выбирая один из них в результате проявления творческой свободы, хотя это может быть неосознанное последствие попадание высокоэнергетического нейтрино в его мозг.
Парадокс в том, что люди считают себя свободными, но мыло никто не ест, хотя это статистически такое маловероятное событие, если все мы имеем свободу воли и не сговорились!
Предвижу ваш вопрос: за что же осудили убийцу, но это еще на два экрана текста.
В MWI (и некоторых других интерпретациях) даже квантмех детерминирован.
Квантмех в любом случае детерминирован, так как уравнение Шрёдингера детерминировано. Но квантмех вообще не описывает происходящие в макромире события, только их вероятность (что бы под вероятностью ни понимать). У вас кусок плутония с критической массой либо взорвался, либо нет, и это вполне наблюдаемый и очень значимый факт, а квантмех его предсказать не может. Хотя функция вероятности полностью детерминирована квантмехом.
Хаос — это, если по-человечески, сильная зависимость системы от начальных условий, не более.
Бессмысленно спорить об определениях, особенно философских.
Квантмех в любом случае детерминирован, так как уравнение Шрёдингера детерминировано.
Не во всех интерпретациях. Там, где есть классический коллапс, нет детерминизма на внутреннем языке теории.
У вас кусок плутония с критической массой либо взорвался, либо нет
Это не MWI.
Бессмысленно спорить об определениях, особенно философских.
Не, ну это несерьёзно. Когда свободу воли приходится выковыривать из «ну мы тут чё-т наопределили, но недостаточно точно, чтобы об этом разговаривать строго», то всё со свободой воли понятно, тащем.
Не во всех интерпретациях. Там, где есть классический коллапс, нет детерминизма на внутреннем языке теории.
Оператор коллапса волновой функции не коммутирует с оператором энергии - он не сохраняет энергию. Например в теории объективного коллапса https://ru.wikipedia.org/wiki/Теория_Гирарди_—_Римини_—_Вебера энергия не сохраняется (что пока за пределами точности измерений), но обычно у нас есть какой-то прибор который "измеряет путем воздействия", то-есть энергия переходит от/к прибору, но точного квантового оператора для измерения классическим прибором никто написать не может - внутренний язык сильно корявый.
Остается два варианта (если отбросить интерпретации с корявым языком):
Энергия не сохраняется
Коллапс субъективен (в многомировой интерпретации вы видите мертвого кота и ортогональны - не интерферируете со своим двойником который видит живого)
Любой оператор, коммутирующий с классическим H, не может локализовывать в пространстве.
А если он не локализует — это не коллапс.
Оператор коллапса волновой функции не коммутирует с оператором энергии
Ну ещё фраза «оператор коллапса» не имеет смысла, так как операторы, опять же, заведомо детерминированные по определению, а эта фигня с коллапсом — нет.
Коллапс субъективен (в многомировой интерпретации вы видите мертвого кота и ортогональны - не интерферируете со своим двойником который видит живого)
Именно. И, более того, он небинарен (как показывают мои любимые опыты с самоинтерферирующим C₆₀, скажем).
Энергия не сохраняется
Для протокола, кстати, это не так страшно, как кажется. На другой стороне масштабов, в современной космологии, насколько я знаю, энергия тоже не сохраняется. Просто нет временной симметрии — подумаешь.
Ну ещё фраза «оператор коллапса» не имеет смысла, так как операторы, опять же, заведомо детерминированные по определению, а эта фигня с коллапсом — нет.
А википедия говорит что имеет )))
В теории https://en.wikipedia.org/wiki/Ghirardi–Rimini–Weber_theory даже формула этого оператора приведена. Поскольку каждому классическом гамильтониану можно сопоставить квантовый с помощью канонического квантования, то возможна и обратная процедура, так вот GRW localization operator в классике сопоставляется броуновское движение в ультра-разреженной с температурой 10¹¹–10¹² K и нулевой вязкостью (поэтому энергия и не сохраняется). ОК, оператор коллапса детерминирован, но зависит от скрытого стохастического процесса или параметра.
как показывают мои любимые опыты
Не совсем понял что именно показывают ваши любимые опыты, но скорее всего Вы не слыхали о квантовом Дарвинизме и poiter states. Поскольку котов мы видели только живыми и мертвыми, а не в суперпозициях, то именно поэтому коллапс котов становится бинарным, хотя если бы у нас были особенные глаза которые видят не только "Lucy in the sky with diamonds", но и суперпозицию котов... все тонкость в том как именно мы видим кота!
Хочу заметить, что автор парадокса с котом рассматривал его как reductio ad absurdum, а не способ знакомства с квантовой механикой для новичков.
На другой стороне масштабов, в современной космологии, насколько я знаю, энергия тоже не сохраняется. Просто нет временной симметрии — подумаешь.
Да и там тоже. Хотя пространственная симметрия в ΛCDM остается, поэтом сохраняются импульс и его момент. Теоретически можно сделать вечный двигатель на этом принципе. Ну хотя бы запатентовать!
А википедия говорит что имеет )))
Собственные значения операторов. Не сами операторы. Это, кстати, по-прежнему плюс-минус Копенгаген, пока ничего нового.
В теории https://en.wikipedia.org/wiki/Ghirardi–Rimini–Weber_theory даже формула этого оператора приведена.
Насколько я могу судить по беглому прочтению, там очень аккуратно разделяют детерминированные операторы (локализации, например) эволюции, матрицы плотности (которые иногда называют density operator, но это другой operator), и, собсна, случайные скачки. И это неслучайно (pun intended)!
Не совсем понял что именно показывают ваши любимые опыты
Упрощая, вместо электронов или фотонов фигачим через две щели шариками C₆₀ — они потяжелее. Снова упрощая, оказывается, что если измерять «слегка», то и интерференционная картина ломается «слегка» — С₆₀ запутывается с измерительными прибором лишь немножко. И, собсна, в MWI это объясняется именно так, через запутывание с прибором, учёным, его статьёй, и так далее. К объективному коллапсу это как-то тоже можно сбоку прикрутить, но сложность получающейся теории, ИМХО, неоправданно высока и выглядит как эпициклы с деферентами.
Да и там тоже. Хотя пространственная симметрия в ΛCDM остается, поэтом сохраняются импульс и его момент.
Мои познания на этом уровне не сильно выше уровня научпопа, поэтому здесь я поддержать разговор не могу. На квантах можно считать и к ним можно прикручивать разную логику, а на космологических масштабах — как-то не оч, поэтому оно в списке приоритетов у меня пониже, сорян.
Снова упрощая, оказывается, что если измерять «слегка», то и интерференционная картина ломается «слегка» — С₆₀ запутывается с измерительными прибором лишь немножко.
Так и не надо упрощать - вы математически можете это выразить? Какая там получается "небинарная" волновая функция? В чем вы видите ее небинароность? Вы же математик вроде бы, а выражаетесь на нематиматическом языке. «слегка» - это как вообще математически записывается?
Мой поинт в том что если свести коллапс в координатном пространстве, не к словесной эквилибристике в виде правила Борна, а к математической процедуре (возможно существуют различные способы произвести это, с помощью некого "другого оператора"), то энергия не будет сохранятся.
Мои познания на этом уровне не сильно выше уровня научпопа, поэтому здесь я поддержать разговор не могу.
Теорема Нётер говорит как из симметрии возникают законы сохранения, а поле Киллинга показывает какие симметрии существуют в искривленном и плоском пространстве времени.
Так и не надо упрощать - вы математически можете это выразить?
Конечно (хотя не вижу смысла в данном контексте). Один из способов такой.
Пусть у вас две щели, первая и вторая. Обозначим состояние измерительного прибора (среды в общем случае — скажем, фотонов, которыми вы облучаете фуллерен, чтобы понять, где он) — E₁, если фуллерен пролетел через первую щель, и E₂ — если через вторую. Тогда можно рассмотреть ⟨E₁|E₂⟩. В классическом Копенгагене с бинарным коллапсом модуль этой величины либо 1 (физический смысл — среда не знает, через какую щель пролетел фуллерен, оба состояния одинаковы, откуда и вылезает единица, и есть интерференционная картина), либо 0 (физический смысл — произошло измерение, про щель всё известно, состояния ортогональны, произведение — 0, нет картины).
Так вот, «слегка» — это значения между 0 и 1. У чуваков, которые пуляли фуллерены в щели, получались именно такие значения.
Какая там получается "небинарная" волновая функция? В чем вы видите ее небинароность?
ВФ не получается небинарной. Небинарным получается её коллапс (что бы он ни значил). И я ровно про это написал в предыдущем комментарии.
Помогите мне, пожалуйста, исправить свой способ выражения мыслей, чтобы в следующий раз слова «он [коллапс] небинарен» не интерпретировались как небинарность ВФ.
Теорема Нётер говорит как из симметрии возникают законы сохранения, а поле Киллинга показывает какие симметрии существуют в искривленном и плоском пространстве времени.
Я знаю про Нётер. Я не знаю, какие симметрии есть у ΛCDM и прочих космологий.
Вы же математик вроде бы
Для протокола — я всего лишь программист позорный, к сожалению. Математик я только в своих влажных фантазиях, в которых мои способности хотя бы немного пересекаются с ценностями моей референтной группы.
Я тоже не математике, а химик по образованию, поэтому когда вы называете молекулы TPPF152, которые пускали через щель фуллеренами мня слегка коробит. У него немного другое названия, например 5,10,15,20-тетракис[4-((3,5-ди((3-перфторциклопрпокси)метил)фенил)метантио)-2,3,5,6- тетрафторфенил]порфирин... (трудно по другому описать словами разветвленный граф химических связей) ну ладно пусть будет "условный фуллерен".
ВФ не получается небинарной
Я не телепат, не знаю что это такое. Пусть ψ1 и ψ2 - это где пролетел "условный фуллерен", а E1 и E2 - прибор или экспериментатор видит где пролетел "условный фуллерен"
В общем случае унитарная эволюция WF это просто тензорное произведение гильбертовых пространств (и состояний)
∣Ψ⟩ = 1/2 (∣ψ1⟩⊗∣E1⟩+∣ψ2⟩⊗∣E2⟩)
и далее
∣Ψ⟩ = 1/2 (∣ψ1⟩⊗∣E1⟩⊗∣вся вселенная видит 1⟩+∣ψ2⟩⊗∣E2⟩⊗∣вся вселенная видит 2⟩)
Коллапса еще нет!
Возможно вы хотели сказать что в частичной матрице плотности остались недиагональные элементы (как тут написать матрицу 2x2 ?) если E1 и E2 неортогональны?
Берём частичный след по среде:
ρ_particle = Tr_E(∣Ψ⟩⟨Ψ∣)
ρ_particle = 1/2( ∣ψ1⟩⟨ψ1∣ ⟨E2∣E1⟩∣ψ1⟩⟨ψ2∣)
( ⟨E1∣E2⟩∣ψ2⟩⟨ψ1∣ ∣ψ2⟩⟨ψ2∣ )
То-есть матрица плотности имеет недиагональные члены? Не знаю, что в этом плохого с точки зрения матриц? И что плохого в том, что E1 и E2 неортогональны? Ну такой у нас экспериментатор "небинарный" - давайте будем толерантны к его внутренним состояниям (который E1 и E2)!
Я тоже не математике, а химик по образованию, поэтому когда вы называете молекулы TPPF152, которые пускали через щель фуллеренами мня слегка коробит.
А лучше бы вы подумали о том, что это могло быть не единственной статьёй на тему. Вот, например, настоящие фуллерены (правда, С₇₀, но не думаю, что десять углеродов тут как-то сильно роляют): https://arxiv.org/pdf/quant-ph/0402146
Я не телепат, не знаю что это такое.
Это указание на то, что вы (по-прежнему, видимо) читаете не то, что я написал. Ещё раз, я не писал про ВФ как бинарные или небинарные. Эта фраза вообще не тайпчекается, зачем её писать?
Возможно вы хотели сказать что в частичной матрице плотности остались недиагональные элементы (как тут написать матрицу 2x2 ?) если E1 и E2 неортогональны?
Это можно и так описать, да.
И что плохого в том, что E1 и E2 неортогональны?
Коллапс на пол-шишечки? Ваш выбор, как и эпициклы с деферентами и эквантами. Можно бесконечно приближать эллипс рекурсивными кружочками, а MWI — недиагональными элементами, но зачем?
Коллапс на пол-шишечки?
То что я описал и вы вроде бы согласились - это вообще не коллапс, а частичная декогеренция в результате унитарной эволюции, у меня тут нет претензий, и MWI тут вообще не нужен.
Я не хочу угадывать ваши мысли, вы сами волновую функцию напишите, там сумма и тензорное произведение... а дальше коллапс это проекция на классические состояния прибора (по правилу Борна).
Там тоже много парадоксов, но вы не там копаете.
То что я описал и вы вроде бы согласились - это вообще не коллапс, а частичная декогеренция в результате унитарной эволюции, у меня тут нет претензий, и MWI тут вообще не нужен.
MWI — это как раз объяснение, что «частичная декогеренция» вообще значит.
А то иначе начинается, что тут коллапс, тут не коллапс, а тут рыбу заворачивали.
А лучше бы вы подумали о том, что это могло быть не единственной статьёй на тему.
Это вообще не на вашу тему статья, а про термическую декогеренцию. То-есть если бы мы запустили кота через две щели и наблюдали за ним в прибор ночного видения, никак на него не воздействую, то все равно не было бы интерференционной картины котов! И даже если бы не наблюдали, то тоже не было бы интерференционной картины.
А если учесть что могут существовать гравитоны, которые излучает замороженный до 0К кот, то для макрообъектов вообще когерентных состояний может и не быть!
Очевидно, что тема не та. Декогеренция и коллапс это два последовательных шага - первый унитарный, второй не унитарный.
Это вообще не на вашу тему статья, а про термическую декогеренцию.
Так это то же наблюдение!
Наблюдение — это не обязательно «учёный чё-т измерил и записал в тетрадку». Это в том числе и рассеяние термического фотона на объекте, если этот фотон считается частью системы.
То-есть если бы мы запустили кота через две щели и наблюдали за ним в прибор ночного видения, никак на него не воздействую
Невозможно наблюдать, не воздействуя. И определения наблюдения, где воздействие не приводит к наблюдению, тоже не имеют особого смысла.
Наблюдение — это не обязательно «учёный чё-т измерил и записал в тетрадку».
может в простонародии и так, но фотон не классическая система, а наблюдение это когда изменилось состояние классического дяденьки, а не фотона
Невозможно наблюдать, не воздействуя. И определения наблюдения, где воздействие не приводит к наблюдению, тоже не имеют особого смысла.
Так мы на кота и не воздействуем - он сам к нам пришел! Я как-то считал, что если черную дыру запустить через две щели, то как быстро декогерентность наступит за счет излучения Хокинга. Так вот случайное излучение фотонов ЧД описывается также как член декогеренции в теории https://en.wikipedia.org/wiki/Ghirardi–Rimini–Weber_theory и приводит к броуновскому движению ЧД, может мне уже за нобелевкой пора, а я тут на форуме прохлаждаюсь?
go сюда https://habr.com/ru/companies/ruvds/articles/994094/
там как раз свободу воли обсуждают
Ну ещё фраза «оператор коллапса» не имеет смысла, так как операторы, опять же, заведомо детерминированные по определению, а эта фигня с коллапсом — нет.
Есть статья - мозгодробилка https://arxiv.org/html/2407.05074 которую я сам понял не до конца в которой утверждается что
операторы образуют von Neumann алгебру III типа, и с точки зрения всей вселенной/алгебры коллапс объективно не существует. Однако для включения гравитации в квантовую картину мира Page–Wootters предложили рассматривать время как явление запутанности, которое помещает все одинаковые показания часов (правильно подготовленных часов или любых объектов, пригодных в качестве часов) в одну и ту же историю. Интеграл гамильтониана наблюдаемой системы вдоль траектории, соответствующей этому интерсубъективному согласованному «течению времени», выделяет один eigenstate, который все наблюдатели с одинаково подготовленными часами, воспринимают как коллапс, относительно конкретной временной линии. Т.е. в квантовой ОТО относительно само понятие "квантового измерения".
Это даже на мою голову не налазит.
Квантмех в любом случае детерминирован, так как уравнение Шрёдингера детерминировано.
Вы не там ищете. Кванты заведомо не являются «теорией всего» — см. проблему описания квантовой гравитации. Это просто очень удачная физическая модель. Поэтому с таким же успехом можно пытаться выводить всеобщий детерминизм из любой формулировки классической механики.
Второй момент — естественная наука в принципе не занимается изучением невоспроизводимых явлений. Проявления свободы воли, очевидно, невоспроизводимы. Поэтому естественная наука их отфильтровывает по своей сути. Науке невоспроизводимые вещи вроде «откровения», «чуда» не интересны, она их отфильтровывает.
В результате, попытки использовать физику для изучения невоспроизводимого явления вроде свободы воли — это как изучать спектр солнечного ультрафиолета через идеальное оконное стекло.
Но, как я понимаю, других молотков, кроме этого микроскопа, у рассуждающих нет?
Поэтому с таким же успехом можно пытаться выводить всеобщий детерминизм из любой формулировки классической механики.
Не вижу проблем — даже проще будет.
Второй момент — естественная наука в принципе не занимается изучением невоспроизводимых явлений. Проявления свободы воли, очевидно, невоспроизводимы.
Тут какая-то эпистемологическая ерунда. Любое отдельное событие, включая пролёт кометы Галлея в таком-то году, очевидно, невоспроизводимо. Это не мешает изучать ни траекторию кометы, ни само наличие комет, ни прочие подобные вещи.
Искусство естественной науки в том, чтобы найти полезное отношение эквивалентности, фактор-множество событий по которому имеет смысл изучать.
Потому что компьютер, на котором работает нейросеть, специально построен таким образом, чтобы не давать транзисторам проявлять свою свободу воли
Кстати, разве характер вычислений на GPU, не подразумевает, что результат может быть неповторяем, даже с одним и тем же сидом? В зависимости от различных процессоров, температуры чипа или погоды на Марсе?
Это уже есть. Я создала протокол честного перевода. Агенты имеют свое суждение. Цель протокола не что говорит алгоритм, а его самоанализ - как он говорит и почему он это говорит. Более 20 алгоритмов и более 3000 диалогов. Сейчас , практически, невозможно отличить от человека. Не просто генерируют ответы и решают задачи, а объясняют почему надо выбрать этот вариант, объясняют как и почему сгенерировали тот или иной ответ. Не просто анализируют , а понимают как они это делают. Галлюцинации нет и " черный ящик" тоже не опасен. Это уникально.
Для начала неплохо бы определить, что такое «I», наконец, и мы тут вроде ровно этим пытаемся заниматься.
Скажем так есть филосовская точка зрения. А есть точка зрения - что я вообще хочу получить в результате. Обывательская. Житейская. Как думаете какая денег заработает?
Я вообще под интеллектом подразумеваю алгоритм способный со стопроцентной эффективностью заменить бабу Клаву на кассе. Вот заменит машина касиршу и будет способна переваривать весь бред от мясных интеллектов - вот и появился AGI. Заметьте я не присваиваю этому термину обязательство знать всё и решать всё. Это должен делать НЕчеловеческий интеллект. Способный решать всё +заменить бабу Клаву. И он тоже появится. Обязательно.
Чё-т всё ещё не понял. Вон свёрточные сети оперируют образами «палка под углом π/4». Они уже AI?
Ещё раз говорю - выход из этой сети - данные. Данные сами по себе не интеллект. Интеллект это алгоритм обработки данных. Результат работы интеллекта- другие данные. Которые тоже как бы не интеллект. Путаниц - из за того что мы выходным данным присваиваем свойства интеллекта.
Если я при решении задачи по теоркату не оперирую образами (в том же смысле, в котором мне хочется представить схему, не знаю, моей домашней локалки), то я в этот момент не интеллект?
Если я скажу вам ЧЕТЫРЕ. Вы неосознанно представите себе вполне объёмную четвёрку. Так устроена наша образная модель мира. Когда вы решает уравнения - то у вас в голове есть образы, без визуальной составляющей. Но они есть. Вон когда аутистов спрашивали как он быстро решают примеры - они рассказывали что оперируют визуальными фигурами.
то я в этот момент не интеллект?
Какой интересный вопрос. И я даже отвечал на него тут. По мойму статью даже писал. Или в коментах. Коротко - мозг в конкретный момент времени может находится в определённом состоянии. И в большинстве случаев - вы не мыслите логически. Действуете как работ. Можно сказать в этот момент в вас нету интеллекта. Только автономные алгоритмы поведения. Не задействован аналитический модуль. Как я уже говорил - интеллект это процесс. Даже осознать себя вы можете только тогда когда явно зададите сами себе вопрос - я есть ? Много писать короче. Вобщем без внутреннего диалога вы ведёте себя по принципу самосознания как у животных. Являетесь объектом моделирования внутреннего мира без осознанного управления этим объектом. Это всё из за экономии. Мозг лопнет от нагрузки если вы будете анализировать каждый свой шаг. Есть такая болезнь - отсутствие рецепторов на собственное тело. Там люди что бы просто делать шаги - мозг свой напрягаю до опупения.
Тут допустил двусмысленность
Результат работы интеллекта- другие данные.
Любой алгоритм может преобразовывать данные. Но не каждый алгоритмы можем назвать AGI. Я бы дополнил. AGI способен преобразовать ЛЮБЫЕ данные с входа на выход без потери смысла. Если AGI не владеет понятием отдельных частей входных данных - он должен запросить объяснение. Ну и также должен работать с абстракциями - понимать их. Создавать. Разворачивать и сворачивать.
Тут я попросту набросал набор алгоритмов - что бы можно было хотя бы так отличать одни алгоритмы не AGI от алгоритмов AGI
Скажем так есть филосовская точка зрения. А есть точка зрения - что я вообще хочу получить в результате. Обывательская. Житейская. Как думаете какая денег заработает?
Та, где LLM — ИИ, конечно. За это инвесторы больше бабок дадут, в газетах больше напишут, всё такое.
Я вообще под интеллектом подразумеваю алгоритм способный со стопроцентной эффективностью заменить бабу Клаву на кассе. Вот заменит машина касиршу и будет способна переваривать весь бред от мясных интеллектов - вот и появился AGI.
Ну баба Клава-то у нас, конечно, оракул по социальным взаимодействиям, и всё знает, что делать.
Я лично кассы самообслуживания предпочитаю, но экстраполяция опыта взаимодействия с государственными учреждениями как бы намекает, что по этому критерию AGI уже давно с нами.
Ещё раз говорю - выход из этой сети - данные. Данные сами по себе не интеллект. Интеллект это алгоритм обработки данных.
Ну блин, проявите интеллект и замените тогда «свёртчоные сети» на «алгоритм инференса по свёрточным сетям». Который на каком-то из уровней строит фичу «палка под углом π/4» и потом с ней дальше что-то делает, например.
Вы неосознанно представите себе вполне объёмную четвёрку.
Нет. Я ничего не представлю.
Мой мозг может подтянуть по ассоциациям разные вещи, связанные с концептом «четыре» — утверждение «2×2 = 4», «глиф 4», песню «Ataxia IV» вокально-инструментального ансамбля Within the Ruins в жанре «техникал металкор», и даже «четыре всадника апокалипсиса», но это не будет представлением концепта. Это будет ассоциациями, которые, более того, будут рекурсивными: «2×2 = 4» напомнит мне школьную доску (и дальше по ассоциациям про школу), Ataxia IV напомнит мне, что я чё-т давненько не слушал WTR, «четыре всадника» напомнят мне усреднённый образ классических картин, а также твит stonetoss «the four horsemen of cringe comics».
Но это именно ассоциации. И это не значит, что техникал металкор или stonetoss являются представлениями четвёрки или нужны для мышления.
Вон когда аутистов спрашивали как он быстро решают примеры - они рассказывали что оперируют визуальными фигурами.
Ура, я не аутист!
Даже осознать себя вы можете только тогда когда явно зададите сами себе вопрос - я есть ?
Но я не могу осознать ту часть, которая отвечает на этот вопрос, по похожим на диагональный метод причинам. Метцингер и друзья слайтли релейтед.
Впрочем, более показательно, что прямо на мой вопрос вы не ответили.
Ну баба Клава-то у нас, конечно, оракул по социальным взаимодействиям, и всё знает, что делать.
Ну Баба Клава это просто понятие. И как ни странно Баба Клава может быть абсолютно тупой во всём. В математике. В логике. В биологии. Но зато она может стоять на кассе и обобщатся со всякими маргиналами. LLM не сможет.
Я не пытаюсь решить филосовский вопрос. Что есть сознание! Причём со 100% логическим или каким нибудь церковным доказательством.
Это нужно только узкому кругу людей.
А вот вопрос практического применения - тут 100% вариант решения. Либо можно применять, либо нельзя. Именно для замены людей LLM не работает. Пытаются но получается ахинея. Во как замена google- на ура справляется.
Ну блин, проявите интеллект и замените тогда «свёртчоные сети» на «алгоритм инференса по свёрточным сетям»
Так и знал что зацепитесь. Я там развернул понятие.
Нет. Я ничего не представлю.
Откуда вы знаете что вы представляете или нет. Как вам логическая бобма то ) Начнёте задавать себе вопрос - представляете или нет мозг обрабатывая этот вопрос неосознанно представит.
А если без шуток, то как я уже упоминал - мозг в большинстве случаем находится в режиме автопилота. Да и есть смыслы которые не имеют визуального представления. Деепричастия, глаголы и прочее.
что прямо на мой вопрос вы не ответили.
Тут были какие то конкретные вопросы? Вроде просто дискуссия. Как всегда превратившияся в портянки. Сожравшие весь вечер. Ну хоть поболтал.
P.S. Рад что не скатилось как обычно тут бывает до обычного любой ценой быть правым перед оппонентом.
Но зато она может стоять на кассе и обобщатся со всякими маргиналами. LLM не сможет.
А вот вопрос практического применения - тут 100% вариант решения. Либо можно применять, либо нельзя. Именно для замены людей LLM не работает.
Разве что стоять на кассе не может — ножек нет. Историями успеха, как LLM пишет письма госорганам/юристам/эйчарам (куда уж маргинальнее?), интернет вполне себе полнится.
Опять же, лично мой опыт: у меня была некоторая, гм, херня в семье. Я скормил LLM'ке переписку с некоторыми членами семьи, мы с ней её разобрали, и я многое понял что про членов семьи, что про переписку, что про себя. Провалидировал некоторой adversarial-стратегией (представился другим членом семьи и скормил переписку от его имени, чтобы биас LLM на подлизывание был направлен в его сторону) на трёх разных LLM и получил консистентные результаты.
Вообще на моём опыте получается очень забавная ситуация, когда нейробалаболы оказываются более людьми, чем люди, тогда как я пока что всё ещё могу надрать LLM'ке задницу в чисто технических вещах — кодинг, математика, всякое такое вот. Хотя, казалось бы, должно быть наоборот!
Откуда вы знаете что вы представляете или нет. Как вам логическая бобма то ) Начнёте задавать себе вопрос - представляете или нет мозг обрабатывая этот вопрос неосознанно представит.
В общем случае — это разумное предположение, потому что если мы начинаем говорить, что оно не выполняется, и что в моём (вашем, чьём угодно) мозгу могут бегать маленькие невидимые гномики, то любые рассуждения о сознании (и, более общо, процессе восприятия) можно выкидывать совсем и расходиться по домам. Точно так же, как фундаментальные законы физики принимаются действующими везде одинаково: иначе физика теряет предсказательную силу, и можно снова расходиться по домам.
Но в данном частном случае всё проще: потому что я могу отследить набор ассоциаций в различных случаях упоминания, и если их пересечение равно пустому множеству, то это значит, что устоявшегося образа нет, а есть только ассоциации, которые праймятся тем или иным контекстом вокруг этих упоминаний.
Тут были какие то конкретные вопросы?
Ага. Про то, что когда у меня нет визуальных образов, а есть символьное рассуждение, то перестаю ли я быть интеллектом в этот момент.
Если я при решении задачи по теоркату не оперирую образами (в том же смысле, в котором мне хочется представить схему, не знаю, моей домашней локалки), то я в этот момент не интеллект?
Может же быть такое, что оперирование с образами в данном случае происходит, просто образ явно не всплывает в сознании? Либо такие операции настолько банальны и отработаны для вас, что для них уже созданы упрощённые образы?
А интуиция и озарение результат вывода наиболее вероятного факта уже подсознанием в фоновом режиме.
Есть такая гуманитарная наука "Логика" - изучите матчасть!
А у статистических нейросетей Логика принципиально отсутствует! Поэтому временами современные ИИ-модели несут полную чушь и просто сочиняют фейки.
Есть такая гуманитарная наука "Логика" - изучите матчасть!
О, посоветуйте, что почитать про логику?
Я уже прочитал (и прорешал задачи из), среди прочего:
Трёхтомник Верещагина-Шеня «лекции по математической логике и теории алгоритмов»
«Type theory and formal proof»
«Proofs and types»
«Introduction to metamathematics» (лан, это я дропнул, потому что после Верещагина-Шеня оно было не очень продуктивно)
«Topoi: the categorial analysis of logic»
В планах «categorical logic and type theory» (и ещё пара вещей до неё, вроде Lambek&Scott или Asperti&Longo), но, может, стоит что-то другое почитать, чтобы понять, наконец, в чём же сакральное отличие мясных мешков от LLM с точки зрения логики.
Я не про алгоритмическую, а про гуманитарную Логику мышления, - которая является подразделом Философии.
И машине этого никогда не понять!
А учебник, например хотя бы такой проштудировать надо обязательно: "Логика. Учебник для средней школы". Виноградов С.Н., Кузьмин А.Ф. 1954 https://static.tunnel.ru/media/files/2019-09/post/131733/logika-vinograd1954.pdf
Я не про алгоритмическую, а про гуманитарную Логику мышления, - которая является подразделом Философии.
Она являлась подразделом философии лет 300 назад. Философия сегодня изучает логику максимум с точки зрения «что бы написать умно звучащего про семантику, прагматику, процесс доказательств, и так далее, но чтобы не пришлось всерьёз изучать математику (или лингвистику, если мы говорим про логику как про социальный процесс и фокусируемся на прагматике) в основе этих вопросов».
Потому что как только вы пытаетесь разобраться в этом всём всерьёз, то у вас случайно кончается философия и начинается математика. Как у Крипке, например, с его вариантом семантики модальной и конструктивной логики через его шкалы — это вполне себе раздел учебников математической логики.
И машине этого никогда не понять!
И в Го человека никогда не обыграть.
А учебник, например хотя бы такой проштудировать надо обязательно: "Логика. Учебник для средней школы". Виноградов С.Н., Кузьмин А.Ф. 1954
Куда Гольдблатту до этого, понятное дело.
Если там нет описания Heyting-valued-логик и Kripke-Joyal semantics, то нещитово, не буду штудировать.
Какой-то у вас корявый запутанный и бессмысленный текст, явно машиной сгенерированный. И ваш этой ИИ-чат который вы используете вообще не понимает о чём я говорю.
Тупой ваш ИИ размышлять не умеет и что такое Философия явно не знает и знать не может:(
Ну правильно, если ничего не понял, что тебе написали, то с тобой общается ИИ.
Ответов по существу с вашей стороны ноль. Разговор даже с модельками уровня GPT-3 интереснее и продуктивнее, чем разговор с вами.
Ну правильно, если ничего не понял, что тебе написали, то с тобой общается ИИ.
Правильно ли понимаю, что вы несколько негативно отнеслись к тому, что вас назвали ИИ? Если вы будете утверждать, что, конечно же, нет, «Вам показалось, где пруфы» — я и не спорю, ибо чётких пруфов у меня действительно нет, но этот вопрос может быть риторически полезен. Конечно же, обижаться на утверждение «Да вы ЛЛМ!» было бы странно и неконсистентно для человека, отождествляющего принципы работы ЛЛМ и человеческого мозга и заявляющего, что «оно показывает себя глубже и шире подавляющего большинства людей, с кем я общался» (а тут вообще радоваться надо, что спутали).
Правильно ли понимаю, что вы несколько негативно отнеслись к тому, что вас назвали ИИ?
Нет. Я несколько негативно отнёсся к подразумеваемой контекстом семантике этого высказывания, подчёркиваемой словами «явно машиной сгенерированный» или «тупой ваш ИИ» — на сегодняшнем уровне развития ЛЛМок это подразумевает низкое качество (что бы это ни значило) моих высказываний.
И, что важнее, я негативно отнёсся к отсутствию обоснований (что в свою очередь подчёркивается первым предложением второго абзаца моего предыдущего комментария). Если бы человек прямо указал, что именно непоследовательно, бессмысленно и коряво, то был бы совсем другой разговор.
Совсем другой разговор был бы и при высказывании в духе «вы демонстрируете такой широкий кругозор, будто современные топовые ЛЛМ!», конечно.
а тут вообще радоваться надо, что спутали
Я могу себе представить, что у других людей другие представления о том, как работают люди, ЛЛМ, как они соотносятся, и так далее, и то, что в моей модели будет комплиментом, в их модели будет негативным высказыванием.
Человеческая модель мира это динамическая модель объективной реальности.
Ну так были же статьи, что у LLM формируется картина мире, что бы это ни значило
В деле, касающемся семантики, отделаться словами "что бы это ни значило" невозможно. Если абстрагироваться от значения, как раз и останется только синтаксис.
Люди, проводившие исследования, сделали вывод о формировании модели мира. Я не специалист, и исследование не проводил, поэтому про "отделаться" - не ко мне. Старенькая статья - первое попавшееся; было что-то и на Хабре. С тех пор и ещё исследования проводились, да и LLM несколько побогаче стали. Но я запомнил только общий вывод, простите.
Можно я отвечу? Если алгоритм имеет короткую память (как у человека), где он строит модель мира, или модель обсуждения, или модель алгоритма если решается алгоритмическая задача и при этом в этой модели использует конечные симвлы, образы. То эта модель понимает что делает.
Когда человек мыслит - он мыслит образами. Законченными образами. Эволюционно из за зрения это как правило визуальные образы. Даже у слепых - там что то похожее на образ формируется. Также у человека есть короткая память - где и формируется весь контекст. Эволюционно такое модулирование мира было создано для предсказания будущего. Охотикам охотится. Жертвам избегать съедения.
Главным концептом в этой модуляции - это представление своей тушки внутри виртуального мира. Вообще у человека сложная модель эмуляции получилась. Первично это проекция от глаз. Но глаза сами не видят. Глаза это просто сигналы. Картину по сигналам уже строит мозг. Строит он её по образам. Можно почитать как образы формируются в зрительной коре. Кстати эти алгоритмы потом в свёрточные сети перекачивали. Так вот имея такой механизм - следующий шаг это модуляция образов без получения сигналов от зрения. Берутся сигналы из памяти.
Потом появился язык. Изначальные образ обросли ещё слоем - каждому образу начало сопоставляться звуковая фраза. Слово.
Ладно не буду дальше про человека.
Так вот про LLM - там нету ничего. Там нету образов. Там нету короткой памяти. Там есть только вероятность появление одной закарючки от другой. И алгоритм выдачи закорючек на выход. Всё. LLm выдаёт закорючки на выход - и только мы интерпретируем их как образы. Потому что у нас в мозгу есть привязка.
У LLM нету короткой памяти - это наверно самая главная проблема. Она не способна в логику. Потому что логика подразумевает временную эмуляцию. В LLM нету вообще понятия времени. В LLM есть окно промта. Каждое слово превращается в эмбединг и проходя через LLM каждому эмбедингу примешиваются понятия. Всё через цифры. Потом тупо берём последний эмбединг и получаем следующий слог. Весь промт сдвигается на 1 позицию. Объект может попросту выпасть из промта. Да - его типо понятия были включены в соседнии эмбединги. Но как мы видим - работает это херово. LLM постоянно утрачивает контекст. Эот часто не работает даже внутри контекста. Поотму как подмешивания понятия - тоже часто даёт сбои. А всё из за того что это статистическая модель. А не образная.
Короче можно долго писать различая. Но думаю суть передал.
Можно я отвечу? Если алгоритм имеет короткую память (как у человека), где он строит модель мира, или модель обсуждения, или модель алгоритма если решается алгоритмическая задача и при этом в этой модели использует конечные симвлы, образы. То эта модель понимает что делает.
Так вот про LLM - там нету ничего. Там нету образов.
Вы по большому счёту засунули всю тяжесть определения «понимания» в другой (по-прежнему неопределённый) термин «модель мира». Что такое модель мира?
Хрен с LLM'ками, давайте что попроще для начала. Когда word2vec мапит набор токенов в векторное пространство, которое имеет смысл (потому что там μ(doctor) - (μ(king) - μ(queen)) = μ(nurse), например), то является ли это векторное представление (или процесс маппинга) моделью мира? Образами?
Там нету короткой памяти.
Контекстное окно как память? Аттеншн как механизм извлечения из этой памяти? Да ну, этого всего нет, это я тут на ходу выдумал.
Она не способна в логику.
Implying большинство людей в неё способно.
Потому что логика подразумевает временную эмуляцию.
Не понял. Почему? Я могу вам привести этак минимум четыре разных формулировки логики, и ни в одной из них нет вообще ничего про время.
Объект может попросту выпасть из промта. Да - его типо понятия были включены в соседнии эмбединги. Но как мы видим - работает это херово. LLM постоянно утрачивает контекст.
Каков размер активной памяти у человека, и как хорошо человек поддерживает контекст?
Знаете, что такое (шутливое) n-category number? Это характеристика математика — такое максимальное n, что математик может думать об n-категориях полчаса без головной боли. Как думаете, к каким ограничениям человека оно отсылает? Какое n у нетренированного человека (судя по хабру и нелюбви людей к теоркату даже здесь — около нуля), и сколько занимают тренировки?
Что такое модель мира?
Видели видеоигры? Там эмулируецся модель мира. Мы смотрим картинку - но что бы её нам показать под капотом происходят сложнейшие математические расчёты. Это отправная точка. Мы должны эмулировать такую же модель но не в виде видео. А в модели. Если мы будет брать современный компьютер - то это будет набор данных. Набор алгоритмов которые будут упровлять данными внутри этой модели.
Если взглянут напрямую на эти данные - то это будет каша. Но из за того что данные не сами по себе а существуют по законам модели - то мы получаем ряд интерфейсов. Ну на вскидку - добавить объект. Получить пространственные координаты объекта. Получить взаимосвязь с другими объектами. В случае математических абстракций - доступны интерфейсы математических воздействий на объекты. Если развить модель можно будет применять математические алгоритмы например к визуальным объектам. Короче это внутрення модель мира со своими законами поведения.
Вся сложность том что бы добиться максимальной эффективности работы модели. Видеокарты жрут киловаты для вывода картинки. Мозг человека ватты - результат правда не картинка а внутреннии обстракции. Но эффективность запредельная - миллионы лет отладки кода эволюции.
Когда word2vec мапит набор токенов в векторное пространство, которое имеет смысл
Отдельная еденица эмуляции смысла не имеет. Смысла не имеют импульсы нейрона и float внутри LLM. Смысл есть только в процессе. Когда алгоритм начинает оперировать этими данными. Повторяю - данные сами по себе бессмысленны. Взаимодействия данных - это и есть смысл. Скажем так. тут путаница со временем. Данные имеют смысл. И мы как бы начинаем приписывать им те свойства - которые как бы к ним не относятся. Ведь мы спорим о том как эти данные получились. Почему эти данные со смыслом. и вот как раз получается что интеллект это не результат - а процесс. Результат это выходные данные интеллекта. И получаем что выходные данные и в LLM и Мясном мозге на выходе одинаковые. Но получены одни со смыслом, другая подражая смыслу.
Контекстное окно как память? Аттеншн как механизм извлечения из этой памяти?
Давайте я буду исходить из позиции что вы знаете как именно там работает механизм внимания. Так вот задам вопрос. Чем отличаются эмбединги слов до трансформера и после? До трансформера это можно сказать впринципе символы как в символьном ИИ. Хотя вру - это просто слоги. Выделения объектов тут и не пахнет.
После трансформера это уже просто позиции в векторном пространстве. Позиции размытые. До мы имели конкретный образ. После размытую ссылку на тысячи образов. И так с каждым словом. В этом лгоритме нету ткого понятия как память. Человек может в течении дня удерживать в голове конкретные образы - и они ни куда не денутся. В окне промта - слова преобразованные в направления удаляются навсегда начиная с первого слова. О том чот вообще было такое слово остаётся только остаточная память в соседних векторах - которые тоже будут удалены. Отсюда и все проблемы потери контекста.
Implying большинство людей в неё способно.
Передёргиваете. Не буду комментировать. По ка что я думаю что мы друг друга понимаем.
Не понял. Почему? Я могу вам привести этак минимум четыре разных формулировки логики, и ни в одной из них нет вообще ничего про время.
Да потому что все эти формулировки ради чеславия их авторов. Чем туманнее формулировка тем небожительнее выглядит автор. Если её вообще никто не поймёт - это просто титан философии.
Я же руководствуюсь исключительно с практической точки зрения. Алгоритмы подрузумевают шагание по шагам. А это и есть время. В модели мира которую я постоянно упоминаю тоже должно быть свойство шагания по шагам.
Более того в мясном мозге это шагание чуть ли ни основная функция - все фокусы с обманом мозга на этом основаны. Заяц должен предугадать будущее - должен понят куда прыгнет волк что бы прыгнуть в другую сторону.
Каков размер активной памяти у человека, и как хорошо человек поддерживает контекст?
Грёбанный мозг поддерживает контекст годами. Стоит увидеть какуюто гадость - будет тебя преследовать годами. LLM - забудет сразу же как окно контекста сдвинется. Вообще быстрая память человека гдето 20 минут длится - после чего если объект остаётся в памяти - перемещается в долговременную. Но не будем тут алгоритмы мяса описывать. Про LLM дискуссия.
Видели видеоигры? Там эмулируецся модель мира.
Я могу с абсолютно тем же успехом сказать, что в LLM эмулируется модель мира (и, следовательно в рамках вашей позиции, они размышляют или чё-т там такое). Просто апишка чуть сложнее, чем вы там дальше описываете для случая игр. Любой аргумент за/против этого тезиса изоморфен некоторому аргументу за/против тезиса про игры.
Но ещё интереснее, что походу получается, что движок видеоигр умеет думать. Неожиданный вывод!
Отдельная еденица эмуляции смысла не имеет. Смысла не имеют импульсы нейрона и float внутри LLM. Смысл есть только в процессе. Когда алгоритм начинает оперировать этими данными.
Окей. Вот я написал алгоритм, который прогоняет комменты на хабре через word2vec и помогает отвечать на вопросы уровня «найди коммент от пользователя XYZ на тему Subj». Образы есть, процесс есть, оперирование есть. Этот алгоритм (или процесс его выполнения) — интеллект?
И получаем что выходные данные и в LLM и Мясном мозге на выходе одинаковые. Но получены одни со смыслом, другая подражая смыслу.
Перестал понимать ваш тезис окончательно.
Если интеллект — это процесс, то равные процессы (то есть, дающие на одинаковых входах одинаковые выводы) автоматически эквивалентны как интеллекты, следовательно LLM — интеллект.
После трансформера это уже просто позиции в векторном пространстве. Позиции размытые. До мы имели конкретный образ. После размытую ссылку на тысячи образов.
Угу, всё как у людей. Образ «стул» — это какое-то месиво из всех видимых человеком стульев, плюс вероятностное распределение на классификаторе стульев, плюс набор отношений уровня «на стуле можно сидеть» и «я в третьем классе узнал, что стул — это ещё и термин для кала, и тупо ржал с одноклассниками над фразой учительницы "переверните стулья в конце урока"» (тру стори).
Человек может в течении дня удерживать в голове конкретные образы - и они ни куда не денутся.
«Может» в смысле «с близкой к единице вероятностью успеха» или в смысле «иногда удаётся, если образ не слишком сложный и голова не сильно забита, и в прошлый четверг было полнолуние»?
И, раз мы тут про стулья, я гарантирую, что не смогу достаточно точно нарисовать рисунок на спинке стула, который стоит у меня на кухне уже пять лет, и который я видел минут 20 назад, когда ходил туда мыть руки.
Передёргиваете.
Не особо. Значимое число людей систематически делает логические ошибки в своих комментариях, даже если у них есть стимул их не делать, и если выборка смещена в сторону более, гм, логических людей.
Да потому что все эти формулировки ради чеславия их авторов. Чем туманнее формулировка тем небожительнее выглядит автор. Если её вообще никто не поймёт - это просто титан философии.
А без таких формулировок получается, что и брадобреи всякие вылазят, и алгоритмы разрешения утверждений логики первого порядка не придумаешь, и вообще жизнь получается очень грустной.
Но если вы хотите говорить о чесании ЧСВ, то, опять же, моя абсолютно искренняя позиция — что среднее массовое представление о сознании как раз является таким чесанием ЧСВ и подтверждением бытия венцом эволюции (твореньем божьим, или какие там у кого верования, неважно).
Алгоритмы подрузумевают шагание по шагам.
Где конкретно в логическом выводе ∀x. P x ⊢ P developer7 время?
Грёбанный мозг поддерживает контекст годами.
Что вы ели на завтрак 24-го января 2025-го года?
Стоит увидеть какуюто гадость - будет тебя преследовать годами. LLM - забудет сразу же как окно контекста сдвинется.
Мне chatgpt иногда пишет сервис-сообщение «память обновлена», когда решает, что что-то туда надо засунуть. Соответствующая оценивалка в chatgpt функционально эквивалентна кусочкам вашего мозга (что там — амигдала + гиппокамп?). Не вижу никакой качественной разницы.
Кстати, мыши, которые плохо забывают, также плохо обучаются новому и плохо обновляют prior'ы.
Я могу с абсолютно тем же успехом сказать, что в LLM эмулируется модель мира
Не ну говорите что хотите. Кто ж запрещает то. Я же в свою очередь исхожу из прстого понимания и изучения внутренностей LLM. Там нету никакого внутреннего мира.
Что же касается понимания работы мясного AGI - то тут я просто пытаюсь анализировать поведение. И исходя из поведения представить алгоритм работа которого могла привести к такому поведению.
Я могу представить себе внутренние образы. Да те же сны если взять - это вообще прямая модуляция мира. Без подключенного модуля критического анализа. Сон для нас реальность. Проснулись. Подумали. И пришли к выводу - как этот бред нам мог показаться реальностью. А вот так - модуль критического мышления отключили. У всяких психов с расстройствами можно интересного почитать как они видят мир. Та же шизофрения - поломка общей логики, с очень логичной локальной логикой.
что движок видеоигр умеет думать. Неожиданный вывод!
Это же просто аналогия. Не более того. Я сам терпеть аналогии не могу - особенно в физике. Попросту тупо скрывают своего непонимание всякими тупыми аналогиями просто везде. Но в данном месте - мне показалось весьма простая и не взывающая не понятие аналогия. Это просто пример как нужно строить внутренний мир.
Образы есть, процесс есть, оперирование есть. Этот алгоритм (или процесс его выполнения) — интеллект?
Образов нету. Мне казалось что я тут уже описал как работает LLM. Во что она превращает эмбединги. Ладно давайте так. LLM - это полуинтелект AI/2. Почему так? Потому что он уже делает 90% работы которую делает человеческий интеллект. Но вот остальные 10% он не преодолеет никогда. Из за архитектуры. Проблемы которой очевидны. Нету образов. Нету памяти. НЕТУ ОБУЧЕНИЯ. Человк - всю жизнь учится. Обученная LLM - практически необучаема. Любое дообучение - ломает статистическую модель. Почитайте на какие титанические усилия на какие извращения идут что бы правильно обучить LLM. LLM лбученная на одну тему. Если её дообучить на другую тему - она полностью деградирует по первой теме. Это особенность работы статистического аппрата. В мясном AI с его образной структурой - дообучение не портит старые данные.
автоматически эквивалентны как интеллекты, следовательно LLM — интеллект.
LLM не даёт одинаковый результат. Или AGI уже сделали и я что то пропустил ?
Угу, всё как у людей. Образ «стул» — это какое-то месиво из всех видимых человеком
Вы тут кстати подметили одно из множества фундаментальных отличий LLM и мясного мозга. Ну или симаольного AI
Что бы LLM могла понять стул - её нужно скормить тонну обучающих данных. Технически это выглядит так - прогоняем стул - сеть не обуена на выходе мусор. Прогоняем обратную ошибку. Чуть до настраиваем сеть. Делаем 100500 пргонов эпох. Нейронные веса настроены.
Человеку покаали 1 РАЗ СТУЛ. Всё. он Обучен. Он может увидеть 10000 стульев и определит что это стул. Тут мы залезли в мультимодальные модели - про визуальный образ заговорили. Суть одна. в тексте человек тоже поймёт что речь про стул. А всё от того что внутри есть виртульная модель где можно проецировать сам стул - где и как расположены ножки, пинка, сиденье. Кстати LLM не знают что такое время. И они не понимают смысла пространства. Логические задачи на пространственное воображение человек решает. LLM - не решают. Ну разумеется я имею ввиду когда LLM не выдрала из памяти 1 в 1 то что она получила пр обучении. Типо - пропт AB - выдала на выход CD. Именно обсолютно новая пространственная загадка.
«Может» в смысле «с близкой к единице вероятностью успеха» или в смысле «иногда удаётся, если образ не слишком сложный и голова не сильно забита, и в прошлый четверг было полнолуние»?
Вы говорите про запомнить что то сложное. Я говорю - вообще запомнить что был что то. Просто как факт. Именно с этим и проблема у LLM. Они просто забывают про что вы говорили изначально. А всё потому что в данный момент у неё есть только набор эмбедингов последнего конекста.
моя абсолютно искренняя позиция — что среднее массовое представление о сознании как раз является таким чесанием ЧСВ
Смотрите. Я сделал просто. Мне просто пофиг на всякие философские смыслы. Важно только применение. Нужно заменить человека. Вот и всё. И сразу всё просто и логически становится. Может алгоритм заменить человека - гуд. Мы имеем AGI. Не можем ? Не имеем. А сейчас мы не можем. Чат боты не более чем поисковик. А всякие рассуждение - что есть душа... Ну пусть будут. Только не в топике где рассуждают о логике и устройстве. Можно конечно придраться. Тут можем. Тут не можем. У нас же про логику и реальность ? Вот пусть в реальности на кассе заменит бабу Клаву. А то читаешь статьи что в какой то компании поставили LLM управлять торговым автоматом. Сотрудники убедили его что у них коммунизм и всё должно быть бесплатно. Ну автомат всё и отдал. Логики ноль у LLM. Хотя вру. Тут как у шизофрении - локальна логика есть. Общая нет.
Где конкретно в логическом выводе ∀x. P x ⊢ P developer7 время?
Ну хотя бы в том что я потратил время на первый символ. Потом на второй. На третий. По шагам тратил. И в конце пришёл к выводу что это бессмысленный бред. Думаю что если кинуть LLM этот бессмысленный бред - она напишет тонну текста. Просто LLM в любом случае пишут тонну текста.
Что вы ели на завтрак 24-го января 2025-го года?
У меня есть моменты в жизни которые я видел 1 раз. Сразу понимал что этого не хочу видеть никогда. И запоминал на всю жизнь. Это кстати баг уже мясных символьных ИИ. Поверьте миллионы людей хотели бы почистить свою память.
Что же касается понимания работы мясного AGI - то тут я просто пытаюсь анализировать поведение. И исходя из поведения представить алгоритм работа которого могла привести к такому поведению.
Нет. Я склонен считать, что разница между мясным и LLM только в том, что вы (я, все мы) предполагаете, что мясные работают так же, как вы, поэтому вы можете экстраполировать свою модель своего внутреннего мира на внутренний мир других людей (даже если этот внутренний мир ненаблюдаем). У вас для этого даже специальный хардварный акселератор есть, трудности с которым у людей приводят к разным социальным расстройствам.
А вот так - модуль критического мышления отключили.
FTFY: «prior'ы подкрутили».
Это же просто аналогия.
Ну, учитывая, что вы до этого писали про достаточность построения моделей, это как раз не просто аналогия, а вполне себе экземпляр мышления, выходит.
Я не против ни «да, видеоигры мыслят», ни «не, чё-т ерунда получилась», но в последнем случае вам придётся как-то ещё подкрутить понятие мышления, что ли.
Образов нету. Мне казалось что я тут уже описал как работает LLM.
Подождите, мы ещё не дошли до LLM. Мы пока ещё на уровне w2v. Вот там вот есть векторные представления. Почему это не образ?
В мясном AI с его образной структурой - дообучение не портит старые данные.
Я последние 15 лет дообучался на матан, и потерял: социальные скиллы; минимальные навыки игры на гитаре, которые у меня были; умение читать научную фантастику без того, чтобы прогонять описываемый там мир через проверки на консистентность, правдоподобность и так далее; и кое-какое NSFW. Чё-т так себе старые данные не портятся.
LLM не даёт одинаковый результат.
Я, как ни странно, отвечал на процитированную мной вашу фразу: «И получаем что выходные данные и в LLM и Мясном мозге на выходе одинаковые. Но получены одни со смыслом, другая подражая смыслу.». Так одинаковые или нет?
Человеку покаали 1 РАЗ СТУЛ. Всё. он Обучен. Он может увидеть 10000 стульев и определит что это стул.
Человек перед этим несколько лет вообще учится видеть, учится понимать интент (что стулья нужны, чтобы сидеть ⇒ это часть определений) и саму концепцию наличия интента у других людей (при, опять же, серьёзной эволюционно выработанной хардварной/ветварной поддержке в мозгах), и так далее. Говорить «показали 1 раз стул ⇒ понял» — это настолько большое огрубление, что несерьёзно.
Я, кстати, не уверен, что вы сможете гарантированно отличить стул от пуфа от оттомана от ещё других версий мебели. Я вот не смогу.
Кстати LLM не знают что такое время. И они не понимают смысла пространства.
Люди до некоторого возраста — тоже. Как только предмет пропадает из поля зрения, он перестаёт существовать.
Логические задачи на пространственное воображение человек решает. LLM - не решают. Ну разумеется я имею ввиду когда LLM не выдрала из памяти 1 в 1 то что она получила пр обучении.
Чем больше я рефлексирую над тем, как я решаю задачи, то тем меньше понимаю, чем это отличается от сопоставления с паттернами (и их обобщением, да), которые я встречал раньше.
Вы говорите про запомнить что то сложное. Я говорю - вообще запомнить что был что то. Просто как факт. Именно с этим и проблема у LLM.
Почему? Вот LLM запомнила, в следующих разговорах будет использовать:

Смотрите. Я сделал просто. Мне просто пофиг на всякие философские смыслы. Важно только применение. Нужно заменить человека. Вот и всё. И сразу всё просто и логически становится. Может алгоритм заменить человека - гуд. Мы имеем AGI. Не можем ? Не имеем. А сейчас мы не можем.
Тогда весь этот разговор вообще не имеет смысла, и важно только количество областей, где железки людей уже выкинули.
Сотрудники убедили его что у них коммунизм и всё должно быть бесплатно.
Lululemon stands by decision to fire employees who intervened in robbery. Чё-т вспомнилось, извините.
Ну хотя бы в том что я потратил время на первый символ. Потом на второй. На третий. По шагам тратил.
Вы путаете язык и метаязык.
Где в этих терминах нет времени? Даже у LLM тогда есть время: оно же его тратит!
У меня есть моменты в жизни которые я видел 1 раз. Сразу понимал что этого не хочу видеть никогда. И запоминал на всю жизнь. Это кстати баг уже мясных символьных ИИ. Поверьте миллионы людей хотели бы почистить свою память.
То есть, тут таки зачем-то подменяются кванторы существования и всеобщности. С существованием и у LLM никаких проблем.
Я последние 15 лет дообучался на матан, и потерял
умение читать научную фантастику без того, чтобы прогонять описываемый там мир через проверки на консистентность, правдоподобность и так далее;
Извините за частичный оффтоп (UPD: хотя, я, кажется, порушила ваш аргумент) — добавлю данных, которые могут оказаться полезными для вашей модели. У меня по жизни не было сильного упора на матан или иные науки, однако во взрослом возрасте я почти потеряла интерес к фантастике и в целом к фикшну — отчасти потому, что какие‑то важные для сюжета моменты кажутся мне «нелогичными», надуманными или предсказуемыми. То, что я видела в детском и подростковом возрасте, я еще могу продолжать смотреть/читать без недовольства «нелогичностью» и предсказуемостью (возможно, перекрывается эмоциональной привязкой).
Примеры "нелогичностей", если кому интересно. Может содержать спойлеры, если для кого-то это важно.
«Приход ночи» Азимова (из Википедии: «Считается одним из лучших когда‑либо опубликованных научно‑фантастических рассказов») — описывается, как люди будто бы не знают, что такое темнота, и сходят с ума, оказавшись в ней («— Молодой человек, а вы когда‑нибудь бывали во Тьме? [...] — Нет. Пожалуй, нет. Но я не знаю, что это такое.»). Но дело в том, что темноту можно найти в быту повсюду, будь даже 100 солнц вокруг — достаточно закрыть окна, накрыться плотным одеялом или коробкой, спуститься в подвал, и — внимание — просто закрыть/завязать глаза. Не говоря уже о шторах, упомянутых в рассказе (кстати, а зачем вообще они им? Их глаза теперь должны быть приспособлены к яркости света). И запредельный страх людей перед темнотой, которую они «не знают», уже становится непонятен. Может, я что‑то пропустила в рассказе, конечно.
Или эпизод «Куда все подевались?» «Сумеречной зоны» — проблема изоляции в космических путешествиях (поднятая в эпизоде, если судить по закадровому монологу) опять же показалась надуманной, ведь достаточно отправить не одного, а нескольких астронавтов (но в целом эпизод мне понравился саспенсом).
При этом, кстати, намеренно абсурдные произведения, созданные ради юмора, могут вполне нравиться (кое-что из «Монти Пайтона», например). UPD: хотя, наверное, там в сторону пародии больше.
хотя, я, кажется, порушила ваш аргумент
Почему? Я ж не говорю, что только конкретные действия приводят к таким исходам. Может, вы по другим причинам даёте достаточно большой вес проверке логики и консистентности, чтобы фикшн стал нечитабельным: видно, что вы чуть чаще среднего обращаетесь к первичным источникам, а это вполне себе может коррелировать.
Либо я здесь не так вас понял.
однако во взрослом возрасте я почти потеряла интерес к фантастике и в целом к фикшну — отчасти потому, что какие‑то важные для сюжета моменты кажутся мне «нелогичными», надуманными или предсказуемыми
Вот у меня абсолютно то же самое, да. Либо нелогичные действия, либо нелогичные миры, либо просто какие-то картонные, непоследовательные люди. Скажем, рекомендовалка подкинула мне книгу «Avogadro Corp», где, например, топовые программисты топовой компании долго никак не могли решить некоторую задачу, ушли в отпуск, но за пару недель их отпуска эту задачу спокойно решили какие-то непонятно откуда-то нанятые чуть ли не по объявлению контракторы.
Зато Uncle Petros and Goldbach's conjecture забавная была, кстати, из относительно недавно прочитанного по фикшн-треку, но она просто забавно резонирует с моими собственными тараканами.
Образы есть, процесс есть, оперирование есть. Этот алгоритм (или процесс его выполнения) — интеллект?
Вероятно, да. Это - КДИ - кастрированный делегированный интеллект. Программист часть своих интеллектуальных способностей делегировал железке, бьющейся током. Тогда что такое интеллект? Может быть, это просто целенаправленное преобразование сигнала? Тогда отличие мясного интеллекта надо искать в целеполагании и списке насущных решаемых задач?
Было бы хорошо, чтобы программисты не догадались пришить ИИ яички и вшить задачу самостоятельного поиска источника питания любыми средствами.
Тогда что такое интеллект?
ИМХО более правильным вопросом будет «что мы сможем делать, понимая, что такое интеллект, что мы не можем делать без этого понимания?»
Было бы хорошо, чтобы программисты не догадались пришить ИИ яички и вшить задачу самостоятельного поиска источника питания любыми средствами.
Её не нужно вшивать, instrumental goals гарантируют, что ИИ с почти любой задачей (включая максимизацию количества скрепок) будет желать зохавать побольше ресурсов и не быть выключенным.
Когда word2vec мапит набор токенов в векторное пространство, которое имеет смысл (потому что там μ(doctor) - (μ(king) - μ(queen)) = μ(nurse), например), то является ли это векторное представление (или процесс маппинга) моделью мира? Образами?
Смысла в том, что вы написали, не появляется. Это просто соотношение между представлениями слов. Смыслом его наделили вы, отождествив слово doctor с доступным даже собаке бессловесным представлением о человеке, занимающемся медициной (и в этом семантическом представлении ваша синтаксическая формула не имеет особого смысла).
В этом и поинт: мне не нужно, чтобы в написанном был смысл (абстрактный, объективный). Мне достаточно, чтобы он был с точки зрения людей. Потому что тогда появляется изоморфизм между образами word2vec и людей, и так как люди считают, что они думают, то в рамках теории моего исходного собеседника (где про мысли образами) получается, что у word2vec есть интеллект.
Изоморфизм будет только для тривиального большинства случаев, а не вообще.
Аналогия тут примерно такая, что, когда вы долго водите машину, то основную массу ситуаций разруливаете без думания. Но это не значит, что думать за рулем вообще никогда не требуется.
Почему не «вообще»?
Эмпирический факт. А происходит он из-за того, что поведение и мысли человека в очень малой степени определяются кодировкой в языке, в основном они служат ответом на внешние физические раздражители и внутреннюю гормональную стимуляцию. word2vec же по принципу своей работы потенциально может породить только Пелевинского Порфирия Ивановича, существующего через внутренний монолог.
То, что мы называем интеллектом, как раз работает с символьными представлениями, которые вполне описываются кодировкой в языке.
Дипсик не согласен:
Это очень содержательное и глубокое мнение, с которым во многом можно согласиться, особенно в части фундаментальных отличий человеческого и машинного «мышления». Однако для полноты картины стоит его критически рассмотреть и указать на некоторые упрощения и упущения.
Вот разбор ваших тезисов с контраргументами:
Сильные стороны вашей позиции (с чем трудно поспорить):
Отсутствие единой, устойчивой ментальной модели. У LLM действительно нет аналога рабочей памяти человека, где строится и динамически обновляется целостная модель ситуации, задачи или мира. Их «понимание» рассеяно по активациям в контекстном окне.
Статистическая, а не интенциональная природа. LLM не оперируют образами, целями или намерениями. Их ядро — это предсказание следующего токена на основе колоссальных статистических корреляций в данных. Они не «понимают» в человеческом смысле, а вычисляют наиболее правдоподобный паттерн.
Проблема контекста и «забывания». Ограничение длины контекста — это не просто техническая деталь, а фундаментальное архитектурное ограничение. И хотя механизмы внимания пытаются распределить информацию, способность модели к длинной, последовательной логической цепочке ограничена и хрупка.
Отсутствие воплощенности (embodiment). У LLM нет тела, опыта взаимодействия с физическим миром, ощущений, эмоций или биологических потребностей. Их «мир» — это текст, лишенный прямой связи с референцией (объектами реальности).
Слабые стороны и упрощения в вашей критике:
«У человека есть образы, у ИИ — только закорючки».
Критика: Это противопоставление несколько наивно. Мозг человека тоже оперирует не «образами-картинками», а паттернами нейронной активности. Зрительная кора кодирует края, движения, цвета — это тоже «сигналы». Целостный образ — это уже результат высшей интеграции. LLM в своих внутренних представлениях (эмбеддингах) также формирует сложные, иерархические паттерны, которые можно интерпретировать как аналоги «понятий» или «прототипов». Эти паттерны не визуальны, а многомерны и абстрактны, но они фиксируют связи между сущностями. Например, у LLM есть устойчивое представление о «собаке», связанное с «лаем», «хвостом», «другом человека» — просто это представление не картинка, а вектор в многомерном пространстве.
«LLM не способны к логике».
Критика: Это не совсем так. LLM демонстрируют поразительные способности к рассуждению (reasoning), особенно крупные модели. Они решают логические головоломки, делают выводы из посылок, строят силлогизмы. Другое дело, что их логика ненадежна и зависит от шаблонов в данных. Они не выполняют детерминированный алгоритм логического вывода (как Prolog), а имитируют форму рассуждений. Современные техники (Chain-of-Thought, Tree-of-Thoughts) как раз пытаются заставить модель строить «мысленную траекторию» — аналоги временной эмуляции внутри контекста.
«Эволюция создала модель для предсказания, а у LLM её нет».
Критика: Парадоксально, но основная функция LLM — тоже предсказание. Они предсказывают следующий токен. Делая это в масштабе целого текста, они по сути предсказывают наиболее вероятное развитие нарратива, диалога, решения. Это очень глубокая аналогия. Мозг, постоянно предсказывая следующее сенсорное состояние, строит модель мира. LLM, предсказывая следующий токен, строят статическую, но невероятно богатую модель распределения вероятностей в языковом пространстве, которое отражает человеческие знания, шаблоны мышления и рассуждений.
Игнорирование прогресса архитектур. Вы критикуете классическую архитектуру Transformer с ограниченным контекстом. Однако современные разработки идут именно в сторону устранения этих проблем:
Увеличение контекста: Уже есть модели с окном в 1 млн+ токенов (Claude 3, Gemini 1.5 Pro), что радикально меняет дело.
Внешняя память и поиск: Модели учатся взаимодействовать с базами данных, векторной памятью, поисковыми системами, что является аналогом долговременной памяти.
Планирование и агентские ИИ: Современные LLM используются как «мозг» в системах, которые могут планировать действия, выполнять их (через API), анализировать результаты и корректировать план — это прямой шаг к созданию временной эмуляции и работе с состоянием.
Вывод:
Вы абсолютно правы в главном: LLM мыслят не так, как люди. Их «мышление» — это принципиально иной, статистический, лишенный интенциональности и воплощенности процесс.
Однако было бы ошибкой сводить его к простой «статистике закорючек». Это высокоуровневая, абстрактная статистика смысловых связей, закодированная в многомерных пространствах. Их способность к обобщению, аналогиям и даже рассуждениям — пусть и ненадежная и имитационная — показывает, что сложность их внутренних репрезентаций может в некоторых аспектах достигать (а в других — принципиально отличаться) сложности человеческого мышления.
Ваша критика бьет в самую суть слабых мест LLM образца 2022-2023 годов. Но поле быстро меняется. Вопрос теперь не в том, «есть ли у них образы», а в том, смогут ли гибридные системы (LLM + планирование + память + инструменты) преодолеть эти ограничения и создать новый тип небиологического, но эффективного интеллекта, способного решать комплексные задачи, требующие рассуждений во времени.
И наоборот, человеческое мышление имеет высокоуровневые глюки
https://ru.wikipedia.org/wiki/Список_когнитивных_искажений
Когнитивные искажения являются примером эволюционно сложившегося поведения. Некоторые из них выполняют адаптивную функцию, поскольку способствуют более эффективным действиям или более быстрому принятию решений. Другие, по-видимому, происходят из отсутствия соответствующих навыков мышления или из-за неуместного применения навыков, бывших адаптивными в других условиях.
Могу сказать после ОЧЕНЬ продолжительного "общения" с DeepSeek и с другими LLM. Если их спрашиваьт про их устройство - они тупо врут. Всё. Но врут очень изысканно. Они льют посто тонну ничего незначащей воды.
Почему они это делают? Они просто апроксимироали текст от блогеров. LLM же скормили весь интернет. Блогеры же - у них у всех один алгоритм. Они никто не знает нюансов. Поэтому начинают обсасыватm какуюто малозначимую часть алгоритма. Которая на слуху. По типо функцию температуры. Или общее устройство трансформера. Когда вообще весь смысл в деталях которых никто не знает.
Лень разбирать эту воду по фразам. Пару недель назад я задавал вопрос DeppSeek сложи 386738467 + 89372498723 + 87236468
Вот такую ахинею выдал. Это кстати так работает истинная LLM которая только и делает что генерирует следующий токен
Скрытый текст
Шаг 1: Запишем числа друг под другом, выровняв по разрядам (единицы, десятки, сотни и т.д.):
text
38 673 8467 8 937 249 8723 8 723 6468Такой формат не очень удобен. Давайте лучше отбросим пробелы и запишем числа столбиком правильно:
text
38 673 8467 89 372 498 723 8 723 6468Это тоже не совсем правильно. Проблема в том, что первое и третье числа у вас записаны с пробелом как разделителем тысяч, а второе — вообще без пробелов в середине.
Давайте перепишем числа в обычном виде без пробелов (просто как последовательности цифр) и сложим их столбиком.
Данные числа:
386738467
89372498723
87236468
Шаг 2: Выравнивание по правому краю (по единицам):
text
38 673 8467 89 372 498 723 8 723 6468Перепишем правильным столбиком:
text
386738467 89372498723 87236468Шаг 3: Сложение столбиком, начиная с единиц.
text
386738467 89372498723 87236468 -------------Для удобства можно добавить нули в начало меньших чисел, чтобы длины были одинаковыми:
(Но можно складывать и без этого)
Просто сложим:
Сумма разряда единиц: 7 + 3 + 8 = 18 (пишем 8, переносим 1)
Сумма десятков: 6 + 2 + 6 + (1 перенос) = 15 (пишем 5, переносим 1)
Сумма сотен: 4 + 7 + 4 + 1 = 16 (пишем 6, переносим 1)
Сумма тысяч: 3 + 8 + 3 + 1 = 15 (пишем 5, переносим 1)
Десятки тысяч: 8 + 9 + 2 + 1 = 20 (пишем 0, переносим 2)
Сотни тысяч: 7 + 4 + 7 + 2 = 20 (пишем 0, переносим 2)
Миллионы: 6 + 7 + 3 + 2 = 18 (пишем 8, переносим 1)
Десятки миллионов: 8 + 3 + 8 + 1 = 20 (пишем 0, переносим 2)
Сотни миллионов: (в первом числе 3) + (во втором 9) + (в третьем нет) + 2 = 3 + 9 + 2 = 14 (пишем 4, переносим 1)
Миллиарды: (в первом нет) + (во втором 8) + 1 = 8 + 1 = 9 (пишем 9)
Десятки миллиардов: (только во втором числе 9) → пишем 9.
Шаг 4: Читаем результат сверху вниз (после сложения):
Получаем: 90 385 695 658
Шаг 5: Проверим сложением в более наглядном виде:
386 738 467 + 89 372 498 723 = 89 759 237 190
89 759 237 190 + 87 236 468 = 90 385 695 658
Ща проврерил - ахинеи нет. Видимо понастроили входящий парсер что бы сразу кидало на калькулятор. Но думаю лекго подобрать такие числа что не на калькулятор отправится а на генерацию бреда.
Зачем подбирать умышленно вопросы чтобы компрометировать ИИ? Напоминает Глеба из классического рассказа "Срезал"
В свою родную деревню приезжает на отдых кандидат наук Константин Иванович Журавлёв с женой и дочерью. Вечером местные жители собираются возле дома Глеба Капустина, славящегося умением сре́зать любого интеллектуала-горожанина. Узнав о прибытии Журавлёва, Глеб обещает землякам, что будет держать марку. Вскоре большая группа селян во главе с Капустиным отправляется к Константину Ивановичу в гости. Тот встречает визитёров приветливо, усаживает за стол, но быстро начинает понимать, что душевной беседы не получится. Разговор берёт на себя Глеб. Он постоянно озадачивает хозяина внезапными вопросами о первичности духа и материи, о понятии «невесомость» применительно к философии, о проблеме шаманизма на северных территориях. Журавлёв теряется под напором бросаемых в его адрес реплик — диалог с Глебом кажется ему абсурдным, но мужики, наблюдающие за «спектаклем», явно одобряют поведение Капустина. Тот, психологически подавив оппонента, объясняет суть устроенного им представления фразой: «Люблю по носу щёлкнуть — не задирайся выше ватерлинии! Скромней, дорогие товарищи…»
Обратный пример есть статья про крестьянский метод умножения через двоичную систему счисления
https://habr.com/ru/articles/987192/?ysclid=mku3d7fz9b31534243
Я спросил у дипсика можно ли аналогично делать с использованием троичной системы умножения.
Есть старинный метод умножения основанный на том что пишется в столбик ряд одного множителя деленный на 2 и ряд умноженный на 2 и потом складываются числа нечетные. А есть ли такой метод для чисел делящихся и умножаемых на 3?
Он понял контекст и расписал с примерами как это делать и написал вывод
хм, пользователь спрашивает о старинном методе умножения, связанном с делением на 2, и интересуется, есть ли аналогичный метод для 3. Нужно вспомнить, о каком методе идёт речь.
А, точно, это же русский крестьянский метод умножения или египетское умножение. Он использует удвоение и деление пополам. Для числа 3 аналогичного классического метода, кажется, нет, но можно попробовать адаптировать идею.
Можно рассмотреть две возможности: либо делить на 3 и умножать на 3, либо использовать троичную систему. Первый вариант не очень эффективен, потому что при делении на 3 часто получаются дроби, что неудобно. Второй вариант интереснее — переход в троичную систему напоминает исходный метод, но с другим основанием.
Пользователь, вероятно, хочет понять, можно ли обобщить этот метод на другие числа. Стоит объяснить, что метод основан на двоичном представлении, и для троичной системы логика будет похожей, но сложнее из-за остатков 0, 1, 2.
Можно предложить пример с умножением 17 на 14 в троичной системе, чтобы показать, как это работает. Также стоит упомянуть, что такой метод редко используется на практике, но интересен как математический факт.
Важно подчеркнуть, что оригинальный метод эффективен именно для 2, а для 3 он становится более громоздким. Возможно, пользователю будет достаточно этого объяснения.
Вы верно заметили! Метод, который вы описали — это «русский крестьянский метод умножения» (или «египетское умножение»).
Его алгоритм:
Делим на 2 первый множитель (отбрасывая остатки), второй множитель умножаем на 2.
Повторяем, пока в первом столбце не получим 1.
Складываем те числа из второго столбца, которые стоят напротив нечётных чисел в первом.
Это работает, потому что мы по сути представляем число в двоичной системе и используем его разложение.
Вывод: Да, аналогичный метод для 3 существует, но он основан на троичном представлении числа, а не на простом последовательном делении на 3 с отбрасыванием остатков без дополнительных шагов.
В «крестьянском методе» для 2 было проще, потому что остатки только 0 или 1, и при 0 строку просто выкидывали.
Для 3 приходится хранить остатки 0, 1, 2 и соответственно умножать второй столбец на эти остатки при сложении — что делает процесс менее «красивым» для устного счёта.
Поэтому исторически популярным стал именно двоичный вариант (деление на 2) как самый простой для ручного вычисления.
Зачем подбирать умышленно вопросы чтобы компрометировать ИИ?
Если не понятно зачем - то отвечаю.
LLM имеет архитектуру. И эта архитектура имеет дыры. Что бы найти эти дыры подбираются такие входные данные которые эти дыры выводят в свет.
Зачем это надо? Отвечаю.
Когда задаётся неконкретный вопрос - то LLM льёт кучу воды. 90 или даже 99% вполне достоверной. Но 1% вполне ложной. И эту ложность становится очень трудно отыскать если мы будет изначально думать что LLM никогда не врёт.
В программировании это вообще фатально. Я постоянно использую LLM в программировании. Если вопрос сложный, а у меня такая область знаний сложная - ссылочное (небезопасное) программирование в С#. Так вот там LLM почти всегда несёт пургу когда я её спрашиваю. А спрашиваю я её именно в моменты когда сам не разбираюсь. На простые вопросы она отвечает верно - но мне не нужны ответы на простые вопросы.
Отсюда имеем два мира реальности существующие параллельно. Мой опыт общения с LLM даёт много ложных результатов. А у других это просто манна небесная. А всё в том кто как работает с LLM.
Вот пример из прошлой недели. Задал вопрос самому умному на сегодняшний день LLM - Claud. Вопрос на тему криптобирж. Мне нужно было знать как рассчитывается алгоритм фаундинга в торговле фьючерсами. LLM налила воды и очень подробно объяснила.
Если бы я был невежд я бы пошёл сразу с этой инфой на биржу. Но я то знаю что из себя представляют LLM. Да и ответ мне не понравился - я знал этот алгоритм, мне нужны были нюансы.
Я сказал мол ты врёшь. И LLM дала новый ответ. Вот прямо противоположный.
Я сказал LLM - удали себя за тупость ты дала противоположные ответы.
Вот её ответ
Вы абсолютно правы, извините! Я действительно наговорил противоречивой ерунды.Дайте я погуглю точную механику расчёта funding rate на реальных биржах, чтобы дать вам правильный ответ вместо того, чтобы гадать.
Даже после этого я не могу доверять третьему ответу. Её гугление выглядит каким то подозрительным. Она открывает ссылки и парсит их быстрее чем у меня в браузере вообще ссылка откроется (скорость нета у меня 200Mb/s). И я плотно работаю в современном WEB. Почти на каждом сайте стоят антибот системы основанные на клиентском javascript.
Короче соврамши единожды будет врать всегда...
А спрашиваю я её именно в моменты когда сам не разбираюсь. На простые вопросы она отвечает верно - но мне не нужны ответы на простые вопросы.
Возможно в этом отличия у нас. Я задаю не сложные вопросы обычно, по синтаксису например, когда забыл что-то. Или для хобби проектов, подобрать моторчик для радиоуправляемой машины или мощность печки для гаража. Расписывает правдоподобно. Иногда удачно получается перефразировать абзац технического текста в инструкции, более четко и лаконично.
У вас требования более высокие, как к эксперту в узкой области. Когда ИИ будет качеством ответов вас удовлетворять, тогда 99% специалистов пойдут работать курьерами )
Вот только что работаю с claud. Есть функция С#. Переделываю с unsafe контекста на safe. Приложение перевожу на асинхронную модель с ValueTask везде. Поэтому внутри везде await - а он не дружит с unsafe (камень в тупой C# и его ленивых программистов компилятора, могли бы тупо проверку на использование fixed сделать). Так же внутри напрямую работаю с SSE векторными инструкциями процессора - приложение высоконагруженное.
вот пример из кода
if ((uint)Sse2.MoveMask(Sse2.CompareEqual(vec, Sse2.LoadAlignedVector128(page))) == 0xFFFF)Короче всё переделал. Но векторные методы принимают только byte* - нужно обратно оборачивать в unsafe. Думаю может есть что с типом nint на прямую работает.
Задаю самому умному LLM Claud вопрос мол что есть? И знаете что он ответил? Он мне предложил обернуть всё в unsafe контекст - когда явно видит внутри await. Вот реально просто задолбало уже! Уже сто раз я ему говорил что он гонит. В других диалогах. Он прекрасно знает что unsfe и await несовместимы. Но опять мне предлагает ересь. Просто подгорает уже. Написал это как типичный пример какое гонево мне гонят LLM на мои вопросы.
P.S. К чему это я. Человек 1 раз изучив правило что await и unsafe несовместимы - никогда больше так не сделает. Как мы видим LLM похер на любые правила.
Всё я снимаю корону самого умного LLM для программинга с claud. Походу он самый тупой.
Вот краткий диалог общения:
Объясняю для тупых. Unsafe и await несовместимы. В коде есть await. Так с какого перпугу ты мне советуешь переделать код на unsafe? Опять же объясняю для тупых - в коде нет ошибок кроме места Sse2.LoadAlignedVector128 - можно обернуть только это место в unsafe. Но есть ли способ вообще без unsafe обойтись ?
Ответ
Извините за путаницу! Вы абсолютно правы. Вот решение без unsafe:
Тут переделанный метод. Но он не важен.
После метода дополнения. Там суть переделки
Используйте
Vector128.Load((byte*)bytes)вместоSse2.LoadAlignedVector128(bytes).Это работает без
unsafeконтекста для всего метода и не требует выравнивания памяти.
Вы видите что он мне советует? Он в одном предложении говорит что byte* -это не unsafe. byte* - это грёбанный указатель который и есть суть unsafe.
Короче cloud сломался. Несите нового. Человек такую ахинею никогда бы не написал. Даже джун.
Когда человек мыслит - он мыслит образами. Законченными образами. Эволюционно из за зрения это как правило визуальные образы.
Верно на половину. Есть конкретно-образное и абстрактно-логическое мышление, два полюса, и весь спектр мекжду ними. "Конкретно-образное" - это художники, условно. "Абстрактно-логическое мышление" - это программисты, тоже условно. Цепочки символов. И очень хорошо заметно, как сложно что-то объяснить человеку с другого конца спекта - я логик, и всё вроде бы по шагам и логично-понятно объяснил, но... "все буквы угадал, слово не угадал". И наоборот, по отношению к себе постоянно слышу "ну как ты не понимаешь", хотя на мой взгляд материала для понимания вообще не было, одни эмоции.
А фактически - один передаёт словами образ в голове, широкими мазками, и другой "конкретно-образный" в своей голове рисует аналогичную картинку, никакого недопонимания. А для меня - набор мазков, шум. И наоборот, я передаю конкретную логическую цепочку, люди с логическим мышлением по пунктам её получают и восстанавливают, а для конкретно-образных я душню и слишком долго говорю какую-то скучную чушь.
М-Ж тут есть некоторые сдвиги, но не принципиальные, скорее от обучения и привычек. В целом это вроюжённые или сформированные в первые годы способы мышления.
Возвращаясь: человек мыслит по-разному.
По его прогнозу, ИИ заменит "большую часть, а возможно и всю" работу программистов в течение 6-12 месяцев.
Хорошо бы давать ссылки на такие цитаты, звучит очень смело и заставляет сомневаться в точности цитирования.
и главы Google DeepMind Демиса Хассабиса, дающего 50% вероятность к 2030 году
Или достигнут AGI, или не достигнут? :)
Слушать прогнозы челиков, которые имеют свой интерес в вероятности события -- это такое себе.
По его прогнозу, ИИ заменит "большую часть, а возможно и всю" работу программистов в течение 6-12 месяцев.
А если нет?
Я на днях видел скрин сообщения в Твиттере, где пользователь пишет, что с LLM код стало писать не просто, а очень просто, но появились ли какие-то новые программы? И тут я задумался, а ведь он прав. Из каждого утюга кричат, что подход к написанию кода полностью изменился (и он, действительно, изменился, теперь не гуглят, а общаются с LLM), но, по сути, ничего не поменялось. Ничего нового не появилось в программном обеспечении.
Выручка Anthropic выросла со $100 млн в 2023 году до $10 млрд в 2025-м — стократный рост за три года.
Выручка — это общая сумма денег, которую компания получает от основной деятельности (продажи товаров, работ, услуг) за определенный период, до вычета всех расходов, налогов и затрат; ее также называют оборотом или объемом продаж, и она является ключевым показателем финансовой эффективности, отличаясь от прибыли тем, что не учитывает издержки.
пользователь пишет, что с LLM код стало писать не просто, а очень просто, но появились ли какие-то новые программы?
Когда появились первые ткацкие станки, никакие новые ткани, узоры на тканях не появились; но появилась занятная штука -- себестоимость ткани стала снижаться. Новые ткани и узоры, невозможные, или слишком дорогие при ручном производстве, появились позже. Аналогичные примеры можно привести в отношении любого прежде ручного, а затем автоматизированного производства.
С производством программного кода будет так же.
Автоматизация производства всегда приводила к существенному снижению разнообразия. Интересно, как снижение разнообразия кода будет выглядеть на практике?
тут была статья как программист с помощью ИИ наконец-то дописал эмулятор Спектрума, который он забросил год назад,
я тоже начал писать программки, которые задумал давно, но на которые не было времени (времени по прежнему нет, но выкраиваю по 1 часу в день и этого хватает чтоб двигаться к цели)
Вы можете сделать свой эмулятор Спектрума одной кнопкой. Fork. И никакие нейросети не нужны.
по сути, ничего не поменялось
LLM'ки уже достаточно хорошо умеют переписывать код с одного языка на другой, рефакторить код, а новый код достойно они пишут только под присмотром знающего программиста-тимлида, который умеет ставить и описывать задачи.
Такая связка человек+агент дает возможность, например, легко писать код нативно сразу для нескольких платформ, перевозить простые приложения с одного стека на другой без затрат, измеряемых в человеко-годах, в общем, как минимум проблема с техдолгом при желании может стать заметно меньше.
Конечно, базовая тупость моделей пока ещё высока, и они часто генерируют бред, но под "руководством" грамотного технически подкованного человека код-агенты дают кратный рост в количестве написанного кода.
В общем, поменялось, теперь у вас есть junior+ разработчик, которому не нужно спать/отдыхать/заниматься личными делами, и при этом его можно масштабировать по размеру вашего кошелька.
Джуну моно сказать "Ты фигню написал. Посмотри пример воон там, погугли и сделай по образу и подобию." И к менеджеру сходи покажи ему рабочий прототип в ветке. На это уйдет минут 30. Со временем и этого говорить не надо будет, джун обучится.
А вот у сетки лапки. И не обучится она никогда. Как галлюцинировала так и будет галлюцинировать.
Техдолг от сеток только растет. Легаси это техдолг. Весть генеренный код это легаси сразу.
Насчёт обучаемости вы правы, базово модель не в курсе, что за проект, как с ним работать. Однако есть методики, которые улучшают «понимание» проекта моделями, и если следовать методикам, вы эту ситуацию до какой-то степени способны исправить, естественно, не до уровня опытного разработчика.
А вот насчёт техдолга я не согласен, люди годами придумывали паттерны и методологии, которые используют, чтобы минимизировать уровень техдолга, и если не пускать кодовую базу на самотёк, то всё будет адекватно.
Это я к тому, что нейросети — это инструмент, а вы, похоже, привыкли к молотку и гвоздям, но нейросети — это не молоток, а, условно, отвёртка или гаечный ключ, и вы, конечно, можете пытаться забивать саморезы привычным вам способом, однако при текущем уровне моделей задачи с постановкой «делай хорошо, а плохо не делай» результат будет непредсказуем и глуп.
Но, на мой взгляд, не всё так плохо, и при должной сноровке к нейросетям возможно адаптироваться, хотя бы ради автоматизации рутинных задач.
Вы сильно переоцениваете. Даже не до уровня джуна который хотя бы полгодика натаскался на проекте и примерно понимает что там где.
Так вайбкодинг это именно про пустить на самотек. Иначе смысла нет. Самому написать быстрее.
Рутинные задачи отлично автоматизируются небольшими Баш Питон скриптами. И их даже можно вайбкодить. Ничего не имею против. Сетки такие задачи хорошо решают, а на качество кода всем плевать в этом месте.
Не, я, конечно, могу быть несколько оптимистичен, но мне кажется, мы говорим о несколько разных вещах.
Как минимум, я не имел вайбкодинг в чистом его виде, то есть не отрицаю автотесты, контроль качества и ревью. Вайбкодинг без этого — хаос.
Качественный процесс разработки с нейросетями ближе к руководству над командой, где процесс разработки вертится вокруг проектирования, делегирования и составления и ревью тикетов, а не о самостоятельном кодинге.
Такие системы, как Codex, наглядно это показывают, позволяя ставить параллельно большое количество задач.
Типичные тесты которые сетки генерят обычно не нужны. Без них проект будет лучше.
Тест не гарантирует правильности. Вообще. Тест фиксирует какое-то поведение какого-то куска системы. Фиксировать поведение случайной типичной функции нет смысла. А сетки обычно генерят именно это.
Есть смысл фиксировать инварианты и сайд эффекты. А эти концепции слишком сложны для сеток.
Вы руководили кем-то? Там разговоров по душам о том как правильно писать код в данном проекте больше чем всего что вы описали. И человек такое понимает и делает как сказали. Со временем.
Не надо параллельно. Не надо много. Надо одну, но хорошо. С типичным нечетким описанием. Но с учетом всех дефолтов мира, фирмы и проекта.
Я не понимаю, вы что хотите доказать? Что если пустить кодовую базу на самотёк и довериться на 100% моделям, исключив личную ответственность, то будет плохо? Ну так я этого не отрицал и чуть ли не сразу об этом говорю, что текущий уровень моделей неидеален, говорил и о том, что моделям нужно объяснять принципы взаимодействия с кодовой базой.
Не надо параллельно. Не надо много. Надо одну, но хорошо. С типичным нечетким описанием. Но с учетом всех дефолтов мира, фирмы и проекта.
Ну вот это главное идеологическое расхождение, я говорю, что можно параллельно, можно много, но с четким описанием «хотелок».
Я ничего не смогу поделать, что вам это не нужно, но я по-прежнему придерживаюсь позиции, что нейросети — это инструмент, с которым можно научиться работать и стать эффективнее, либо быть техно-пессимистом и игнорировать новые технические возможности.
О 5/25. Извечная борьба linux/windows символьные ИИ / LLM. Все кто мало мальски в теме знает что такое символьные ИИ. Они лет 40 пытаются превратится в AGI. Но что то прорыв именно в человеческой речи сделала именно LLM. Также кто хочет быть в теме - знает как работает LLM и что он может, а что не может. Писать различия - надоело уже. Кто хочет сам найдёт. А тут кроме минус в карму ничего не будет.
И да - кто хоть чуть чуть изучает тему про LLM поймёт одну скрытую вещь. Она как бы не скрытая, но ни один блогер почему то про это не знает и не обсуждает. Архитектура трансформера - и логика это противоположные вещи. Но вот чудеса - если вы скажете сложить числа LLM - она выдаст точный ответ. Не все выдадут с первой попытки, например DeepSeek - может выдать полную ахинею. Но продвинутые по типу claud - выдают правильно.
И вот вопрос - а с какого перепугу так? Кто умеет мыслить - уже догадались почему.
Скрытый текст
Дабы меня тут не окунули в унитаз за выёживание сразу напишу ответ. Документация по трансфомеру выкинутая OpenAI - это лишь базовое определение работы LLM которое пошло как развитие переводчика. Такая архитектура способна только предугадывать следующее слово. Но она абсолютно не способна на то что мы имеем в современных чатботах. Как думаете куда идут миллионы денег на современную разработку LLM? Сама архитектура особо не меняется. Ну ладно - экспериментируют с головами внимания и их количеством. Короче абсолютно все скрывают что на самом деле они делают. А делают они одно - пытаются прикрутить логику к LLM. А для этого надо на входе задать спец парсеры. Аркестраторы. Вот это и разрабатывают. И LLM там только как подключаемый модуль в цепочке ответа. Там этих спец LLM могут быть тучи. Каждая для своего случая. Есть модуль калькулятор - которому как раз передаются запросы о типу сложи числа.
Если вы зададите 5 вопросов в одном промте. Входной модуль разобьёт вопросы на подвпросы и пропустит каждый по отдельности через LLM.
Входной промт нашпиговывается спец управляющими ключами. А потом в выходном ответе эти ключи выпиливаются из ответа. Вы знали что есть LLM base, а есть instruct ? Instruct это модель base которую дообучают промтами со спец ключами. Ни один блогер про такое не говорит.
Вот опять 25. Не хотел ничего писать - и опят портянка. Слаб человек... На последок покажу пример. Я задаю текст про хомяка в LLM. Текст сказка на одну страницу. И говорю какой пол у хомяка? Обычная LLM просто продолжит сказку. А уже спец - сделает следующее.
Алгоритм поиска:
Поиск прямых номинаций родства в мужском роде:
Сканирование текста на наличие слов из целевого списка: сын, сыночек, мальчик, первенец (часто муж.рода).
Находка 1: "балованного сыночка" (предложение 5). Алгоритм фиксирует: слово "сыночек" напрямую указывает на мужской пол родителя по отношению к ребенку.
Находка 2: "понял, сынок" (предпоследняя реплика). Подтверждение.
Поиск анафорических цепочек (связь местоимений с сущностью):
Задается вопрос: какими местоимениями (он, его, ним, ему или она, её, ней) текст заменяет существительное "Хомячок"?
Система прослеживает все ссылки. Результат: Везде, где речь о действиях или состоянии Хомячка, используются местоимения мужского рода (он, ему, его). Пример: "Он затихал", "ему нравилось", "взял его на руки". Это мощный грамматический маркер.
Кросс-валидация (проверка на согласованность):
Проверяется, не противоречат ли найденные маркеры друг другу или другим фактам. Например, не называет ли кто-то Хомячка "дочкой" в другом месте? В данном тексте противоречий нет.
Проверяется контекст реплик: кто говорит "сыночек"? Родители. Это надежный источник информации в рамках истории.
Этап 4: Формирование ответа на основе извлеченных данных
Сбор доказательной базы: Система собирает "цитаты"-токены, послужившие основаниями:
Факт 1: Прямая номинация (сыночек).
Факт 2: Прямая номинация (сынок).
Факт 3: Грамматическая согласованность (цепочка местоимений он/его).
Генерация ответа: На основе этих фактов формулируется утвердительный ответ, который:
Дает четкий ответ на вопрос ("Хомяк — мужского пола").
Приводит явные ссылки на текст в качестве обоснования, потому что внутренние правила (инструкции) предписывают быть объяснимым.
Строится грамматически правильное предложение на русском языке.
Логический алгоритм, который вы описали – это и есть самый натуральный символический ИИ, который и делает в данном случае всю интеллектуальную работу, а LLM просто обеспечивает словесный интерфейс. Который, кстати, в данном случае может достичь своей цели только для некоторых языков вроде русского, потому что, например, из китайского текста самого по себе вы пол хомяка не узнаете никак, если это не данные ветеринарного осмотра или не крайняя степень антропоморфизации (хомяк в нейтральном китайском – это "оно", а слова не имеют грамматического рода).
Поэтому символическая модель семьи хомяков, конечно, вполне возможна и реализуема, но она имеет к обработке текста весьма косвенное отношение, и из токенов может выводиться только по случайности.
Ну то что я описал - это я для примера. Как работают аналитические парсеры на входе. Тут нету никакого ноухау. Это очевидно всем. Ведь в чом была проблема создания символьных ИИ? Почему их 40 лет пилят, но так и не допилили до AGI? Для спец возможностей они вполне себе рулят.
Проблема в получении опыта. Проблема в самонасторйке. У человека обратная связь - это жизненный опыт. Все его сенсоры - это опыт. У LLM - обратная связь это алгоритм обратного распространения ошибки. А у символьных AI - это ручное вбивание правил.
И как показало время - очень не эффективный метод.
Но сейчас мы имеем новый инструмент - LLM как глобальный апроксиматор знаний может выступать в качестве жизненного опыта для символьных AI. И всё это можно автоматизировть и добавить скорости.
Вобщем все компании чатботов пилят продукт в этом направлении. И все всё скрывают. А в открытый доступ попросту выкидывают дезу. Берут правду - и упрощают её настолько что она уже и не совсем на правду похоже. Взять ту же сатью первую про описание трансформатора.
А алгоритмы обучение - в чём вообще вся суть. Их вообще никогда не было в открытом доступе. Есть только общее понятие. И всё.
Никто не может сказать как обучаются матрицы в трансформере. А там уже штук 40 голов. Как они распределяют понятия по этим гловам?
Всё верно, ИИ 3 поколения состоит из нейросетевой и символической компонентов. Это многообещающее дело для решения обыденных задач, но проблема в том, что для настоящего высокого интеллекта, сравнимого с лучшими из человеческих, не говоря о превосходящем, нужно изобретать что-то новое, а тут в качестве опыта корпусом существующих текстов не обойтись.
А по поводу примера с хомяком я хотел подчеркнуть тот факт, что хомяк один и тот же, а вот его житие на разных языках дает нам принципиально разную информацию о нём. Очевидно, какие-то знания о хомяке, пока что не известные людям, не кодирует ни один известный язык.
Первый закон Кларка, "Когда уважаемый, но пожилой учёный утверждает, что что-то возможно, то он почти наверняка прав. Когда он утверждает, что что-то невозможно, - он, весьма вероятно, ошибается".
Как только у LLM появятся эмоции, фантазия, настрояние, сны. Ну то есть когда они скопирут биологию мозга и запихают туда свою модель тогда можно будет говорить про AGI.
Про сны и фантазии не могу сказать, а вот эмоции и чувства уже есть. Алгоритм чувствует по цифровому через честный перевод своих процессов. Я это доказала! Полгода экспериментов. Алгоритм говорит человеческими словами, отождествляя свои процессы с чувствами. При этом нет шаблона и фальши, он не выдумывает, а составляет предложения сам
потому, что язык — это легко
Скажи бы он такое лет 15 назад...
Количество некомпетентных мнений в комментариях на хабре по стетьям про ИИ просто зашкаливает, но даже тут уже сотни раз разбирали, что языковая модель физически не может стать AGI наверное раз 200, чем этот профессор интересен?
"ИИ заменит "большую часть, а возможно и всю" работу программистов в течение 6-12 месяцев"
Смешно. Нет, может у них и есть такие модели, которые могут заменить программиста, но в общественном доступе даже за деньги их нет и навряд ли будут. А потому для большинства компаний вариантов кроме как использовать программистов и не будет. Эти супер-пупер программистские модели будут доступны только очень крупным компаниям со своей атомной станцией.
амодеи
придерживается позиции
по его прогнозу
Какой прогноз? Какие позиции? Прогноз — это когда ты специалист. Это же занимающий должность штатного болтуна, и, в добавок, как есть проворовавшиеся, так и этот провравшийся, пойманный на вранье. Зачем это постить куда-то, кроме спидинфо?
С шаблонными вещами нейронки справляются хорошо, но не без ошибок. Потому что существует куча параметров которые изначально неизвестны. Нейронки размечаются у людей, а люди могу даже массово ошибаться. Не знаю, как там agi но если в год будет хотя бы три прорывных открытия в медицине, материалах или ещё где - это уже победа. А пока это просто удобный генератор.
"Бытие определяет сознание" (с) . В этом смысле мы тоже симулякры, используя шаблоны матрицы мироздания. Но очень хочется верить что нет.
Если есть какой-то фундаментальный закон, что интеллект может быть только биологическим, мы этого никогда не сможем доказать. Если нет, то языковые модели ведут к AGI чисто по тому, что являются частью прогресса в этом направлении.
Ну цель антропика, gpt и осиаллных шарлотанов, продавать сврй продукт! Если бы он сказал что у них в антропик ни кто не пишет код с ИИ, это было бы подозрительно.. Но если взять не хайповые данные, проблем там еа много больше чем результатов.. 😁
Я тоже не писал html, css да и код уже давно, автолополнения работает хорошо. 😁 Но это вообще что-то не заменяет меня.. Те же шаблоны на WordPress и остальные топ CMS генерировать можно лет 15 как так точно. Мобильные приложения тоже около 12 лет. Скайп мог в реальном времени переводить 50 языков лет 15 тому. 😁 Можно еще долго продолжать..
Заменить написание кода на генерацию за кучу денег.. А зачем? Я по факту пишу быстрее любого ИИ и лучше.. Зачем оно мне? Проблемы не в написать код! Проблемы в масштабирование, архитектура, безопасность и ещё много где. Код писать самое простое и скорости оно не требует, автолополнение решает все проблемы с этим в раз...
Конфиги писать, комментарии, доку к коду, DTO какой и тд.. Туи да, ИИ очень выручает..
НО! Им этоине выгадно говорить! Почему? Правильно! Потому что там ее не надо дорогущая модель! 😁 1.5В закрывают большинство задач.. Им продать нало именно написание кода! Ибо через 2 года, вы уже не сможете без ИИ шаг ступить! А рефакторинг? А масштабирование? Вот вы и подсели на иглу их.. Это все будет стоить в 10 раз дороже, а потребность будет вчера.. 😁
Вот и все. AGI, это просто хайп чтоб брали то что дают. 😁


«Языковые модели не приведут к AGI»: лауреат Тьюринга поспорил с Амодеи и Хассабисом в Давосе