Выше я уже писал, что когда LLM не может решить задачу о ханойской башни это и есть отсутствие понимания со стороны LLM, этого уже достаточно чтобы оперировать понятием понимания. Любой нормальный разумный человек, после того как ему объяснят как решать (как например сделали это в промте для LLM) запросто сможет это повторить решение, а LLM - нет, это и говорит об отсутствии понимания и не надо тут разводить демагогию об "отсутствии терминологического аппарата" в слове "понимает". Таким образом, как я и писал механический болваничк неспособен понимать, не способен выйти за рамки системы, нам же пишут об этом в статье: Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных.
Что такое «понимает»? Что такое «не понимает»? Не понимает как человек? Не понимает вообще? Вы сейчас вместо решения вопроса применяете так называемый «спор о словах» или «семантический диспут», другие подходящие определения этого процесса: «Лингвистическая уловка» – когда человек уходит от сути обсуждения, цепляясь к формулировкам. «Нигилизм семантический» (в философии) – отрицание смысла через отрицание определений. И если упорно цепляться к словам, при этом коверкая смысл – это уже софизм
какие-то из людей тоже не смогут решить, отказываем им в наличии разума? ну как бы да, любой нормальный разумный человек, после того как ему объяснят как решать (как например сделали это в промте для LLM) запросто сможет это повторить решение
проблема в том, что тут мы оперируем терминами, которые невозможно формально определить вы снова цепляетесь за определение, ещё раз говорю не надо так упарываться в формальное определение если сейчас llm не проходят этот тест, не означает, что это принципиальное ограничение и они не начнут проходить его завтра это значит что механический болваничк неспособен понимать, не способен выйти за рамки системы, нам же пишут об этом в статье: Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных.
Эмерджентность (которая кстати есть в LLM) тут никак не поможет, т.к. LLM не понимает смысла слов, об каком сознании можно говорить? И хотя компьютеры и могут выдавать ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что невозможно получить семантические значения лишь из формальных манипуляций символами Что подтверждает в т.ч. эксперимент из статьи, когда LLM явно предоставили алгоритм решения проблемы в промпте перестановочных головоломках типа Ханойской башни и она элементарно не смогла решить задачу: По мнению авторов исследования, это демонстрирует отсутствие «понимания» проблемы в человеческом смысле. Модель тупо перебирает варианты, не понимая даже базовую логику задачи. И она продолжает перебирать неправильные варианты даже после того, как найдёт правильное решение.
Так что текущая реализация LLM полностью соответствует механическому болванчику в китайской комнате, он не способен выйти за рамки системы (даже с помощью эмерджентности), т.к. не понимает семантического смысла слов.
Мысленный эксперимент с китайской комнатой легко подтверждает почему у современных LLM нет сознания, не нужно так упарываться в формулировку определения сознания.
А теперь представьте себе, что вы учитесь говорить на новом языке(например, хинди) только лишь по контексту и ощущениям. Вы не знаете, что значит определённый набор символов, но часто видели в текстах, что после него стоит какая‑то конструкция, так что начинаете говорить так же. Вы не понимаете, что вам говорят люди, но вы слышали, что другие отвечают на эти же слова, и вы повторяете чужой ответ. Это же классический пример мысленного эксперимента Китайская комната
О, привет язык Nim, который пошёл еще дальше, к регистронезависимости ещё и знак подчёркивания добавили. Например идентификатор notin равен идентификатору notIn и это тоже самое что и NOT_IN Очень оттолкнуло в своё время.
Если даже в файловой системе это плохо, то что говорить про код? Линус Торвальдс жёстко разнёс регистронезависимые ФС https://habr.com/ru/articles/904564/
Есть цель - не вижу препятствий, на удалёнке некому остановить или отвлечь как в офисе, что порой приводит к длительному рабочему состоянию и чрезмерной усталости после. С одной стороны хорошо когда ты "в потоке", а с другой перерывы надо обязательно делать, т.к. в долгосрочной перспективе они полезнее. В общем нужен баланс.
Чем больше будет городов, тем лучше функционирует ваша экономика, и тем больше богатств оказывается на территории вашей державы.
Это стратегия вширь, её минус в том что в дальнейшем при расширении очень много микроменеджмента приходится совершать, что весьма утомляет. Очень нехватает стратегии "вверх" когда вместо увеличения кол-ва своих городов (баз) у тебя развивается только только одна или две базы, но они могут быть качественно лучше и сильнее чем много городов противника.
Также будет запрещено распространять Open Source модели так, чтобы к ним могли получить доступ китайские пользователи и разработчики. Закон Яровой еще лайтово, а вот это уже ни в какие ворота
Избегать слов любой ценой APL тоже пошел в сторону краткости синтаксиса и где он теперь? Там сам чёрт ногу сломит в этих значках. Зачем впадать в крайности, не понимаю.
Прочитать китайскую статью можно гораздо быстрее, чем такую же русскую .... например, вместо семи букв слова «человек» пишется «人»: запомнить иероглиф очень легко по его сходству с шагающим человечком.
Попробовал в переводчике, 人 это оказалось люди, а человек это 切洛韦克 и нет, получается это не быстрее)
Судя по заголовку, решение задачи стоит искать с помощью языка программирования на основе кликбейтных заголовков
Тогда игры Unity на C# сразу в мусор что ли? Там ведь даже обфускация не поможет
Выше я уже писал, что когда LLM не может решить задачу о ханойской башни это и есть отсутствие понимания со стороны LLM, этого уже достаточно чтобы оперировать понятием понимания.
Любой нормальный разумный человек, после того как ему объяснят как решать (как например сделали это в промте для LLM) запросто сможет это повторить решение, а LLM - нет, это и говорит об отсутствии понимания и не надо тут разводить демагогию об "отсутствии терминологического аппарата" в слове "понимает".
Таким образом, как я и писал механический болваничк неспособен понимать, не способен выйти за рамки системы, нам же пишут об этом в статье: Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных.
Что такое «понимает»? Что такое «не понимает»? Не понимает как человек? Не понимает вообще?
Вы сейчас вместо решения вопроса применяете так называемый «спор о словах» или «семантический диспут», другие подходящие определения этого процесса:
«Лингвистическая уловка» – когда человек уходит от сути обсуждения, цепляясь к формулировкам.
«Нигилизм семантический» (в философии) – отрицание смысла через отрицание определений.
И если упорно цепляться к словам, при этом коверкая смысл – это уже софизм
какие-то из людей тоже не смогут решить, отказываем им в наличии разума?
ну как бы да, любой нормальный разумный человек, после того как ему объяснят как решать (как например сделали это в промте для LLM) запросто сможет это повторить решение
проблема в том, что тут мы оперируем терминами, которые невозможно формально определить
вы снова цепляетесь за определение, ещё раз говорю не надо так упарываться в формальное определение
если сейчас llm не проходят этот тест, не означает, что это принципиальное ограничение и они не начнут проходить его завтра
это значит что механический болваничк неспособен понимать, не способен выйти за рамки системы, нам же пишут об этом в статье:
Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных.
Эмерджентность (которая кстати есть в LLM) тут никак не поможет, т.к. LLM не понимает смысла слов, об каком сознании можно говорить?
И хотя компьютеры и могут выдавать ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что невозможно получить семантические значения лишь из формальных манипуляций символами
Что подтверждает в т.ч. эксперимент из статьи, когда LLM явно предоставили алгоритм решения проблемы в промпте перестановочных головоломках типа Ханойской башни и она элементарно не смогла решить задачу:
По мнению авторов исследования, это демонстрирует отсутствие «понимания» проблемы в человеческом смысле. Модель тупо перебирает варианты, не понимая даже базовую логику задачи. И она продолжает перебирать неправильные варианты даже после того, как найдёт правильное решение.
Так что текущая реализация LLM полностью соответствует механическому болванчику в китайской комнате, он не способен выйти за рамки системы (даже с помощью эмерджентности), т.к. не понимает семантического смысла слов.
Мысленный эксперимент с китайской комнатой легко подтверждает почему у современных LLM нет сознания, не нужно так упарываться в формулировку определения сознания.
А теперь представьте себе, что вы учитесь говорить на новом языке(например, хинди) только лишь по контексту и ощущениям. Вы не знаете, что значит определённый набор символов, но часто видели в текстах, что после него стоит какая‑то конструкция, так что начинаете говорить так же. Вы не понимаете, что вам говорят люди, но вы слышали, что другие отвечают на эти же слова, и вы повторяете чужой ответ.
Это же классический пример мысленного эксперимента Китайская комната
подписался, очень интересно будет почитать
О, привет язык Nim, который пошёл еще дальше, к регистронезависимости ещё и знак подчёркивания добавили. Например идентификатор
notin
равен идентификаторуnotIn
и это тоже самое что иNOT_IN
Очень оттолкнуло в своё время.notin
=notIn
=NOT_IN
https://nim-lang.org/docs/manual.html#lexical-analysis-identifier-equality
Вот такие "помощники" которые решают за программиста и вводят неявные правила, которые надо держать в голове - только ухудшают ситуацию.
Если даже в файловой системе это плохо, то что говорить про код?
Линус Торвальдс жёстко разнёс регистронезависимые ФС https://habr.com/ru/articles/904564/
Насколько часто в Go приходится писать boilerplate code?
А как же 3D гонки в Excel?
интересно, а что за стек использовался?
Есть цель - не вижу препятствий, на удалёнке некому остановить или отвлечь как в офисе, что порой приводит к длительному рабочему состоянию и чрезмерной усталости после. С одной стороны хорошо когда ты "в потоке", а с другой перерывы надо обязательно делать, т.к. в долгосрочной перспективе они полезнее. В общем нужен баланс.
Это стратегия вширь, её минус в том что в дальнейшем при расширении очень много микроменеджмента приходится совершать, что весьма утомляет. Очень нехватает стратегии "вверх" когда вместо увеличения кол-ва своих городов (баз) у тебя развивается только только одна или две базы, но они могут быть качественно лучше и сильнее чем много городов противника.
Уже проходили, отделили в своё время Geektimes от хардкорного хабра и в итоге обратно слили.
Также будет запрещено распространять Open Source модели так, чтобы к ним могли получить доступ китайские пользователи и разработчики.
Закон Яровой еще лайтово, а вот это уже ни в какие ворота
Избегать слов любой ценой
APL тоже пошел в сторону краткости синтаксиса и где он теперь? Там сам чёрт ногу сломит в этих значках. Зачем впадать в крайности, не понимаю.
Прочитать китайскую статью можно гораздо быстрее, чем такую же русскую .... например, вместо семи букв слова «человек» пишется «人»: запомнить иероглиф очень легко по его сходству с шагающим человечком.
Попробовал в переводчике, 人 это оказалось люди, а человек это 切洛韦克 и нет, получается это не быстрее)