Search
Write a publication
Pull to refresh
18
0.2
Send message

Тогда игры Unity на C# сразу в мусор что ли? Там ведь даже обфускация не поможет

Выше я уже писал, что когда LLM не может решить задачу о ханойской башни это и есть отсутствие понимания со стороны LLM, этого уже достаточно чтобы оперировать понятием понимания.
Любой нормальный разумный человек, после того как ему объяснят как решать (как например сделали это в промте для LLM) запросто сможет это повторить решение, а LLM - нет, это и говорит об отсутствии понимания и не надо тут разводить демагогию об "отсутствии терминологического аппарата" в слове "понимает".
Таким образом, как я и писал механический болваничк неспособен понимать, не способен выйти за рамки системы, нам же пишут об этом в статье: Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных.

Что такое «понимает»? Что такое «не понимает»? Не понимает как человек? Не понимает вообще?
Вы сейчас вместо решения вопроса применяете так называемый «спор о словах» или «семантический диспут», другие подходящие определения этого процесса:
«Лингвистическая уловка» – когда человек уходит от сути обсуждения, цепляясь к формулировкам.
«Нигилизм семантический» (в философии) – отрицание смысла через отрицание определений.
И если упорно цепляться к словам, при этом коверкая смысл – это уже софизм

какие-то из людей тоже не смогут решить, отказываем им в наличии разума?
ну как бы да, любой нормальный разумный человек, после того как ему объяснят как решать (как например сделали это в промте для LLM) запросто сможет это повторить решение

проблема в том, что тут мы оперируем терминами, которые невозможно формально определить
вы снова цепляетесь за определение, ещё раз говорю не надо так упарываться в формальное определение

если сейчас llm не проходят этот тест, не означает, что это принципиальное ограничение и они не начнут проходить его завтра

это значит что механический болваничк неспособен понимать, не способен выйти за рамки системы, нам же пишут об этом в статье:
Это известное ограничение нейросетей, известное ещё с прошлого века: они способны обобщать только в пределах обучающей выборки данных.

Эмерджентность (которая кстати есть в LLM) тут никак не поможет, т.к. LLM не понимает смысла слов, об каком сознании можно говорить?
И хотя компьютеры и могут выдавать ответы на естественном языке, они не связывают со словами никакого смысла. Сёрл считал, что невозможно получить семантические значения лишь из формальных манипуляций символами
Что подтверждает в т.ч. эксперимент из статьи, когда LLM явно предоставили алгоритм решения проблемы в промпте перестановочных головоломках типа Ханойской башни и она элементарно не смогла решить задачу:
По мнению авторов исследования, это демонстрирует отсутствие «понимания» проблемы в человеческом смысле. Модель тупо перебирает варианты, не понимая даже базовую логику задачи. И она продолжает перебирать неправильные варианты даже после того, как найдёт правильное решение.

Так что текущая реализация LLM полностью соответствует механическому болванчику в китайской комнате, он не способен выйти за рамки системы (даже с помощью эмерджентности), т.к. не понимает семантического смысла слов.

Мысленный эксперимент с китайской комнатой легко подтверждает почему у современных LLM нет сознания, не нужно так упарываться в формулировку определения сознания.

А теперь представьте себе, что вы учитесь говорить на новом языке(например, хинди) только лишь по контексту и ощущениям. Вы не знаете, что значит определённый набор символов, но часто видели в текстах, что после него стоит какая‑то конструкция, так что начинаете говорить так же. Вы не понимаете, что вам говорят люди, но вы слышали, что другие отвечают на эти же слова, и вы повторяете чужой ответ.
Это же классический пример мысленного эксперимента Китайская комната

подписался, очень интересно будет почитать

О, привет язык Nim, который пошёл еще дальше, к регистронезависимости ещё и знак подчёркивания добавили. Например идентификатор notin равен идентификатору notIn и это тоже самое что и NOT_IN Очень оттолкнуло в своё время.

notin = notIn = NOT_IN

https://nim-lang.org/docs/manual.html#lexical-analysis-identifier-equality

Вот такие "помощники" которые решают за программиста и вводят неявные правила, которые надо держать в голове - только ухудшают ситуацию.

Если даже в файловой системе это плохо, то что говорить про код?
Линус Торвальдс жёстко разнёс регистронезависимые ФС https://habr.com/ru/articles/904564/

Насколько часто в Go приходится писать boilerplate code?

интересно, а что за стек использовался?

Есть цель - не вижу препятствий, на удалёнке некому остановить или отвлечь как в офисе, что порой приводит к длительному рабочему состоянию и чрезмерной усталости после. С одной стороны хорошо когда ты "в потоке", а с другой перерывы надо обязательно делать, т.к. в долгосрочной перспективе они полезнее. В общем нужен баланс.

Чем больше будет городов, тем лучше функционирует ваша экономика, и тем больше богатств оказывается на территории вашей державы.

Это стратегия вширь, её минус в том что в дальнейшем при расширении очень много микроменеджмента приходится совершать, что весьма утомляет. Очень нехватает стратегии "вверх" когда вместо увеличения кол-ва своих городов (баз) у тебя развивается только только одна или две базы, но они могут быть качественно лучше и сильнее чем много городов противника.

Уже проходили, отделили в своё время Geektimes от хардкорного хабра и в итоге обратно слили.

Также будет запрещено распространять Open Source модели так, чтобы к ним могли получить доступ китайские пользователи и разработчики.
Закон Яровой еще лайтово, а вот это уже ни в какие ворота

Избегать слов любой ценой
APL тоже пошел в сторону краткости синтаксиса и где он теперь? Там сам чёрт ногу сломит в этих значках. Зачем впадать в крайности, не понимаю.

Прочитать китайскую статью можно гораздо быстрее, чем такую же русскую .... например, вместо семи букв слова «человек» пишется «人»: запомнить иероглиф очень легко по его сходству с шагающим человечком.

Попробовал в переводчике, 人 это оказалось люди, а человек это 切洛韦克 и нет, получается это не быстрее)

1
23 ...

Information

Rating
4,883-rd
Registered
Activity