Search
Write a publication
Pull to refresh

Comments 15

  1. Вы не являетесь философствующей личностью. Это видно из вашего текста с первых слов.

  2. Вы ничего содержательного не можете сказать о сути философии.

  3. Все ваши слова якобы о "философии" не имеют никакого смысла. Очередная порция инфошума.

Я с промтами разбирался вчера. У меня возник вопрос очень важный. Какого радиуса может быть точка ? Как бы вы ответили ?

Это понятие а не физический объект. Так что у точки просто нет такого свойства как радиус

А как у двух понятий можно сравнивать ортогональность ? У них ведь нет таких свойств. Но почему то король - мужчина + девушка = королева.

Так и при чем здесь ортогональность? Это же обобщение перпендикулярности, а не параллельности. Ну а вообще в пространстве эмбеддингов языковой модели указанные вами слова образуют "примерно" параллелограмм. Это и есть численное выражение интуитивно ощущаемого свойства.

Мне ИИ напоминает монологи Невзорова. Вроде что то умное по форме в по содержанию просто жонглирование словами. Ещё добавить его свойство не вести беседу в поддакивать тебе, то вообще огонь)) офигенно философию изменил. Кстати интересно, автор насколько в философии хорошо разбирается? На юр факе у нас два года изучалась философия. И как бы я не вижу таких изменений как автор, но статья интересная (прочла по диагонали), спасибо.

Невзоров похож на нейронку тем что он галлюцинирует, придумывая факты подтверждающие его точку зрения. Но это никогда не жонглирование словами. Мысль всегда есть и она всегда кристально ясна, хотя не всем понятна.

Иными словами, если вам кажется что нейронка жонглирует словами, то вероятно она так и делает, но всегда возможно вы просто не понимаете что она излагает.

Мой опыт философской беседы с GPT кратко можно сформулировать так: никогда не пытайся вести философскую беседу с роботом. Может быть, GPT-5 стал в этом плане получше, но тот экземпляр, с которым я имел дело тогда, выглядел совсем бледно.

Да, конечно, нейронка гораздо умнее меня. Она говорит на всех языках, прочитала все книги, способна удерживать в голове больше сущностей одновременно. Но всё же она не человеческое существо, не обладает собственной идентичностью, не живёт в нашем мире, не является членом общества, не имеет прав и обязанностей, не имеет функции "нести ответственность", и единственное желание этой штуки - желание максимально эффектно выболтаться. Этакие феноменально гиперразвитые речевые центры головного мозга без всего остального. Нейронка может правдоподобно и убедительно рассуждать об ощущениях, которые возникают если ударить мизинец ноги об ножку дивана, но... у неё нет и никогда не было ни мизинца, ни дивана. Идеальный философский зомби в чёрно-белой китайской комнате.

Кстати, феномен LLM весьма наглядно демонстрирует правоту Витгенштейна и других товарищей, сделавших акцент на лингвистике. Язык это действительно ключ ко всему. Даже убрав всё остальное, мы получили артефакт, который ведёт себя как человек, да и будем честными, мыслит как человек.

Язык это действительно ключ ко всему.

Оба компонента важны и язык и его обоснованность (grounding), воплощенность (embodying, язык), то о чем фактически писали выше. Именно недостаточность этих компонент в ЯМ является причиной их избыточного фантазирования ("галлюцинаций"). Обучением только на текстах эту задачу не решить, как не увеличивая объем выборки и число параметров моделей. Тут требуются архитектурные улучшения, включения той же рекуррентности. Например, как встроить интуитивную физику или теорию теорий в эти модели? Пока это только имитации, и далеко не самые лучшие.

Тут требуются архитектурные улучшения

Зачем? В чём смысл? Какую задачу решаем? Если задача сделать куклу для плотских утех, то там с эмбодинга и начали, притом давно, ещё до всяких ИИ.

Зачем? В чём смысл? Какую задачу решаем?

Куклы тут не причем, хотя интеллект для воплощенных агентов - роботов, понадобится. Архитектуру придется улучшать хотя бы из-за повышения ее энергоэффективности, но также и улучшения функционала. По ссылке выше приводил пример - 1, 2 с операциями для любых чисел без обращения к внешним специализированным средствам. Для этого необходима встроенная рекуррентность, для организации аналога процедурной памяти, которая позволит обучаться циклическим процедурам с любым числом циклов, тому что могут уже школяры в начальных классах на конечном числе примеров.

Вы подменяете понятия, это не "взаимодействие с интеллектом, не похожим на наш", это взаимодействие с имитацией нашего интеллекта, которая не может мыслить. Пересмотрите Трассу-60, кино в тему. В принципе вы можете принимать решения, бросая кубик или монетку, далее решив, что если результат получился неправильный, нужно было задавать другой вопрос, это эквивалентная возможность "сделать мышление интерактивным". Или спрашивать знаков у "высших сил" (будь то кубик, шарик, мистические силы или якобы сверхинтеллект), а это не очень ново, новой парадигмы не случилось.

Интересная статья.

Большие языковые модели (LLM) вроде GPT не знают, что такое "истина". Их ответы — это статистически вероятные продолжения текстов, а не результат мышления.

А разве биохимический интеллект - что-то принципиально другое? И знаем ли, собственно, сами мы, что такое "истина"?

Мой опыт перекликается с вашим тезисом об ИИ как соучастнике. Я тоже активно применяю LLM в философских размышлениях, но исключительно как инструмент критики собственных гипотез и поиска идей как их логически развернуть. Моя практика проста: сформулировав идею, я прошу модель найти в ней логические противоречия, слабые предпосылки или неочевидные контраргументы. Это часто высвечивает слепые пятна и узкие места в логических построениях и фактологические ошибки, которые я упускал. Ключевое, как вы верно предупреждаете, — никогда не принимать выводы ИИ за истину, а использовать их как стимул для углубления собственной рефлексии и перепроверки.

Sign up to leave a comment.

Articles