Как стать автором
Поиск
Написать публикацию
Обновить

Как ИИ меняет философию: от рефлексии к мышлению через prompt

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров3.8K
Всего голосов 14: ↑11 и ↓3+10
Комментарии14

Комментарии 14

  1. Вы не являетесь философствующей личностью. Это видно из вашего текста с первых слов.

  2. Вы ничего содержательного не можете сказать о сути философии.

  3. Все ваши слова якобы о "философии" не имеют никакого смысла. Очередная порция инфошума.

А вы?

Я с промтами разбирался вчера. У меня возник вопрос очень важный. Какого радиуса может быть точка ? Как бы вы ответили ?

Это понятие а не физический объект. Так что у точки просто нет такого свойства как радиус

А как у двух понятий можно сравнивать ортогональность ? У них ведь нет таких свойств. Но почему то король - мужчина + девушка = королева.

Так и при чем здесь ортогональность? Это же обобщение перпендикулярности, а не параллельности. Ну а вообще в пространстве эмбеддингов языковой модели указанные вами слова образуют "примерно" параллелограмм. Это и есть численное выражение интуитивно ощущаемого свойства.

Мне ИИ напоминает монологи Невзорова. Вроде что то умное по форме в по содержанию просто жонглирование словами. Ещё добавить его свойство не вести беседу в поддакивать тебе, то вообще огонь)) офигенно философию изменил. Кстати интересно, автор насколько в философии хорошо разбирается? На юр факе у нас два года изучалась философия. И как бы я не вижу таких изменений как автор, но статья интересная (прочла по диагонали), спасибо.

Мой опыт философской беседы с GPT кратко можно сформулировать так: никогда не пытайся вести философскую беседу с роботом. Может быть, GPT-5 стал в этом плане получше, но тот экземпляр, с которым я имел дело тогда, выглядел совсем бледно.

Да, конечно, нейронка гораздо умнее меня. Она говорит на всех языках, прочитала все книги, способна удерживать в голове больше сущностей одновременно. Но всё же она не человеческое существо, не обладает собственной идентичностью, не живёт в нашем мире, не является членом общества, не имеет прав и обязанностей, не имеет функции "нести ответственность", и единственное желание этой штуки - желание максимально эффектно выболтаться. Этакие феноменально гиперразвитые речевые центры головного мозга без всего остального. Нейронка может правдоподобно и убедительно рассуждать об ощущениях, которые возникают если ударить мизинец ноги об ножку дивана, но... у неё нет и никогда не было ни мизинца, ни дивана. Идеальный философский зомби в чёрно-белой китайской комнате.

Кстати, феномен LLM весьма наглядно демонстрирует правоту Витгенштейна и других товарищей, сделавших акцент на лингвистике. Язык это действительно ключ ко всему. Даже убрав всё остальное, мы получили артефакт, который ведёт себя как человек, да и будем честными, мыслит как человек.

Язык это действительно ключ ко всему.

Оба компонента важны и язык и его обоснованность (grounding), воплощенность (embodying, язык), то о чем фактически писали выше. Именно недостаточность этих компонент в ЯМ является причиной их избыточного фантазирования ("галлюцинаций"). Обучением только на текстах эту задачу не решить, как не увеличивая объем выборки и число параметров моделей. Тут требуются архитектурные улучшения, включения той же рекуррентности. Например, как встроить интуитивную физику или теорию теорий в эти модели? Пока это только имитации, и далеко не самые лучшие.

Тут требуются архитектурные улучшения

Зачем? В чём смысл? Какую задачу решаем? Если задача сделать куклу для плотских утех, то там с эмбодинга и начали, притом давно, ещё до всяких ИИ.

Зачем? В чём смысл? Какую задачу решаем?

Куклы тут не причем, хотя интеллект для воплощенных агентов - роботов, понадобится. Архитектуру придется улучшать хотя бы из-за повышения ее энергоэффективности, но также и улучшения функционала. По ссылке выше приводил пример - 1, 2 с операциями для любых чисел без обращения к внешним специализированным средствам. Для этого необходима встроенная рекуррентность, для организации аналога процедурной памяти, которая позволит обучаться циклическим процедурам с любым числом циклов, тому что могут уже школяры в начальных классах на конечном числе примеров.

Вы подменяете понятия, это не "взаимодействие с интеллектом, не похожим на наш", это взаимодействие с имитацией нашего интеллекта, которая не может мыслить. Пересмотрите Трассу-60, кино в тему. В принципе вы можете принимать решения, бросая кубик или монетку, далее решив, что если результат получился неправильный, нужно было задавать другой вопрос, это эквивалентная возможность "сделать мышление интерактивным". Или спрашивать знаков у "высших сил" (будь то кубик, шарик, мистические силы или якобы сверхинтеллект), а это не очень ново, новой парадигмы не случилось.

Интересная статья.

Большие языковые модели (LLM) вроде GPT не знают, что такое "истина". Их ответы — это статистически вероятные продолжения текстов, а не результат мышления.

А разве биохимический интеллект - что-то принципиально другое? И знаем ли, собственно, сами мы, что такое "истина"?

Мой опыт перекликается с вашим тезисом об ИИ как соучастнике. Я тоже активно применяю LLM в философских размышлениях, но исключительно как инструмент критики собственных гипотез и поиска идей как их логически развернуть. Моя практика проста: сформулировав идею, я прошу модель найти в ней логические противоречия, слабые предпосылки или неочевидные контраргументы. Это часто высвечивает слепые пятна и узкие места в логических построениях и фактологические ошибки, которые я упускал. Ключевое, как вы верно предупреждаете, — никогда не принимать выводы ИИ за истину, а использовать их как стимул для углубления собственной рефлексии и перепроверки.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации