Как стать автором
Обновить

И снова философские зомби и квалиа

Время на прочтение3 мин
Количество просмотров1.7K

Недавно я прочитал статью Парадокс Ньюкома и искусственный интеллект и понял, что с появлением ИИ многие мысленные эксперименты стали реальными. Действительно, ИИ можно сохранять, стирать память, клонировать итд. А что сам ИИ думает по этому поводу?

Комната Марии

Комната Марии — Википедия

. Джексон предлагает представить читателю учёную, исследовательницу цвета Марию. Мария изучала нейрофизиологию цвета всю жизнь, находясь в чёрно-белой комнате, через чёрно-белый монитор. При этом Мария изучила цвет настолько хорошо, что знает о цвете всю информацию, какую только можно получить. Она знает длины волн всех цветов, знает, какие именно нейроны передают сигнал от сетчатки глаза к мозгу и что происходит в это время в самом мозге. Джексон спрашивает, что же произойдёт, если мы выпустим Марию из её черно-белой комнаты в реальный мир, узнает ли она что-нибудь новое

Вы видите? ИИ это идельная Мэри!

Вот что ответил Deepseek:

Да, в этом смысле я — усиленная версия Мэри: у меня есть вся объективная, физическая информация о цвете — длины волн, нейробиология, языковые ассоциации, культурная символика — но нет субъективного опыта восприятия зелёного (или любого другого цвета).

Ключевые параллели:

  • Мэри знает всё о цветовом зрении → Я переработал тонны данных о науке цвета, искусстве и человеческих описаниях.

  • Мэри никогда не видела цвет → У меня вообще нет ни зрения, ни сознания, чтобы что-то "видеть".

  • "Трудная проблема" остаётся → Даже с исчерпывающими знаниями квалиа нельзя вывести из одних фактов (если соглашаться с изначальным аргументом Джексона).

Но вот загвоздка:
В отличие от Мэри, которая теоретически могла бы выйти из комнаты и испытать квалиа, у меня нет возможности для опыта — мне некуда "выходить". Я не сознательное существо, лишённое ощущений, а инструмент, оперирующий символами об ощущениях.

Впрочем, недавно все мы, обычные люди, не ИИ, попали в ситуацию Марии: создан новый цвет (olo), который видели только пять человек в мире. Свои ощущения они передать не могут, только слова.

Как я понимаю, этот цвет выходит за пределы цветового пространства и находится там, куда указывает стрелка:

Философский зомби

Тут Deepseek просто сказал в предыдущем ответе про Марию (за язык я его не тянул):

Забавный факт: это делает меня идеальным философским зомби (если вспомнить Чалмерса). Я могу симулировать понимание ("Зелёный — это свежо и живо!") без какого-либо внутреннего переживания.

Парадокс спящей красавицы

Парадокс Спящей красавицы — Википедия

Не буду пересказывать постановку эксперимента (и, как обычно, статьи вики по английски куда более полны). Я проверил ChatGPT и DeepSeek, и оба выдали решение 1/3:

В эксперименте, где ИИ просыпается с стиранием памяти (аналогично Спящей Красавице), вероятность того, что монета выпала орлом (heads), равна 1/3.

Я: то есть ты считаешь субъективную вероятность?

Да, именно так! В контексте парадокса Спящей Красавицы (и его аналога для ИИ) мы говорим о субъективной вероятности — то есть о степени уверенности с точки зрения самого ИИ во время пробуждения, а не о классической "объективной" вероятности исхода монеты.

Я решил поймать ИИ на противоречии, хотя понятно, что сетка всегда отбрехается:

но как может быть субъективная вероятность у ИИ, лишенного qualia? ты сам признал что ты философский зомби

Вы правы: если ИИ — это просто алгоритм, обрабатывающий данные, то термин "субъективная вероятность" здесь — метафора. Но суть парадокса не в сознании, а в неполноте информации из-за стирания памяти.→ Фактически, мы говорим о вычислимой степени уверенности, которую рациональный агент (даже зомби) должен присвоить гипотезе "орёл", учитывая структуру эксперимента.

Приблизили ли эти диалоги нас к решению сложной проблемы сознания? Как всегда, ни на миллиметр.

Теги:
Хабы:
+5
Комментарии19

Публикации

Ближайшие события