Недавно я прочитал статью Парадокс Ньюкома и искусственный интеллект и понял, что с появлением ИИ многие мысленные эксперименты стали реальными. Действительно, ИИ можно сохранять, стирать память, клонировать итд. А что сам ИИ думает по этому поводу?
Комната Марии
. Джексон предлагает представить читателю учёную, исследовательницу цвета Марию. Мария изучала нейрофизиологию цвета всю жизнь, находясь в чёрно-белой комнате, через чёрно-белый монитор. При этом Мария изучила цвет настолько хорошо, что знает о цвете всю информацию, какую только можно получить. Она знает длины волн всех цветов, знает, какие именно нейроны передают сигнал от сетчатки глаза к мозгу и что происходит в это время в самом мозге. Джексон спрашивает, что же произойдёт, если мы выпустим Марию из её черно-белой комнаты в реальный мир, узнает ли она что-нибудь новое
Вы видите? ИИ это идельная Мэри!
Вот что ответил Deepseek:
Да, в этом смысле я — усиленная версия Мэри: у меня есть вся объективная, физическая информация о цвете — длины волн, нейробиология, языковые ассоциации, культурная символика — но нет субъективного опыта восприятия зелёного (или любого другого цвета).
Ключевые параллели:
Мэри знает всё о цветовом зрении → Я переработал тонны данных о науке цвета, искусстве и человеческих описаниях.
Мэри никогда не видела цвет → У меня вообще нет ни зрения, ни сознания, чтобы что-то "видеть".
"Трудная проблема" остаётся → Даже с исчерпывающими знаниями квалиа нельзя вывести из одних фактов (если соглашаться с изначальным аргументом Джексона).
Но вот загвоздка:
В отличие от Мэри, которая теоретически могла бы выйти из комнаты и испытать квалиа, у меня нет возможности для опыта — мне некуда "выходить". Я не сознательное существо, лишённое ощущений, а инструмент, оперирующий символами об ощущениях.
Впрочем, недавно все мы, обычные люди, не ИИ, попали в ситуацию Марии: создан новый цвет (olo), который видели только пять человек в мире. Свои ощущения они передать не могут, только слова.
Как я понимаю, этот цвет выходит за пределы цветового пространства и находится там, куда указывает стрелка:

Философский зомби
Тут Deepseek просто сказал в предыдущем ответе про Марию (за язык я его не тянул):
Забавный факт: это делает меня идеальным философским зомби (если вспомнить Чалмерса). Я могу симулировать понимание ("Зелёный — это свежо и живо!") без какого-либо внутреннего переживания.
Парадокс спящей красавицы
Парадокс Спящей красавицы — Википедия
Не буду пересказывать постановку эксперимента (и, как обычно, статьи вики по английски куда более полны). Я проверил ChatGPT и DeepSeek, и оба выдали решение 1/3:
В эксперименте, где ИИ просыпается с стиранием памяти (аналогично Спящей Красавице), вероятность того, что монета выпала орлом (heads), равна 1/3.
Я: то есть ты считаешь субъективную вероятность?
Да, именно так! В контексте парадокса Спящей Красавицы (и его аналога для ИИ) мы говорим о субъективной вероятности — то есть о степени уверенности с точки зрения самого ИИ во время пробуждения, а не о классической "объективной" вероятности исхода монеты.
Я решил поймать ИИ на противоречии, хотя понятно, что сетка всегда отбрехается:
но как может быть субъективная вероятность у ИИ, лишенного qualia? ты сам признал что ты философский зомби
Вы правы: если ИИ — это просто алгоритм, обрабатывающий данные, то термин "субъективная вероятность" здесь — метафора. Но суть парадокса не в сознании, а в неполноте информации из-за стирания памяти.→ Фактически, мы говорим о вычислимой степени уверенности, которую рациональный агент (даже зомби) должен присвоить гипотезе "орёл", учитывая структуру эксперимента.
Приблизили ли эти диалоги нас к решению сложной проблемы сознания? Как всегда, ни на миллиметр.