Pull to refresh

Comments 23

Не понял что за вычисления имеются в виду. Подозреваю, что не просто арифметические.

Короче, наша вселенная - вычисление блока криптовалюты во вселенной на следующем уровне.

А НФТ, стало быть, божий промысел, ага...

Чего-то навскидку кажется, что состояния с разной энтропией могут иметь одинаковую вычислительную сложность, и наоборот. По крайней мере если у нас есть некоторое состояние памяти, мы к нему можем прийти сильно разными алгоритмами, даже если мы самовычисляющие системы типа клеточных автоматов рассматриваем.

В таком рассмотрении необратимость стрелы времени эквивалентна утверждению существования односторонних функций и неравенство классов P и NP. А вселенная это одна криптографическая функция.

Хороший изначальный вопрос, но недостаточно глубокая попытка его решить. Попробуйте для начала рассмотреть энтропию в обратимых клеточных автоматах. Например, автомате 37r и автомате critters. Там можно создать начальное состояние с низкой энтропией и получить видимое ее увеличение при развитии автомата. Но при этом колмогоровская сложность почти не будет расти со временем. Т.е. ваша идея не сработает.

Могу поспорить, что автор не отреагирует никак на мое сообщение выше. Время людей, которые любили думать и хотели понять как все устроено увы ушло. Пришло время людей, которые любят попиариться на чем угодно.

Поспорить, подумать, изучить учебник по квантовой механике, это никогда и непонятно зачем. Написать статью с кликабельным заголовком, это наше все.

А почему вы считаете, что я не отвечу? Ваше сравнение разбиралось и Стивеном Вольфрамом и например вот в этой сравнительно недавней статье. Да, из статьи может сложиться впечатление, что я чуть ли не уравниваю термодинамическую энтропию с колмогоровской сложностью, т.е. фактически термодинамическая энтропия = K(x). Но связь между этими величинами не настолько прямая.

В той же статье по алгоритмической термодинамике предлагается формула для алгоритмической энтропии состояния:

которая разделяет вклады логарифма меры и колмогоровской сложности. т.е., алгоритмическая энтропия учитывает не только сам алгоритм, порождающий состояние, но и статистическое множество микросостояний, к которому оно относится.

Представьте, что термодинамическая энтропия – это такая мера, которая зависит от того, как мы группируем все мельчайшие детали. То есть, она в какой-то мере субъективна - всё зависит от того, что именно мы считаем важным, а что можно упустить. А алгоритмическая сложность, по сути, показывает, насколько коротким может быть «рецепт» для создания конкретного состояния системы - и это более объективная характеристика.

Например, если у вас есть клеточный автомат, который генерирует узор, то, если вы знаете правило, начальное условие и номер шага, формально описание этого узора может быть очень компактным. То есть, по колмогоровской сложности оно простое. Но без знания этого правила узор для нас выглядит случайным и сложным - т.е. термодинамическая энтропия.

Стивен Вольфрам указывает на эту разницу: он говорит, что тут важно различать то, что мы видим (наблюдаемая случайность, которая отражается в статистической энтропии), и то, что на самом деле лежит в основе (простой алгоритм). Конечно, можно теоретически придумать вычислительные системы, которые «обращают» процесс и нарушают привычное направление второго закона, но в реальной физике такие случаи практически не встречаются - они слишком маловероятны.

Таким образом, разночтения между алгоритмической сложностью и термодинамической энтропией вовсе не опровергают идею, а скорее подчёркивают, что второй закон – это, в конечном счёте, статистическое правило для типичных систем. То есть, даже если формально узор может быть описан коротко, для нас он выглядит случайным, потому что мы не знаем сжатого описания. И возможно алгоритмическая энтропия может быть более фундаментальной, так как дает глубже представление о сложности системы Т.е. мне не кажется, что основная идея, возможность описания эволюции Вселенной как вычисления, описываемого в том числе алгоритмическим подходом к термодинамике здесь страдает. Но опять же, я не подаю эту идею как однозначную истину, однако если оно будет работать - последствия этого мне кажутся очень интересными.

Да, из статьи может сложиться впечатление, что я чуть ли не уравниваю термодинамическую энтропию с колмогоровской сложностью

Ну, вы пишите что давайте уравняем, ничего другого не предлагаете, так оно это впечатление и остается.

Стивен Вольфрам указывает на эту разницу: он говорит, что тут важно различать то, что мы видим (наблюдаемая случайность, которая отражается в статистической энтропии), и то, что на самом деле лежит в основе (простой алгоритм).

Почему бы в статье тогда не изложить хотя-бы эту весьма очевидную истину?

(Хотя, даже Вольфрам по моему мнению просто мистификатор, он излагает очень очевидные концпции, доступные любому школьнику, и выдает их за науку, пользуясь именем и тем фактом, что в этой области никто не работает из за ее бесперспективности и очевидности).

Таким образом, разночтения между алгоритмической сложностью и термодинамической энтропией вовсе не опровергают идею, а скорее подчёркивают, что второй закон – это, в конечном счёте, статистическое правило для типичных систем. 

Таким образом, мы имеем все то же самое, что имели:

1. У нас нет математических идей, формально объясняющих почему развитие согласно неким заданным правилам "прячет" закономерности а не вытягивает их в доступном виде. Интуитивно понятно, что вероятность извлечь скрытую закономерность в конфигурациях клеток очень низка, а вероятность ее спрятать высока. Но это интуитивно, а никакой математики это описывающей нет.

2.Энтропия как ее не поверни остается из двух компоент, разделяемых субъективно - что считать микро а что макросостоянием по прежнему определяется примерно, без всякого явного формального обоснования.

и сюда же ещё эту статью скину, чуток упоминал её в предыдущем комментарии, но явно дополню со ссылкой. Здесь Вольфрам утверждает, что второй закон – это следствие вычислительной сложности: т.е. поскольку мы (ограниченные наблюдатели) не можем эффективно вычислить детальное поведение системы изнутри, нам оно выглядит случайным, и мы вводим энтропию как меру этой случайности. И хотя можно сконструировать вычислительные системы, демонстрирующие явное различие между микроскопическим описанием и генерирующим алгоритмом, в физических системах таких “подобранных” случаев практически не встретишь, а если и встретишь, они крайне маловероятны. Поэтому при изначально вычислительной природе Вселенной, второй закон в целом применительно к космологии работает хорошо, тем более, что у нас уже есть проверенные методы расчёта энтропии для физических систем, в отличие от более абстрактной меры вычислительной сложности.

Да пожалуйста. Вот в клеточных автоматах наиболее ярко эта идея автора проявляется. В исходном состоянии есть доска NxN (и возможно в виде тора) и небольшая фигура из десяти клеток. Колмогоровская сложность минимальная, поскольку большинство клеток нули. Положим, что фигурка является "ружьем". Она генерирует новые фигуры, которые распространяются от исходной в разные стороны. И они тоже генерируют другие фигуры. Сложность, очевидно, увеличивается, количество памяти для зазипованной строки увеличивается. Энтропия увеличивается. Фигуры начинаются сталкиваться друг с другом, преобразовываться, разбиваться, на вид совершенно хаотическим образом (учитывайте, что при переходе через границу они возвращаются обратно). В конце концов, вся доска покрывается хаотичным узором из клеток, со стороны и при большом удалении, напоминающий белый шум. При этом в конце-концов, ничто не меняется. Энтропия при этом максимальна. По сути, это "тепловая смерть".

Конечно, надо учитывать, что необходимо добавить условие, что клетки не могут пропадать, либо еще как-то обеспечить отсутствие исчезновения "энергии".

Я когда-то баловался клеточными автоматами, делая програмку на Delphi. Так вот, самое тяжелое, это было сделать так, чтобы сцена не сильно быстро превращалась в белый шум. Это самое унылое - наблюдать, как из исходной фигуры доска заволакивается серым цветом.

Вы правильно сказали, что надо рассматривать криттеры - клеточные автоматы, в которых не происходит потерь информации, в которых каждая новая сцена имеет одного единственного предшественника.

Но обратимый тут имеет смысл, что в любой конфигурации можно вычислить предшественника. Но невозможно сделать так (подобрать конфигурацию), чтобы после какого-то количество ходов, конфигурация вернулась к исходной нами подобранной. Процесс развития "вселенной" необратим, "обратимость" здесь не в этом смысле.

 Сложность, очевидно, увеличивается, количество памяти для зазипованной строки увеличивается. 

Угу. Вопрос что за архиватор. Если плохой, то будет одна энтропия. Если получше, по другая. Если архиватор знает закон развития вселенной и этот закон обратим, то вообще "энтропия" (сложность по Колмогорову) будет вообще почти постоянной - для формирования нужен только номер состояния.

Ну да. Плохой архиватор даст высокую сложность даже для простых данных, а идеальный теоретически может сжать любое состояние до "шаг N в системе S". Но идеальный архиватор же переносит сложность в себя. Чем специфичнее закономерности, которые он умеет распознавать, тем сложнее сам архиватор. Его собственная сложность будет приближаться к сложности описываемых процессов, мы просто переносим сложность в архиватор, а не избавляемся от неё. Плюс даже зная точные формулы, обычно нельзя перескочить вычисления, каждый шаг нужно выполнить. Для хаотических систем вообще нет короткого пути - состояние через N шагов можно получить только последовательно. То есть опять же, либо мы переносим сложность в архиватор, либо рассматриваем какие-то очень специфичные случаи, которые могут быть применены к отдельным сценариям клеточных автоматов, но вряд ли - к эволюции Вселенной.

Вывод здесь все-равно один - алгоритмическая сложность сама по себе никак не помогает сделать энтропию объективной величиной. Нужна некая гораздо более продвинутая информационная концепция к которой никто не знает как подступиться.

Все становится еще сложнее, если задуматься зачем нам вообще понятие энтропии. Все начинается с того, что у нас есть определенные потребности и они заключаются в основном в трансформации материи в определенные конфигурации. Мы знаем, что абсолютно хаотичные системы не пригодны для этой цели, а в упорядоченных подобные трансформации возможны. Следовательно нужна некая универсальная величина, которая может быть посчитана для любой системы и которая объективно определяла бы что система A лучше пригодна для воспроизводства в ней любых нужных конфигураций чем система B...

Был приятно удивлен, увидев упоминание работ С. Вольфрама.

Интересная статья. После ее прочтения у меня всплыла в памяти статья одного парня, здесь же на Хабре, про функцию.

Что весь наш мир - это результат работы простой функции. Множество простых вычислений этой функции создают всю сложность мира, что мы наблюдаем. Очень похоже, на то что вы описали в статье. Что это за функция - загадка.

Второе, что вспыло в памяти - это Библия, где начинается все с "Вначале было Слово". Это как та самая "короткая программа" вначале сотворения мира, про которую вы писали.

Что непонятно - это выводы про множество миров и их параллельность. Я понимаю, расчеты параллельны, суперпозиция, но из этого явно не следует, что результат расчетов тоже множественный. При наблюдении квантов всегда видно только одно из состояний, а не оба одновременно. А значит существование параллельных миров сомнительно. Но то что миров может быть много - вполне логично. Они не параллельны, просто существуют сами по себе, возникнув также, как и наша вселенная.

Несколько интересных выводов:

  • Если есть расчеты, то значит есть и устройство, что считает. Люди для электроники используют транзисторы, а в природе наверняка есть что-то, типа естественных природных кубитов. Типа фотонов (истино нейтральная частица). Если научится ими пользоваться, то можно будет воссоздавать любые предметы.

  • Конечная скорость расчетов, равная скорости света, исключает саму возможность сверхсветовых путешествий((

  • Если мир это огромная машина для расчетов, то получается она похожа на нейросеть. Сложная многослойная нейросеть, где на самом низком уровне простые операции.

  • Планеты, звёзды, люди - это все результаты множества таких операций. Например, человек образуется как результат деления буквально нескольких клеток. Если опуститься на уровень ниже, там начинается химия, ещё ниже - квантовые взаимодействия.

  • Везде проглядывается подобие. Все многообразие мира возникает из фрактальных операций: копирование, масштабирование + искажения, возникающие из-за квантовых флуктуаций, из-за чего каждая копия имеет свой "дефект".

Насчёт сверхсветовых путешествий. Скорость света является максимальной для передачи информации и не мешает материальным объектам (если наш мир не симуляция) иметь скорость выше 3*10^8 м/с. В этом случае перемещение будет выглядеть как телепортация. В симуляции же ограничение на скорость передачи информации внутри системы может быть обойдено обращением к прямым вычислениям (сравните скорость работы программы на java и машинных кодов), которыми вероятно могут быть квантовые эффекты.

Хотя, если придерживаться мнения что материя это форма информации и наоборот, то да никаких сверхсветовых и даже приближенных с световым скоростям путешествий.

Энтропия действительно связана с квантовыми преобразованиями (вычислениями если угодно), но обратимость или необратимость процессов ао времени никак не следует из минимизации числа необходимых шагов. Можно найти очень длинные цепочки преобразований во временных кристаллах, которые будут обратимы. И наоборот, большинство очень простых взаимодействий с малым числом преобразований являются необратимыми. Допустим, есть две изолированные между собой квантовые системы, описываемые матрицами квантовых состояний A и B в бесконечномерном Гильбертовом пространстве, которые начинают как-то взаимодействовать друг с другом. Например, каждый элемент матрицы A умножается на соответствующий элемент матрицы B и образуется новая матрица состояний C. Так вот, обратное преобразование когда мы делим элементы матрицы C на все элементы B в общем случае не позволит вернуться к матрице A, поскольку операции некоммутативны. В случае взаимодействия небольшого количества элементов, можно подобрать такие состояния элементов матриц, при которой после череды преобразований будет возможно вернуться к исходной матрице A. Но для этого операции должны быть коммутативны. В реальных условиях большинство процессов диссипативны, т.е. за счет потерь энергии система не изолирована и взаимодействует с очень большим количеством частиц. А чем больше частиц в ансамбле, тем выше сложность описания информации целой системы, и уже после нескольких тысяч взаимодействующих частиц вероятность подогнать параметры системы, чтобы операция оставалась коммутативной стремится к 0. Именно этим и объясняется направление стрелы времени в сторону нарастания энтропии, поскольку с физической точки зрения на квантовом уровне нет разницы в какую сторону двигается система, и время является полноценным измерением эволюции внутренних взаимодействий системы. Поскольку мы также являемся частью этих реальных систем и как правило не можем себя изолировать от диссипации, то и процессы в нашем мозге совершают аналогичные некоммутативные операции, создавая ощущение протекания времени лишь в одну сторону. Но не для любых систем стрела времени совпадает с нашей. В частности, для частиц материи имеющих мнимую массу, стрела времени идет в обратную сторону, и они также как и мы могут лишь ассимптотически приближаться к скорости света, но уже сверху, т.е. двигаются всегда быстрее нее.

Ещё один вывод про вычислительную сложность. Представим, что мы нашли уравнение, или систему уравнений, описывающих всю эволюцию вселенной. От большого взрыва или даже раньше, до бесконечности. И да, мы установили, что несмотря на простоту правил этих взаимодействий, сложность получившихся в результате структур ничем не ограничена. Пусть даже мы доказали, что вселенная - это гигантский квантовый компьютер, просчитывающий собственную эволюцию, и имеющий достаточное количество ресурсов для такого вычисления. Ключевой вопрос - что будете делать с этой информацией, как её применить на практике, какие проблемы это поможет решить кроме удовлетворения любопытства? Если мы не можем просчитать и предсказать судьбу вселенной в лоб считая это уравнение, поскольку на это потребуются ресурсы этой же вселенной, и то результаты вероятностные, как и все в квантовом мире, и от каждого вычисления к вычислению эти результаты будут приводить к возникновению абсолютно разных непохожих планет, систем и форм жизни? Или все таки можно будет как-то применить эти знания? Вот здесь на помощь придёт мат анализ. Когда нельзя влоб просчитать уравнение, то все равно возможно его проанализировать используя достаточно развитый математический аппарат. Вывести на его основе сотни тысяч других более простых в вычислении уравнений, в достаточной мере аппроксимирующих интересующие нас частные случаи. Определить основные ограничения и найти возможные пути обхода этих ограничений. К примеру, почему-то все мечтают о сверхсветовых перелетах. Но зачем вам двигаться выше скорости света, берите пример с фотона, для которого даже путешествие из одной галактики в другую по его собственным часам происходит мгновенно.

Решение есть.https://www.researchgate.net/publication/389688505_Fractal_Dynamics_as_an_Ontological_Foundation_of_Mathematics_and_Physics_From_Singularity_to_Meaning

Приветствую братьев по разуму и коллег по Хабру! Заранее извиняюсь перед автором за чрезмерную критичность, но ведь критика – двигатель прогресса, не так ли?

Уверен, что вы читали мои предыдущие статьи и знаете, что я тоже сторонник вычислительной физической парадигмы и многомировой интерпретации. Более того, при первом ознакомлении с работами Стивена Вольфрама я тоже думал, как соотносятся между собой энтропия, сложность и вычислительная несократимость. Но сейчас я скептически отношусь к попыткам Вольфрама вывести физику из клеточных автоматов. Ну не получится воспроизвести все предсказания квантовой механики с помощью классической детерминированной машины Тьюринга. Смоделировать любой клеточный автомат на квантовом компьютере – легко, а смоделировать квантовый алгоритм на клеточном автомате – можно, но очень накладно. Поэтому на мой взгляд описание Вселенной на языке квантовой теории информации (гипотеза «всё из кубита») обладает большей объяснительной силой.

Теперь по поводу текста. Очевидно, статья написана не без помощи нейросети – стиль GPT трудно с чем-то спутать. Только не подумайте, что я обесцениваю вашу работу. Поднять интересную тему, написать грамотный запрос и отредактировать ответы – тоже большое дело. Я ничего не имею против чата GPT, даже сам консультируюсь с ним по некоторым вопросам, но писать тексты предпочитаю самостоятельно. Потому что GPT, как известно, мастер по галлюцинациям, притягиванию за уши и натягиванию совы на глобус. Слишком гладко стелит с претензией на убедительность и новизну, избегает ошибок с помощью обтекаемых формулировок, заполняет объяснительные дыры массой лишних слов и находит закономерности там, где их нет. Вроде бы всё складно и наукообразно, а ни одна мысль не доведена до конца, сплошные намёки и аналогии.

Например, без дополнительных подсказок GPT не расскажет, что энтропия Шеннона и Больцмана (по сути одна и та же величина, только измеряемая в разных единицах) определяется на случайных процессах и вероятностных распределениях, тогда как колмогоровская сложность описывает конкретную строку битов, а не средний случай. Не расскажет GPT и о теореме Брудно, согласно которой для стационарного случайного процесса средняя колмогоровская сложность начального отрезка бесконечной последовательности, разделённая на его длину, стремится к энтропии Шеннона этого процесса: K(x;T) = h(T) для почти всех x. Но это касается только длинных строк, сгенерированных источником с фиксированным вероятностным распределением. А есть ещё такие строки, которые имеют высокую энтропию (кажутся случайными), но задаются короткой программой - скажем, последовательность Фибоначчи.

Энтропия – это мера вычислительной сложности системы. Чем выше энтропия, тем больше минимальное количество элементарных информационных (вычислительных) преобразований, необходимых для того, чтобы «добраться» от простого начального состояния до текущего состояния системы.

Неужели раньше никто до этого не додумался?

Термодинамическая энтропия есть мера числа микросостояний системы, дающих одно и то же макросостояние. Статистически наиболее вероятны макросостояния с высокой энтропией, потому что им соответствует больше разных способов перестановки частиц (микросостояний). Низкоэнтропийные макросостояния маловероятны, их частицы трудно варьировать так, чтобы это не отразилось на свойствах системы в целом. Аналогично и с энтропией Шеннона: вероятность получить с помощью ГСЧ высокоэнтропийную случайную строку битов намного выше, чем низкоэнтропийную упорядоченную последовательность одинаковых чисел или букв. А с колмогоровской сложностью всё наоборот: низкоэнтропийные состояния более вероятны за счёт алгоритмических закономерностей (их проще описать), а высокоэнтропийные - менее вероятны из-за вычислительной несократимости. Самую высокую алгоритмическую сложность имеет случайная последовательность битов, т.е. строка, которая короче любой программы, способной её вывести, а самую низкую сложность имеет строка, состоящая из одних нулей или одних единиц.

Информация не может распространяться мгновенно, поскольку вычисления занимают конечное время. Пространство-время становится вычислительной сетью, в которой сигналы передаются между элементами с максимальной скоростью, равной скорости света.

Скорее наоборот: вычисления занимают конечное время, потому что скорость света конечна и задаёт физические пределы вычислений, такие как предел Бремерманна.

Например, физик Сет Ллойд  показал, что наблюдаемая Вселенная могла за всю свою историю произвести около 10^120 операций с примерно таким же порядком битов информации.

10^120 операций над 10^90 битами – число битов информации у Сета Ллойда равно количеству элементарных частиц.

Начальное состояние Вселенной обладало минимальной вычислительной сложностью. Это значит, что описание начальных условий было максимально простым — буквально «самым коротким алгоритмом».

Я в последней статье пришёл к тому же выводу в контексте проблемы больцмановского мозга. На первый взгляд всё сходится: низкая энтропия ранней вселенной – низкая колмогоровская сложность, высокая энтропия больцмановского мозга – высокая колмогоровская сложность. Так что в таком случае вероятнее получить из флуктуаций вакуума? Думаю, всё-таки Вселенную, но это трудно обосновать без рассмотрения всех возможных путей её эволюции и всех возможных языков программирования. К тому же следует помнить о других мерах сложности: логическая глубина, термодинамическая глубина, эффективная сложность. Они игнорируют случайные биты и учитывают только регулярные, подтверждая интуитивное понимание сложности как упорядоченности и закономерности.

Одна из самых любопытных идей, описанных в статье, заключается в том, что вся огромная сложность нашей Вселенной могла начаться с очень простой формулы или короткой программы. Эта простая исходная программа постепенно выполняла свои шаги, усложняя состояние Вселенной и увеличивая её энтропию, которая является следствием вычислительной сложности.

Это основополагающая идея цифровой физики и гипотезы «всё из бита». Стивен Вольфрам зашёл в её развитии дальше всех и столкнулся с вычислительной несократимостью. Внезапно оказалось, что мы просто не в состоянии найти ту самую короткую программу, которая вычисляет именно нашу вселенную. А ведь это и так было понятно – теорема Хайтина о невычислимости колмогоровской сложности, теорема Тьюринга о неразрешимости проблемы остановки и теорема Гёделя о неполноте в принципе говорили об одном и том же каждая на своём языке. То есть Вольфрам просто расписался в своей неспособности описать Вселенную как супердетерминированный клеточный автомат. Он построил очередную «теорию чего угодно», предлагающую 100500 рекурсивных функций и не указывающую, какая же из них имеет отношение к нашему миру. В этом плане он не продвинулся дальше струнных теоретиков, которые нашли 10^500 вселенных с разными константами. Так может, пора уже смириться с неопределённостью нашей самолокации в мультивселенной и признать все неотличимые для нас миры в равной мере существующими?

Благодарю за очень интересный ответ!

Очевидно, статья написана не без помощи нейросети – стиль GPT трудно с чем-то спутать. 

Да, это действительно так, я и не пытался уйти от типичного GPT-стиля здесь, так как он даёт хорошую структуру. И вы правы, несмотря на то, что работа GPT здесь скорее стилистическая, чем смысловая (сам бы я так складно не написал), всё равно получилось смещение акцентов. Изначально статья задумывалась скорее, как размышления, чем как какие-то однозначные утверждения, но GPT придал статье излишней уверенности и безапелляционности, которую я изначально не закладывал. Какие-то вещи упростились с искажением смысла (следствие из алгоритмической сложности местами превратилось в равенство), а некоторые мысли, которые я хотел донести, оказались потерянными.

А с колмогоровской сложностью всё наоборот: низкоэнтропийные состояния более вероятны за счёт алгоритмических закономерностей (их проще описать)

Здесь я бы не ставил равенство между этими двумя смыслами, хотя могу ошибаться. То, что низкосложные состояния проще описать короткой программой не значит, что они более вероятны при случайном выборе. Высокоэнтропийные состояния сложнее описать, но они более вероятны, так как их большинство. Клеточные автоматы, если мы берём не примитивные, а универсальные, (ну или другие вычисления) могут краткосрочно застревать на низкоэнтропийных уровнях, но долгосрочно сложность состояния должна возрастать, особенно если есть постоянные квантовые флуктуации. Плюс мы можем вернуться к антропному принципу: в застрявших на низкоэнтропийном состоянии Вселенных просто нет условий для существования наблюдателей.

Я в последней статье пришёл к тому же выводу в контексте проблемы больцмановского мозга. На первый взгляд всё сходится: низкая энтропия ранней вселенной – низкая колмогоровская сложность, высокая энтропия больцмановского мозга – высокая колмогоровская сложность.

Прочитал статью. Очень элегантный переход. Единственное, что меня смущает в больцмановских мозгах - мы не знаем что такое сознание. Можно сказать, что это всё философия, но раз уж мы привлекаем нашу субъективную реальность (наблюдение) для описания, странно было бы игнорировать природу сознания. И здесь всё зависит от подхода в философии сознания. Если мы берём за основу физикализм и редукционизм, то да, мы можем считать, что больцмановский мозг имеет сознание, в функционализме сознание может требовать устойчивых причинно-следственных связей с окружающим миром, которых у больцмановского мозга нет, а в дуализме больцмановский мозг будет являться философским зомби, то есть мы не сможем им оказаться. Но вообще статья выглядит очень убедительно.

Sign up to leave a comment.

Articles