
Комментарии 25
Не понял что за вычисления имеются в виду. Подозреваю, что не просто арифметические.
Чего-то навскидку кажется, что состояния с разной энтропией могут иметь одинаковую вычислительную сложность, и наоборот. По крайней мере если у нас есть некоторое состояние памяти, мы к нему можем прийти сильно разными алгоритмами, даже если мы самовычисляющие системы типа клеточных автоматов рассматриваем.
В таком рассмотрении необратимость стрелы времени эквивалентна утверждению существования односторонних функций и неравенство классов P и NP. А вселенная это одна криптографическая функция.
Хороший изначальный вопрос, но недостаточно глубокая попытка его решить. Попробуйте для начала рассмотреть энтропию в обратимых клеточных автоматах. Например, автомате 37r и автомате critters. Там можно создать начальное состояние с низкой энтропией и получить видимое ее увеличение при развитии автомата. Но при этом колмогоровская сложность почти не будет расти со временем. Т.е. ваша идея не сработает.
Могу поспорить, что автор не отреагирует никак на мое сообщение выше. Время людей, которые любили думать и хотели понять как все устроено увы ушло. Пришло время людей, которые любят попиариться на чем угодно.
Поспорить, подумать, изучить учебник по квантовой механике, это никогда и непонятно зачем. Написать статью с кликабельным заголовком, это наше все.
А почему вы считаете, что я не отвечу? Ваше сравнение разбиралось и Стивеном Вольфрамом и например вот в этой сравнительно недавней статье. Да, из статьи может сложиться впечатление, что я чуть ли не уравниваю термодинамическую энтропию с колмогоровской сложностью, т.е. фактически термодинамическая энтропия = K(x). Но связь между этими величинами не настолько прямая.
В той же статье по алгоритмической термодинамике предлагается формула для алгоритмической энтропии состояния:

которая разделяет вклады логарифма меры и колмогоровской сложности. т.е., алгоритмическая энтропия учитывает не только сам алгоритм, порождающий состояние, но и статистическое множество микросостояний, к которому оно относится.
Представьте, что термодинамическая энтропия – это такая мера, которая зависит от того, как мы группируем все мельчайшие детали. То есть, она в какой-то мере субъективна - всё зависит от того, что именно мы считаем важным, а что можно упустить. А алгоритмическая сложность, по сути, показывает, насколько коротким может быть «рецепт» для создания конкретного состояния системы - и это более объективная характеристика.
Например, если у вас есть клеточный автомат, который генерирует узор, то, если вы знаете правило, начальное условие и номер шага, формально описание этого узора может быть очень компактным. То есть, по колмогоровской сложности оно простое. Но без знания этого правила узор для нас выглядит случайным и сложным - т.е. термодинамическая энтропия.
Стивен Вольфрам указывает на эту разницу: он говорит, что тут важно различать то, что мы видим (наблюдаемая случайность, которая отражается в статистической энтропии), и то, что на самом деле лежит в основе (простой алгоритм). Конечно, можно теоретически придумать вычислительные системы, которые «обращают» процесс и нарушают привычное направление второго закона, но в реальной физике такие случаи практически не встречаются - они слишком маловероятны.
Таким образом, разночтения между алгоритмической сложностью и термодинамической энтропией вовсе не опровергают идею, а скорее подчёркивают, что второй закон – это, в конечном счёте, статистическое правило для типичных систем. То есть, даже если формально узор может быть описан коротко, для нас он выглядит случайным, потому что мы не знаем сжатого описания. И возможно алгоритмическая энтропия может быть более фундаментальной, так как дает глубже представление о сложности системы Т.е. мне не кажется, что основная идея, возможность описания эволюции Вселенной как вычисления, описываемого в том числе алгоритмическим подходом к термодинамике здесь страдает. Но опять же, я не подаю эту идею как однозначную истину, однако если оно будет работать - последствия этого мне кажутся очень интересными.
Да, из статьи может сложиться впечатление, что я чуть ли не уравниваю термодинамическую энтропию с колмогоровской сложностью
Ну, вы пишите что давайте уравняем, ничего другого не предлагаете, так оно это впечатление и остается.
Стивен Вольфрам указывает на эту разницу: он говорит, что тут важно различать то, что мы видим (наблюдаемая случайность, которая отражается в статистической энтропии), и то, что на самом деле лежит в основе (простой алгоритм).
Почему бы в статье тогда не изложить хотя-бы эту весьма очевидную истину?
(Хотя, даже Вольфрам по моему мнению просто мистификатор, он излагает очень очевидные концпции, доступные любому школьнику, и выдает их за науку, пользуясь именем и тем фактом, что в этой области никто не работает из за ее бесперспективности и очевидности).
Таким образом, разночтения между алгоритмической сложностью и термодинамической энтропией вовсе не опровергают идею, а скорее подчёркивают, что второй закон – это, в конечном счёте, статистическое правило для типичных систем.
Таким образом, мы имеем все то же самое, что имели:
1. У нас нет математических идей, формально объясняющих почему развитие согласно неким заданным правилам "прячет" закономерности а не вытягивает их в доступном виде. Интуитивно понятно, что вероятность извлечь скрытую закономерность в конфигурациях клеток очень низка, а вероятность ее спрятать высока. Но это интуитивно, а никакой математики это описывающей нет.
2.Энтропия как ее не поверни остается из двух компоент, разделяемых субъективно - что считать микро а что макросостоянием по прежнему определяется примерно, без всякого явного формального обоснования.
и сюда же ещё эту статью скину, чуток упоминал её в предыдущем комментарии, но явно дополню со ссылкой. Здесь Вольфрам утверждает, что второй закон – это следствие вычислительной сложности: т.е. поскольку мы (ограниченные наблюдатели) не можем эффективно вычислить детальное поведение системы изнутри, нам оно выглядит случайным, и мы вводим энтропию как меру этой случайности. И хотя можно сконструировать вычислительные системы, демонстрирующие явное различие между микроскопическим описанием и генерирующим алгоритмом, в физических системах таких “подобранных” случаев практически не встретишь, а если и встретишь, они крайне маловероятны. Поэтому при изначально вычислительной природе Вселенной, второй закон в целом применительно к космологии работает хорошо, тем более, что у нас уже есть проверенные методы расчёта энтропии для физических систем, в отличие от более абстрактной меры вычислительной сложности.
Да пожалуйста. Вот в клеточных автоматах наиболее ярко эта идея автора проявляется. В исходном состоянии есть доска NxN (и возможно в виде тора) и небольшая фигура из десяти клеток. Колмогоровская сложность минимальная, поскольку большинство клеток нули. Положим, что фигурка является "ружьем". Она генерирует новые фигуры, которые распространяются от исходной в разные стороны. И они тоже генерируют другие фигуры. Сложность, очевидно, увеличивается, количество памяти для зазипованной строки увеличивается. Энтропия увеличивается. Фигуры начинаются сталкиваться друг с другом, преобразовываться, разбиваться, на вид совершенно хаотическим образом (учитывайте, что при переходе через границу они возвращаются обратно). В конце концов, вся доска покрывается хаотичным узором из клеток, со стороны и при большом удалении, напоминающий белый шум. При этом в конце-концов, ничто не меняется. Энтропия при этом максимальна. По сути, это "тепловая смерть".
Конечно, надо учитывать, что необходимо добавить условие, что клетки не могут пропадать, либо еще как-то обеспечить отсутствие исчезновения "энергии".
Я когда-то баловался клеточными автоматами, делая програмку на Delphi. Так вот, самое тяжелое, это было сделать так, чтобы сцена не сильно быстро превращалась в белый шум. Это самое унылое - наблюдать, как из исходной фигуры доска заволакивается серым цветом.
Вы правильно сказали, что надо рассматривать криттеры - клеточные автоматы, в которых не происходит потерь информации, в которых каждая новая сцена имеет одного единственного предшественника.
Но обратимый тут имеет смысл, что в любой конфигурации можно вычислить предшественника. Но невозможно сделать так (подобрать конфигурацию), чтобы после какого-то количество ходов, конфигурация вернулась к исходной нами подобранной. Процесс развития "вселенной" необратим, "обратимость" здесь не в этом смысле.
Сложность, очевидно, увеличивается, количество памяти для зазипованной строки увеличивается.
Угу. Вопрос что за архиватор. Если плохой, то будет одна энтропия. Если получше, по другая. Если архиватор знает закон развития вселенной и этот закон обратим, то вообще "энтропия" (сложность по Колмогорову) будет вообще почти постоянной - для формирования нужен только номер состояния.
Ну да. Плохой архиватор даст высокую сложность даже для простых данных, а идеальный теоретически может сжать любое состояние до "шаг N в системе S". Но идеальный архиватор же переносит сложность в себя. Чем специфичнее закономерности, которые он умеет распознавать, тем сложнее сам архиватор. Его собственная сложность будет приближаться к сложности описываемых процессов, мы просто переносим сложность в архиватор, а не избавляемся от неё. Плюс даже зная точные формулы, обычно нельзя перескочить вычисления, каждый шаг нужно выполнить. Для хаотических систем вообще нет короткого пути - состояние через N шагов можно получить только последовательно. То есть опять же, либо мы переносим сложность в архиватор, либо рассматриваем какие-то очень специфичные случаи, которые могут быть применены к отдельным сценариям клеточных автоматов, но вряд ли - к эволюции Вселенной.
Вывод здесь все-равно один - алгоритмическая сложность сама по себе никак не помогает сделать энтропию объективной величиной. Нужна некая гораздо более продвинутая информационная концепция к которой никто не знает как подступиться.
Все становится еще сложнее, если задуматься зачем нам вообще понятие энтропии. Все начинается с того, что у нас есть определенные потребности и они заключаются в основном в трансформации материи в определенные конфигурации. Мы знаем, что абсолютно хаотичные системы не пригодны для этой цели, а в упорядоченных подобные трансформации возможны. Следовательно нужна некая универсальная величина, которая может быть посчитана для любой системы и которая объективно определяла бы что система A лучше пригодна для воспроизводства в ней любых нужных конфигураций чем система B...
Был приятно удивлен, увидев упоминание работ С. Вольфрама.
Интересная статья. После ее прочтения у меня всплыла в памяти статья одного парня, здесь же на Хабре, про функцию.
Что весь наш мир - это результат работы простой функции. Множество простых вычислений этой функции создают всю сложность мира, что мы наблюдаем. Очень похоже, на то что вы описали в статье. Что это за функция - загадка.
Второе, что вспыло в памяти - это Библия, где начинается все с "Вначале было Слово". Это как та самая "короткая программа" вначале сотворения мира, про которую вы писали.
Что непонятно - это выводы про множество миров и их параллельность. Я понимаю, расчеты параллельны, суперпозиция, но из этого явно не следует, что результат расчетов тоже множественный. При наблюдении квантов всегда видно только одно из состояний, а не оба одновременно. А значит существование параллельных миров сомнительно. Но то что миров может быть много - вполне логично. Они не параллельны, просто существуют сами по себе, возникнув также, как и наша вселенная.
Несколько интересных выводов:
Если есть расчеты, то значит есть и устройство, что считает. Люди для электроники используют транзисторы, а в природе наверняка есть что-то, типа естественных природных кубитов. Типа фотонов (истино нейтральная частица). Если научится ими пользоваться, то можно будет воссоздавать любые предметы.
Конечная скорость расчетов, равная скорости света, исключает саму возможность сверхсветовых путешествий((
Если мир это огромная машина для расчетов, то получается она похожа на нейросеть. Сложная многослойная нейросеть, где на самом низком уровне простые операции.
Планеты, звёзды, люди - это все результаты множества таких операций. Например, человек образуется как результат деления буквально нескольких клеток. Если опуститься на уровень ниже, там начинается химия, ещё ниже - квантовые взаимодействия.
Везде проглядывается подобие. Все многообразие мира возникает из фрактальных операций: копирование, масштабирование + искажения, возникающие из-за квантовых флуктуаций, из-за чего каждая копия имеет свой "дефект".
Насчёт сверхсветовых путешествий. Скорость света является максимальной для передачи информации и не мешает материальным объектам (если наш мир не симуляция) иметь скорость выше 3*10^8 м/с. В этом случае перемещение будет выглядеть как телепортация. В симуляции же ограничение на скорость передачи информации внутри системы может быть обойдено обращением к прямым вычислениям (сравните скорость работы программы на java и машинных кодов), которыми вероятно могут быть квантовые эффекты.
Хотя, если придерживаться мнения что материя это форма информации и наоборот, то да никаких сверхсветовых и даже приближенных с световым скоростям путешествий.
Энтропия действительно связана с квантовыми преобразованиями (вычислениями если угодно), но обратимость или необратимость процессов ао времени никак не следует из минимизации числа необходимых шагов. Можно найти очень длинные цепочки преобразований во временных кристаллах, которые будут обратимы. И наоборот, большинство очень простых взаимодействий с малым числом преобразований являются необратимыми. Допустим, есть две изолированные между собой квантовые системы, описываемые матрицами квантовых состояний A и B в бесконечномерном Гильбертовом пространстве, которые начинают как-то взаимодействовать друг с другом. Например, каждый элемент матрицы A умножается на соответствующий элемент матрицы B и образуется новая матрица состояний C. Так вот, обратное преобразование когда мы делим элементы матрицы C на все элементы B в общем случае не позволит вернуться к матрице A, поскольку операции некоммутативны. В случае взаимодействия небольшого количества элементов, можно подобрать такие состояния элементов матриц, при которой после череды преобразований будет возможно вернуться к исходной матрице A. Но для этого операции должны быть коммутативны. В реальных условиях большинство процессов диссипативны, т.е. за счет потерь энергии система не изолирована и взаимодействует с очень большим количеством частиц. А чем больше частиц в ансамбле, тем выше сложность описания информации целой системы, и уже после нескольких тысяч взаимодействующих частиц вероятность подогнать параметры системы, чтобы операция оставалась коммутативной стремится к 0. Именно этим и объясняется направление стрелы времени в сторону нарастания энтропии, поскольку с физической точки зрения на квантовом уровне нет разницы в какую сторону двигается система, и время является полноценным измерением эволюции внутренних взаимодействий системы. Поскольку мы также являемся частью этих реальных систем и как правило не можем себя изолировать от диссипации, то и процессы в нашем мозге совершают аналогичные некоммутативные операции, создавая ощущение протекания времени лишь в одну сторону. Но не для любых систем стрела времени совпадает с нашей. В частности, для частиц материи имеющих мнимую массу, стрела времени идет в обратную сторону, и они также как и мы могут лишь ассимптотически приближаться к скорости света, но уже сверху, т.е. двигаются всегда быстрее нее.
Ещё один вывод про вычислительную сложность. Представим, что мы нашли уравнение, или систему уравнений, описывающих всю эволюцию вселенной. От большого взрыва или даже раньше, до бесконечности. И да, мы установили, что несмотря на простоту правил этих взаимодействий, сложность получившихся в результате структур ничем не ограничена. Пусть даже мы доказали, что вселенная - это гигантский квантовый компьютер, просчитывающий собственную эволюцию, и имеющий достаточное количество ресурсов для такого вычисления. Ключевой вопрос - что будете делать с этой информацией, как её применить на практике, какие проблемы это поможет решить кроме удовлетворения любопытства? Если мы не можем просчитать и предсказать судьбу вселенной в лоб считая это уравнение, поскольку на это потребуются ресурсы этой же вселенной, и то результаты вероятностные, как и все в квантовом мире, и от каждого вычисления к вычислению эти результаты будут приводить к возникновению абсолютно разных непохожих планет, систем и форм жизни? Или все таки можно будет как-то применить эти знания? Вот здесь на помощь придёт мат анализ. Когда нельзя влоб просчитать уравнение, то все равно возможно его проанализировать используя достаточно развитый математический аппарат. Вывести на его основе сотни тысяч других более простых в вычислении уравнений, в достаточной мере аппроксимирующих интересующие нас частные случаи. Определить основные ограничения и найти возможные пути обхода этих ограничений. К примеру, почему-то все мечтают о сверхсветовых перелетах. Но зачем вам двигаться выше скорости света, берите пример с фотона, для которого даже путешествие из одной галактики в другую по его собственным часам происходит мгновенно.
Приветствую братьев по разуму и коллег по Хабру! Заранее извиняюсь перед автором за чрезмерную критичность, но ведь критика – двигатель прогресса, не так ли?
Уверен, что вы читали мои предыдущие статьи и знаете, что я тоже сторонник вычислительной физической парадигмы и многомировой интерпретации. Более того, при первом ознакомлении с работами Стивена Вольфрама я тоже думал, как соотносятся между собой энтропия, сложность и вычислительная несократимость. Но сейчас я скептически отношусь к попыткам Вольфрама вывести физику из клеточных автоматов. Ну не получится воспроизвести все предсказания квантовой механики с помощью классической детерминированной машины Тьюринга. Смоделировать любой клеточный автомат на квантовом компьютере – легко, а смоделировать квантовый алгоритм на клеточном автомате – можно, но очень накладно. Поэтому на мой взгляд описание Вселенной на языке квантовой теории информации (гипотеза «всё из кубита») обладает большей объяснительной силой.
Теперь по поводу текста. Очевидно, статья написана не без помощи нейросети – стиль GPT трудно с чем-то спутать. Только не подумайте, что я обесцениваю вашу работу. Поднять интересную тему, написать грамотный запрос и отредактировать ответы – тоже большое дело. Я ничего не имею против чата GPT, даже сам консультируюсь с ним по некоторым вопросам, но писать тексты предпочитаю самостоятельно. Потому что GPT, как известно, мастер по галлюцинациям, притягиванию за уши и натягиванию совы на глобус. Слишком гладко стелит с претензией на убедительность и новизну, избегает ошибок с помощью обтекаемых формулировок, заполняет объяснительные дыры массой лишних слов и находит закономерности там, где их нет. Вроде бы всё складно и наукообразно, а ни одна мысль не доведена до конца, сплошные намёки и аналогии.
Например, без дополнительных подсказок GPT не расскажет, что энтропия Шеннона и Больцмана (по сути одна и та же величина, только измеряемая в разных единицах) определяется на случайных процессах и вероятностных распределениях, тогда как колмогоровская сложность описывает конкретную строку битов, а не средний случай. Не расскажет GPT и о теореме Брудно, согласно которой для стационарного случайного процесса средняя колмогоровская сложность начального отрезка бесконечной последовательности, разделённая на его длину, стремится к энтропии Шеннона этого процесса: K(x;T) = h(T) для почти всех x. Но это касается только длинных строк, сгенерированных источником с фиксированным вероятностным распределением. А есть ещё такие строки, которые имеют высокую энтропию (кажутся случайными), но задаются короткой программой - скажем, последовательность Фибоначчи.
Энтропия – это мера вычислительной сложности системы. Чем выше энтропия, тем больше минимальное количество элементарных информационных (вычислительных) преобразований, необходимых для того, чтобы «добраться» от простого начального состояния до текущего состояния системы.
Неужели раньше никто до этого не додумался?
Термодинамическая энтропия есть мера числа микросостояний системы, дающих одно и то же макросостояние. Статистически наиболее вероятны макросостояния с высокой энтропией, потому что им соответствует больше разных способов перестановки частиц (микросостояний). Низкоэнтропийные макросостояния маловероятны, их частицы трудно варьировать так, чтобы это не отразилось на свойствах системы в целом. Аналогично и с энтропией Шеннона: вероятность получить с помощью ГСЧ высокоэнтропийную случайную строку битов намного выше, чем низкоэнтропийную упорядоченную последовательность одинаковых чисел или букв. А с колмогоровской сложностью всё наоборот: низкоэнтропийные состояния более вероятны за счёт алгоритмических закономерностей (их проще описать), а высокоэнтропийные - менее вероятны из-за вычислительной несократимости. Самую высокую алгоритмическую сложность имеет случайная последовательность битов, т.е. строка, которая короче любой программы, способной её вывести, а самую низкую сложность имеет строка, состоящая из одних нулей или одних единиц.
Информация не может распространяться мгновенно, поскольку вычисления занимают конечное время. Пространство-время становится вычислительной сетью, в которой сигналы передаются между элементами с максимальной скоростью, равной скорости света.
Скорее наоборот: вычисления занимают конечное время, потому что скорость света конечна и задаёт физические пределы вычислений, такие как предел Бремерманна.
Например, физик Сет Ллойд показал, что наблюдаемая Вселенная могла за всю свою историю произвести около 10^120 операций с примерно таким же порядком битов информации.
10^120 операций над 10^90 битами – число битов информации у Сета Ллойда равно количеству элементарных частиц.
Начальное состояние Вселенной обладало минимальной вычислительной сложностью. Это значит, что описание начальных условий было максимально простым — буквально «самым коротким алгоритмом».
Я в последней статье пришёл к тому же выводу в контексте проблемы больцмановского мозга. На первый взгляд всё сходится: низкая энтропия ранней вселенной – низкая колмогоровская сложность, высокая энтропия больцмановского мозга – высокая колмогоровская сложность. Так что в таком случае вероятнее получить из флуктуаций вакуума? Думаю, всё-таки Вселенную, но это трудно обосновать без рассмотрения всех возможных путей её эволюции и всех возможных языков программирования. К тому же следует помнить о других мерах сложности: логическая глубина, термодинамическая глубина, эффективная сложность. Они игнорируют случайные биты и учитывают только регулярные, подтверждая интуитивное понимание сложности как упорядоченности и закономерности.
Одна из самых любопытных идей, описанных в статье, заключается в том, что вся огромная сложность нашей Вселенной могла начаться с очень простой формулы или короткой программы. Эта простая исходная программа постепенно выполняла свои шаги, усложняя состояние Вселенной и увеличивая её энтропию, которая является следствием вычислительной сложности.
Это основополагающая идея цифровой физики и гипотезы «всё из бита». Стивен Вольфрам зашёл в её развитии дальше всех и столкнулся с вычислительной несократимостью. Внезапно оказалось, что мы просто не в состоянии найти ту самую короткую программу, которая вычисляет именно нашу вселенную. А ведь это и так было понятно – теорема Хайтина о невычислимости колмогоровской сложности, теорема Тьюринга о неразрешимости проблемы остановки и теорема Гёделя о неполноте в принципе говорили об одном и том же каждая на своём языке. То есть Вольфрам просто расписался в своей неспособности описать Вселенную как супердетерминированный клеточный автомат. Он построил очередную «теорию чего угодно», предлагающую 100500 рекурсивных функций и не указывающую, какая же из них имеет отношение к нашему миру. В этом плане он не продвинулся дальше струнных теоретиков, которые нашли 10^500 вселенных с разными константами. Так может, пора уже смириться с неопределённостью нашей самолокации в мультивселенной и признать все неотличимые для нас миры в равной мере существующими?
Благодарю за очень интересный ответ!
Очевидно, статья написана не без помощи нейросети – стиль GPT трудно с чем-то спутать.
Да, это действительно так, я и не пытался уйти от типичного GPT-стиля здесь, так как он даёт хорошую структуру. И вы правы, несмотря на то, что работа GPT здесь скорее стилистическая, чем смысловая (сам бы я так складно не написал), всё равно получилось смещение акцентов. Изначально статья задумывалась скорее, как размышления, чем как какие-то однозначные утверждения, но GPT придал статье излишней уверенности и безапелляционности, которую я изначально не закладывал. Какие-то вещи упростились с искажением смысла (следствие из алгоритмической сложности местами превратилось в равенство), а некоторые мысли, которые я хотел донести, оказались потерянными.
А с колмогоровской сложностью всё наоборот: низкоэнтропийные состояния более вероятны за счёт алгоритмических закономерностей (их проще описать)
Здесь я бы не ставил равенство между этими двумя смыслами, хотя могу ошибаться. То, что низкосложные состояния проще описать короткой программой не значит, что они более вероятны при случайном выборе. Высокоэнтропийные состояния сложнее описать, но они более вероятны, так как их большинство. Клеточные автоматы, если мы берём не примитивные, а универсальные, (ну или другие вычисления) могут краткосрочно застревать на низкоэнтропийных уровнях, но долгосрочно сложность состояния должна возрастать, особенно если есть постоянные квантовые флуктуации. Плюс мы можем вернуться к антропному принципу: в застрявших на низкоэнтропийном состоянии Вселенных просто нет условий для существования наблюдателей.
Я в последней статье пришёл к тому же выводу в контексте проблемы больцмановского мозга. На первый взгляд всё сходится: низкая энтропия ранней вселенной – низкая колмогоровская сложность, высокая энтропия больцмановского мозга – высокая колмогоровская сложность.
Прочитал статью. Очень элегантный переход. Единственное, что меня смущает в больцмановских мозгах - мы не знаем что такое сознание. Можно сказать, что это всё философия, но раз уж мы привлекаем нашу субъективную реальность (наблюдение) для описания, странно было бы игнорировать природу сознания. И здесь всё зависит от подхода в философии сознания. Если мы берём за основу физикализм и редукционизм, то да, мы можем считать, что больцмановский мозг имеет сознание, в функционализме сознание может требовать устойчивых причинно-следственных связей с окружающим миром, которых у больцмановского мозга нет, а в дуализме больцмановский мозг будет являться философским зомби, то есть мы не сможем им оказаться. Но вообще статья выглядит очень убедительно.
Цитата автора:
"Начальное состояние Вселенной обладало минимальной вычислительной сложностью. Это значит, что описание начальных условий было максимально простым — буквально «самым коротким алгоритмом».
Совершенно верно, и этот самый короткий алгоритм таков - " Я есть".
Хочу искренне ПОЗДРАВИТЬ автора с его удивительно ТОЧНЫМ описанием действительности.
Однако, есть одно, но ПРИНЦИПИАЛЬНОЕ УТОЧНЕНИЕ, надеюсь автор и остальные учтут!
"Фундаментальным вычислителем" является вовсе НЕ вселенная. Вселенная УЖЕ является РЕЗУЛЬТАТОМ вычислений ИНОЙ СУЩНОСТИ.
"Фундаментальным вычислительным" ( пользуясь вашей терминологией) является САМО ПРОСТРАНСТВО!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
ЭТО ПРОСТРАНСТВО СОЗНАНИЯ!!!!!!!!!!!
И в ЭТОМ ПРОСТРАНСТВЕ СОЗНАНИЕМ СОЗДАНА Вселенная-результат ПОСТОЯННЫХ вычислений. Так как Вселенная существует как ИНФОРМАЦИОННЫЙ ОБРАЗ.Как непрерывный и нескончаемый ПОТОК ИНФОРМАЦИИ.
ВСЕ есть ИФОРМАЦИЯ, и вы и все вокруг вас.
Автор также прав, что все ОГРАНИЧЕНИЯ передачи информации связаны со структурой самого пространства СОЗНАНИЯ. Эта структура ДИСКРЕТНА(условно).
Почему условно. Потому как, таковое пространство СОЗНАНИЕ совершенно ЕДИНО. Это особая СРЕДА, вы бы ее назвали "ЭНЕРГИЯ", но все же его необходимо считать "СОСТОЯНИЕМ". "Дискретность" , то есть "дискретная единица пространства"- существует исключительно для САМОГО СОЗНАНИЯ, так как ЕГО ЕДИНСТВЕННЫЙ ИНСТРУМЕНТ с помощью которого ОНО создает ВСЕ.
"Дискретные единицы пространства" используемые СОЗНАНИЕМ как единицы построения ИНФОРМАЦИИ ,позволяют СОЗНАНИЮ(пространству) на СВОЕМ УРОВНЕ создавать СЛОЖНЫЕ ИНФОРМАЦИОННЫЕ СИСТЕМЫ. Эти системы, в силу РАЗМЕРНОСТИ как бы "ВСПЛЫВАЮТ" в ИНОЕ восприятие(размерность) где из них создана ВАША СРЕДА ОБИТАНИЯ. Базовой единицей вашей среды является водород. Способный трансформироваться в более сложные элементы. Это и есть ваша вселенная.
САМО СОЗНАНИЕ, путем расчетов перемещать ВСЕ ИНФОРМАЦИОННЫЕ структуры в своем пространстве. Сама дискретная единица пространства это некий локальный объем стоячей волны, размерность примерно 10 в минус 105-120 степени метра кубического. Плотность 10 в 97-99 степени кг. м куб. В таком пространстве НИЧТО Не может перемещаться САМОСТОЯТЕЛЬНО. Однако СОЗДАННЫЕ САМИМ СОЗНАНИЕМ ИНФОРМАЦИОННЫЕ структуры переносятся как СИГНАЛ, дискретными единицами пространства. тут уместна аналогия перемещения изображения по экрану цветного ТВ. Экран это СРЕДА состоящая из неподвижных пикселей. Подача на пиксели путем алгоритма определенного сигнала приводит к изменению энергетического состояния пикселя, в итоге ОБРАЗ ДВИЖЕТСЯ по экрану. Только в данном случае, средой является само пространство.
Невероятной плотности пространства находящихся в нем информационные структуры НЕ замечают именно потому ,что для САМИХ информационных структур такое пространство совершенно ПРОЗРАЧНО во всех отношениях. И перемещаются ВСЕ буквально информационные структуры вне зависимости от их размеров САМИМ СОЗНАНИЕМ. Потому "дискретность пространства , с учетом размерности единиц, по сути, является самой точной из возможных, системой пространственных координат. Характеристика дискретной единицы пространства налагает свои ОГРАНИЧЕНИЯ на все параметры , выявленные человеком. Сама Вселенная это СОЗДАННАЯ СОЗНАНИЕМ СРЕДА в своем пространстве. Среда состоящая из атомарных структур (размерность 10 в минус 10-19 степени метра, и ли 10 в 30-60 степени м.куб), которые в свою очередь, СОЗДАНЫ из дискретных единиц пространства, которая на 40 порядков МЕНЬШЕ.
А первый алгоритмом был исключительно ПРОСТОЙ. ОСОЗНАНИЕ ОСОЗНАЛО САМОГО СЕБЯ как- " Я ЕСТЬ" Это НАЧАЛО НАЧАЛ.
Об этом есть информация в статье "Вселенная создана СОЗНАНИЕМ" https://dzen.ru/a/aBx2UflcalZHuE1I
Учитывая РАЗМЕРНОСТЬ одной дискретной единицы пространства 10 в минус 105-120 степени метра кубического и плотность 96-98 кг м. куб, вы сами можете посчитать каковы ВОЗМОЖНОСТИ ПРОСТРАНСТВА СОЗНАНИЯ для вычисления и создания вашей вселенной.
Для этого достаточно объема пространства равного объему , который занимает атом водорода , то есть, примерно объем 10 в минус 30 степени метра кубического. При этом все открытые вами пределы (Бремермана, Бекенштейна, и Марголуса-Левитина) только подтверждают такую возможность.
Еще раз поздравляю вас.
И пусть вас не смущают никакие оппоненты. В вас проявила себя ИНАЯ СУЩНОСТЬ. Цените ЭТО.
В продолжение к уже сказанному ранее.
цитата автора:
Скорость света как фундаментальный предел вычислений
Ограничение скорости распространения информации скоростью света, известное из теории относительности, также естественно укладывается в вычислительный подход:
Скорость света может быть понята как фундаментальный предел скорости вычислительных взаимодействий между различными точками пространства-времени.
Информация не может распространяться мгновенно, поскольку вычисления занимают конечное время. Пространство-время становится вычислительной сетью, в которой сигналы передаются между элементами с максимальной скоростью, равной скорости света.
Таким образом, ограничение скорости распространения информации получает простое и понятное объяснение:
Нельзя вычислить состояние в одной точке пространства-времени, не выполнив необходимых вычислений в соседних точках.
Совершенно верно.
В поисках "физических причин" физики "ломают копья" , например, по поводу инерционной массы. Почему она(масса) ВДРУГ возникает в системе, при попытке ускориться(затормозить) или изменить направление движения?
ЕЕ возникновение можно объяснить необходимостью дополнительного ВРЕМЕНИ для РАСЧЕТА ИЗМЕНЕНИЯ траектории движения в пространстве..
Вспомним классическое определение массы в физике , оно вытекает из второго закона Ньютона. Классическое определение массы гласит, что масса тела — это скалярная физическая величина, которая является мерой инертности тела и гравитационного взаимодействия.В свою очередь Инерция - свойство тела оставаться в состоянии покоя или равномерного прямолинейного движения в отсутствие внешних воздействий, а также препятствовать изменению своей скорости (как по величине, так и по направлению) при наличии внешних сил. Также инерцией называют способность тела сопротивляться изменению движения за счёт своей инертной массы.
Вектор силы инерции направлен против направления вектора ускорения. Например, при движении автобуса с ускорением на тело, находящееся в автобусе, действует сила инерции, равная произведению массы тела на ускорение автобуса и направленная в сторону, обратную направлению вектора ускорения автобуса.
Ускорение — это физическая величина, которая показывает, с какой скоростью происходит изменение скорости движения тела в пространстве. Измеряется в метрах в секунду за секунду (м/с²). Может быть положительным, нулевым или отрицательным.
В классических определениях явления указаны лишь проявления, такие как «меры», «свойства», «способность» , но ничего не говорится о самой сути физического явления.
К примеру никак не объясняется почему тело стремится оставаться в покое? Или почему тело «сопротивляется» изменению движения? И т.п. Ответа на эти, по сути самые главные вопросы, в физике нет. Их просто стараются не задавать, так как ответить нечего.
Известно что вектор силы инерции направлен против направления вектора ускорения. Появление инерциионной МАССЫ (сопротивления) связано с возникновением ускорения. Нет ускорения-невозникает МАССЫ сопротивления.
ЧТО же происходит?
Давайте начнем от обратного.Равномерное прямолинейное движение возникает при условии, что равнодействующая всех сил, действующих на тело, равна нулю. Это состояние соответствует первому закону Ньютона (закону инерции), согласно которому тело сохраняет состояние покоя или равномерного движения, если внешние воздействия скомпенсированы.При таком движении равнодействующая всех сил, действующих на тело, равна нулю. Это условие БАЛАНСА СИЛ, действтующих на тело. Прямолинейное равномерное движение является самым простым для расчёта движения в кинематике. Это движение, при котором тело проходит одинаковые расстояния за любые равные промежутки времени, а траектория представляет собой прямую. И наоборот, чем более не равномернее скорость и/или направление движения тела, тем сложнее расчет такого движения.
Любое материальное тело, которое мы видим, фактически представляет собой довольно большой объем определенным образом структурированной информации.И вся эта информация в конечном итоге представляет из себя информационно-пространственные атомарные структуры, каждая из которых в свою очередь, представляет собой миллиарды находящиеся в особом состоянии ДИСКРЕТНЫХ "единицы" ПРОСТРАНСТВА. Это и есть тот информационный КОД, который находится на недосягаемой для человека "глубине" и "всплывает", то есть, преобразуется в доступную для нашей реальности форму в виде известных человеку атомарных структур.
Любое перемещение в пространстве информации СВЯЗАНО с выполнением РАСЧЕТА такого перемещения.
На самом глубоком уровне все есть только информация. Информация в динамике , так как ЛЮБОЙ ОБЪЕКТ в пространстве находится в ПОСТОЯННОМ ДВИЖЕНИИ. Любой факт изменения направления движения объекта, относительно пространства влияет на расчет переноса информации в сторону УСЛОЖНЕНИЯ такого расчета .( Системой отсчета для СОЗНАНИЯ ВСЕГДА является неподвижное пространство СОЗНАНИЯ).
«ИНЕРЦИОННАЯ МАССА» это РЕАКЦИЯ всего объема информационно-пространственных структур (атомарных) содержащихся в локальной области (например в теле человека) на наличие некоего «ускорения» их перемещения ( информации) или изменения направления вектора движения, и показывает с какой силой этот локальный объем информации сопротивляется такому изменению УЖЕ существующей скорости , ИЛИ изменению вектора направления перемещения информации в пространстве СОЗНАНИЯ.( Системой отсчета является неподвижное пространство СОЗНАНИЯ)
Перемещение информационно-пространственной структуры, например, тела человека в пространстве , состоит из многих слагаемых пространственного движения. В частности, надо учесть скорость передвижение и координаты человека на поверхности планеты, планеты вокруг Солнца, Солнца вокруг центра Галактики и т.д. Все ЭТО (человек, планета, Солнце, галактика)одновременно перемещается независимо друг от друга. И все это СОЗНАНИЕ перемещает в своем пространстве с учетом изменения координат и скорости и состояния. Иными словами, в результате постоянного РАСЧЕТА.
В таком одновременном перемещении в пространстве такого огромного объема информации есть свои особенности. И одна из них как раз состоит в том, что перемещать информацию по координатам пространства ЛЕГЧЕ, когда параметры такого переноса НЕИЗМЕННЫ. А «параметры» это и скорость перемещения, и направление перемещения и еще…И они постоянно изменяются..
Изменения любого из таких параметров перемещения информации требуют ресурса для расчета. СОЗНАНИЕМ ПРОСТРАНСТВА предусмотрена возможность увеличения РЕСУРСА , то есть ВРЕМЕНИ для расчета. С этой целью создана система (закономерность), в виде ОБРАТНОЙ СВЯЗИ между УСКОРЕНИЕМ перемещения информации, или ИЗМЕНЕНИЕМ направления перемещения информации и ВРЕМЕНЕМ и СИЛОЙ реакции на ускорения или изменение направления перемещения. Это своеобразная «защита» самого СОЗНАНИЯ ( или как вы называете (фундаментального расчетного устройства)от «перегрузки». Такая «защита» предусматривает создание для системы некоего ВНУТРЕННЕГО препятствия в виде «инерционной МАССЫ, которая "препятствует" изменению скорости или направления перемещения пространсвтенной структуры... И чем резче объект пытается остановиться , тем сильнее проявляет себя "ВДРУГ пояляющаяся" инерционная МАССА, которая как бы заставляет тело двигаться в избранном направлении с прежней скоростью.
Откуда вдруг появляется инерционная МАССА?
ФИЗИКА такова. Объект состоит из атомарных структур. Атомарные структуры, в свою очередь, состоят из некой совокупности "дискретных единиц" пространства. "Дискретная единица" пространства-локальная область КОЛЕБАНИЯ среды-"стоячая волна" определенной частоты. Попросту -ЭНЕРГЕТИЧЕСКАЯ ТОЧКА пространства. Частота колебания связана с энергией, энергия связана с эффектом "массы".Следовательно, для создания эффекта появления инерционной массы, СОЗНАНИЮ необходимо и достаточно на триллионную долю процента, УВЕЛИЧИТЬ ЧАСТОТУ КОЛЕБАНИЯ своих "дискретных единиц", что увеличивает их ВНУТРЕННЮЮ ЭНЕРГИЮ, а на уровне атомарной структуры , это увеличением энергии проявляется как ВОЗНИКНОВЕНИЕ инерционной МАССЫ.
Необходимость внесения по ходу движения поправок в расчеты, вынуждает СОЗНАНИЕ как бы ПРИТОРМАЖИВАТЬ тело, его нагружают «инерционной массой». И чем быстрее рывок тела вперед, тем больше сопротивление , тем сильнее тело нагружается инерционной массой. Тем легче СОЗНАНИЮ выполнить перерасчет перемещения информационной структуры тела человека, движущегося по поверхности планеты, в солнечной системе, в галактике….Только таких тел миллиарды и миллиарды...
СОЗНАНИЮ(пространству) позволяет справляться со столь объемной задачей БЫСТРОДЕЙСТВИЕ, так как. СОЗНАНИЕ способно воспринимать как ОТДЕЛЬНОЕ СОБЫТИЕ такое событие, которое происходит всего примерно за 10 в минус 48 степени секунды.
Чтобы хотя бы отдаленно было понятно насколько это малая величина времени, достаточно знать ,что время жизни ВСЕЛЕННОЙ составляющее более 15 миллиардов лет в секундах составляет 4,9 х 10 в 18 степени секунд. Так вот если принять, что величина времени равная 10 в минус 48 степени секунды, это 1 "секунда" восприятия СОЗНАНИЯ, то это значит, что в ОДНОЙ "человеческой" секунде "поместиться" ТРИ(!) длительности жизни нашей вселенной, если считать время в "секундах" СОЗНАНИЯ.
Энтропия как следствие вычислительной сложности: может ли Вселенная быть вычислением?