Комментарии 48
А вас не смущает, что "машины Тьюринга" не существует в природе, а сама теория имеет серьезные ограничения и допущения?
Как это - не существует в природе? А на чём вы печатаете комментарий? Универсальный компьютер - это и есть машина Тьюринга. Возражения о конечности ресурсов не принимаются, бесконечные вычисления нам не нужны.
Универсальный компьютер - это и есть машина Тьюринга. Возражения о конечности ресурсов не принимаются, бесконечные вычисления нам не нужны.
С чего вы это взяли? Во первых, разрешаемость алгоритмов на машине Тьюринга постулируется только в случае бесконечности не только реусрсов, но и времени на их выполнение. А во вторых машина Тьюринга не умеет ни прерывания, ни параллельные вычисления, без которых современные компьютеры невозможны.
Сверхзадачи, требующие бесконечного времени, на машине Тьюринга неразрешимы. Если время выполнения конечно, проблему можно решить полиномиальным увеличением памяти. Параллельные вычисления - это спаренные или многоленточные МТ, они эквивалентны по мощности.
Вам не хватает доказательства тезиса о том, что для любых конечных вычислений достаточно фиксированной конечной машины Тьюринга. Бесконечная она у Тьюринга не просто так. А также неплохо бы обосновать тезис о ненужности бесконечных вычислений, но это уже лирика.
Для каждого конечного вычисления достаточно конечной ленты и фиксированной машины Тьюринга. Если программа не останавливается, она не является алгоритмом и не делает ничего полезного. Если программа требует конечных, но недостижимых в нашей вселенной ресурсов - ну, значит она выполнима в другой вселенной, где ресурсов больше) Да, есть PSPACE и EXPSPACE-задачи, которые невыполнимы на практике ни классическим, ни квантовым компьютером, но выполнимы абстрактной машиной Тьюринга. Дэвид Дойч считает, что для настоящей универсальности во вселенной должны быть бесконечные ресурсы, и поддерживает гипотезу Омега-точки Типлера. Я думаю, могут быть и другие физические механизмы, обеспечивающие бесконечное вычисление - какой-нибудь квантово-гравитационный компьютер на тёмной энергии, например. Но пока нет теории квантовой гравитации, об этом говорить рано. Если окажется, что физические ресурсы всё-таки конечны, теория должна объяснять, с чем связан этот вычислительный предел.
Если программа не останавливается, она не является алгоритмом и не делает ничего полезного
Счётчик-перечислитель чисел, программа поиска простых чисел или программа вычисления числа Пи на идеальной машине Тьюринга не остановятся, но тем не менее это алгоритмы и не сказать что бесполезные.
Для каждого отдельного конечного вычисления достаточно своей конечной машины Тьюринга. Но это не значит, что фиксированной конечной машины Тьюринга достаточно для любого конечного вычисления. Кроме того, имея алгоритм вычисления, невозможно не думаю, что удастся в общем виде предсказать, какой размер машины Тьюринга достаточен для его работы (разве что выполнив этот алгоритм на последовательно растущих машинах Тьюринга).
Поэтому условие бесконечности машины Тьюринга весьма существенно, и отбросить его туманными рассуждениями о «конечных задачах» не выйдет.
Я вот ни разу не агностик, а атеист, научный метод чту и уважаю, и знаю получше многих. Но: Сциентизм это научная неорелигия.А этот пост сорт оф очередная попытка обезьяны с тонкими и почти невидимыми волосами считать сколько ангелов можно разместить на кончике иглы. Поэтому и ответ будет соответствующий: Противоречивыми словами тв сбиваешь меня с толку, говори лишь о том как достигнуть Блага! (Бхагавад Гита 3:2).
Мне кажется задача познаваемости сводится с структуре пространства-времени.
Тезис Чёрча-Тьюринга работает только в дискретном пространстве времени, в котором невозможно возникновение невычислимых задач в силу конечности количества информации на единицу объема (предел Бекенштейна). Если же пространство-время континуальны, а не дискретны, то это делает возможными появление теоретически невычислимых задач в реальности.
Но для постановки экспериментов которые пролили бы свет на структуру пространства на Планковских масштабах нужны энергии, которыми мы на данный момент не можем никак оперировать. Где то слышал аналогию, что это ускорители размером с солнечную систему. Поэтому вопрос о познаваемости пока так и остается открытым.
Более того, у меня есть гипотеза, что мир познаваем не просто из за своей вычислимости, а другого быть и не может, непознаваемые/невычислимые миры вообще по своей сути неустойчивы и рано или поздно разрушаются. Разрушение вызывают как раз непознаваемые события, которые могут быть любыми. Это как антропный принцип, только в центр ставится не человек, а Вселенная:
Мы существуем не потому, что Вселенная познаваема, а Вселенная должна быть познаваемой, чтобы вообще существовать достаточно долго для появления сложных структур
И как раз существующие концепции непознаваемых миров содержащие невычислимые события закладывают в себя эту возможность уничтожения.
В КТП и ОТО пространство-время непрерывно, поэтому в тезисе ЧТД речь идёт о моделировании конечно реализуемых физических систем. Предел Бекенштейна ограничивает количество (ку)битов, но не число возможных состояний кубита. Есть модель поля кубитов, в которой пространство-время непрерывно, а информация в нём дискретна за счёт ослабления канонического коммутационного соотношения
С вашей гипотезой о неустойчивости невычислимых миров согласен, там действительно будет нарушаться интероперабельность и физические симметрии.
Мне всегда казалось, что философия под словесными играми прячет неспособность формализовать проблему, и уходит от неё чисто риторическими методами.
Лампу включают и выключают всё быстрее и быстрее: 1/2, 1/4, 1/8 секунды и т.д. Через 1 секунду совершено бесконечно много переключений. Вопрос: горит ли лампа в конце?
Очевидно, функция (состояние лампы) тут задаётся на промежутке [0, 1), но не в точке 1. И нас спрашивают, а какое же значение будет иметь эта функция в точке 1. Вопрос, очевидно, лишён смысла: точка лежит вне области определения, а доопределить функцию можно как угодно.
В парадоксе лампы Томпсона вопрос скорее о том, имеет ли физический смысл бесконечный процесс, завершённый за конечное время. Он не имеет смысла просто потому, что лампа не может переключаться быстрее скорости света.
Смотря что называть «бесконечным процессом», разумеется. А то вон в парадоксе про Ахиллеса и черепаху выбрали подпоследовательность из отрезка, и на основании этого назвали процесс «бесконечным».
Ну в случае с лампой это будет бесконечное количество переключений, а в случае с Ахиллесом - бесконечное число шагов
В случае с лампой, таки да, бесконечное количество переключений. А у Ахиллеса нету бесконечного множества шагов, он идёт с постоянной скоростью, а какие-то «шаги» выдумал Зенон. Да в парадоксе и черепаха не нужна, можно просто сказать, что чтобы пройти отрезок [0, 1], нужно пройти (любую) бесконечную возрастающую последовательность точек, сходящихся к 1. Чтобы из этого сделать вывод о невозможности движения, нужно очень постараться (сарказм.джпг).
О постоянной скорости никто не говорил, шаги могут и уменьшаться. Но физически всё снова упирается в скорость света и планковскую длину, меньше которой Ахиллес не успеет шагнуть за планковское время.
В оригинале ничего про уменьшающиеся шаги не было. Если бы Ахиллес и правда на каждый член последовательности расходовал фиксированное ненулевое время, то тогда да, он бы никогда не дошёл до единицы. Но во всех обсуждениях парадокса имелась в виду постоянная скорость Ахиллеса.
У парадокса ахиллеса и черепахи есть аналитическая сходимость (не говоря уже об алгебраическом решении), а парадокс лампы Томпсона, несмотря на все его (Томпсона) спекуляции, это лишь несходящийся ряд Гранди. Будут новые (сверханалитические, хе-хе) инструменты -- там и посмотрим. А пока эта лампа почти ничем не хуже и не лучше квантовой суперпозиции, то есть должна приниматься как аналитический конструкт, относительно которого бессмысленно говорить о фиксированном актуальном состоянии. Почти, потому что реальность суперпозиции проверяется экспериментом Алана Аспе, а вот с лампой хорошего эксперимента, даже мысленного, я не знаю.
В парадоксе лампы Томпсона вопрос скорее о том, имеет ли физический смысл бесконечный процесс, завершённый за конечное время. Он не имеет смысла просто потому, что лампа не может переключаться быстрее скорости света.
Потому что мы не можем переключать лампу бесконечно быстро, потому что переключатель не может двигаться быстрее скорости света? Это не аргумент. Можно сделать многофазный переключатель, и увеличивать число фаз до бесконечности. Скорость света не станет ограничителем. Но частота переключений не может быть выше "частоты" фотонов (величине обратной длине волны), которые излучает лампа. Потому что тогда фотон не формируется за время пока лампа включена, и соответственно не излучается.
Но если лампа гипотетическая и идеальная, то она будет генерировать кванты с бесконечно малой длиной волны. Но если длина волны кванта электромагнитной энергии не может быть бесконечно малой, из-за дискретности этого мира, тогда все - тупик.
Длина волны фотона не может быть меньше планковской длины, иначе он вместе с лампой коллапсирует в чёрную дыру. Да и никакой ускоритель не сможет сгенерировать фотон с планковской массой-энергией.
Это фактически постулат о дискретности этого мира. Что недоказуемо. Так что все эти задачи-парадоксы не будут иметь смысла до тех пор, пока мы доподлинно не узнаем как устроен мир.
Не обязательно. Пространство-время может быть и непрерывным, а информация в нём дискретна за счёт неполной коммутации координаты-импульса: фиксированное значение одной наблюдаемой делает вторую не бесконечно неопределённой, а конечной, не нарушая предел Бекенштейна на количество информации.
Это все то же самое утверждение о том, что модель мира стремиться к точному отражению реального мира, но не достигает абсолютной точности на конечном интервале времени.
Этот тезис уничтожает сам себя, поскольку для его подтверждения заведомо требуется бесконечное количество времени.
Итого, мы приходим к бессмысленности постановки всех этих задач-парадоксов. Чтобы решить такую задачу, надо узнать как устроен мир. Но мы заведомо не можем узнать как устроен мир, значит заведомо не можем решить задачу.
Нужно ли придумывать задачи, для решения которых заведомо нет необходимых данных? Их решение превращается в софистику, игру слов, за которыми нет смысла. Или в математическую софистику, игру формул, за которыми нет смысла.
длина волны кванта электромагнитной энергии не может быть бесконечно малой, из-за дискретности
...Энергетических уровней. Так как "миру" совершенно необязательно быть дискретным.
Ну, задайте функцию от 0 и до 1,000...1. с любой точностью.
Мы не знаем, каковы вещи на самом деле, поскольку нам доступны только явления – то, как вещи представлены в сознании посредством наших органов чувств.
Для сознания, формируемого тем, что может взаимодействовать с телом (бытие определяет сознание) все части тела, а так же все отделы мозга, являются инструментами. Анатомия, строение тела, определяет поведение, поведение определяет мышление. Дополняем анатомию рукотворными инструментами - меняем поведение и мышление. У нас нет рентгеновского зрения, но есть аппарат который дополняет наше тело возможностью получать результат взаимодействия (информацию) рентгеновских лучей с преградами для нашего фотонного (электромагнитного) зрения.
Так что не вижу проблемы.
Ведь всё, с чем мы имеем дело в ощущениях, является симуляцией, сгенерированной мозгом,
Это разные информационные каналы, которые дублируют или дополняют друг друга позволяя иметь обратную связь с объективной реальностью. Субъективная картина мира сформирована объективными обстоятельствами, через цепочку взаимодействий некоему явлению присваиваться состояние группы нейронов (ког), вследствие чего весь мозг представляет собой когнитом, где один нейрон может участвовать во множестве когов, а ошибки субъективной картины выявляются взаимодействием с окружением. Научный подход как раз об этом.
Всё, что реализуется в физическом мире, в принципе вычислимо и подчинено алгоритмическим законам.
Вот тут я вижу противоречие: как вы сами писали, аналоговые компьютеры более мощные, а природа пока кажется аналоговой. Так что супертьюринговые вычисления вроде как идут везде и постоянно :)
Абстрактный аналоговый компьютер мощнее машины Тьюринга, но на практике его реализовать невозможно из-за конечности скорости света. Точность измерений ограничена на планковских масштабах - всё, что меньше планковской длины, коллапсирует в чёрную дыру. Плюс предел Бекенштейна ограничивает количество информации в объёме пространства площадью горизонта событий. Известные нам частицы можно рассматривать как кубиты, а взаимодействия между ними описать квантовыми алгоритмами. Тогда да, вычисления идут везде и постоянно, но это обычные тьюринговые вычисления.
Хмм, мне кажется, вы упускаете основную мысль. Реальная природа, если она действительно описывается текущими физическими представлениями - супертьюринговая. Это мы не можем придумать пока метода с учётом ограниченной точности наших измерений выколупать оттуда супертьюринговые модели: кроме Вселенной самой по себе как модели самой себя :). При этом есть несколько теорем в теории поля, которые можно рассматривать как сильные аргументы в пользу непрерывности спектров квантовых величин, т.е. что никакая чисто дискретная модель типа машины Тьюринга не может точно воспроизводить реальность. Так что тьюринговость, имхо, это скорее ограничение сознания как модели мира, а не свойственно самой нашей Вселенной.
Может квантовые величины сами по себе и непрерывны, но при измерении они становятся дискретными. Точность измерений ограничена не сознанием, а скоростью света, принципом неопределённости и т.д. Невозможно построить прибор, который измерял бы состояния частиц вплоть до планковских масштабов. Для квантовых вычислений вполне достаточно точности существующих приборов. Если кубит находится в чистом состоянии, мы знаем о нём всё, что в принципе можно знать. Локальные скрытые параметры исключены тестами Белла. Поэтому моделирование на квантовом компьютере воспроизводит систему настолько близко, насколько это возможно. Даже квантовые поля можно смоделировать на кубитах.
Пока не дочитал до конца, но сразу небольшое замечание. У того же Пенроуза есть классная идея о трех взаимопроникающих мирах - физическом, ментальном и математическом. В свете этого мне представляется несколько некорректной сам выбор темы статьи. В физическом мире нет вообще ничего, соответствующего например точному значению числа pi. И искать бесполезно. Это объект математического мира. Гораздо интереснее мне кажется то, что мы можем формулировать такие задачи. Причем с лёгкостью, на уровне понимания пятиклассника. Т.е. нам они в какой-то степени открыты. И если идея Пенроуза верна, то кто сказал что наш мир вообще сводится только к физике ???
Пенроуз позаимствовал идею трёх миров у Поппера, но заменил мир объективного знания платоновским миром математических абстракций. Отличие в том, что у Платона и Пенроуза идеи предшествуют физическим объектам и воплощаются в них, а у Поппера физический мир первичен, и на его основе путём эволюции формируется объективное знание. Тогда объективно существует не бесконечно точное действительное значение числа Пи, а настолько точное, насколько можно вычислить с помощью физических компьютеров.
Классная статья. Объёмная ,сложная, фундаментальная тематика, но хорошо структурированная. Думаю в одной статье , даже большой, нет возможности донести и раскрыть все мысли автору.. Для меня её ценность уже в самой постановке вопроса. Можно с разных ракурсов смотреть на эту работу, и есть вопросы для обсуждения. Но я увидел , что автор просто и ясно задаёт конструктивный тон, актуальную постановку задачи, которая подводит дисциплинарные технологические проблемы в плоскость философии реальности. Типа от классической философии к " Квантовой философии" .
Автор сразу опрометчиво заявляет "Всё, что нам известно о мире - продукты нашего разума!". Ну, не совсем так! Если мы говорим о критической философии познания, то, всё что нам известно о мире - это формализации отношения "мир-сознание"! Это принципиально важное уточнение! Которое, отмечает, что мы в не этой связи ничего не можем сказать ни о субъекте, ни об объекте, а описываем их отношение! Отношение - первично!
Собственно, эту констатацию в современной философии как раз и называют "корреляционизмом"! И это прямое наследие Иммануила Канта!
Поэтому, когда Dionis заявляет, что "... скептически настроенные философы иронизируют над попытками учёных познать объективную истину и объяснить устройство объективной реальности, которая вообще не факт, что существует..", - он ошибается! Философы лишь понимают после Канта, что докритическое деление на первичные и вторичные качества по тому же Джону Локку - это пародоксальная догматическая концепция, вот и всё! Нет никаких "объективных" свойств! Есть субъективные индивидуальные параметры и субъективные (интерсубъективные) научные параметры! Таким образом в корреляционистком взгляде "объективный" - это утвержденый научным сообществом, вот и всё! Как говорится, работайте уважаемые учёные, мы вас любим, уважаем и ценим - наслаждайтесь "нормальной наукой" в рамках концепции научной революции Томаса Куна, а мы - философы будем "разгребать" услужливо ваши повестки!
Но, некоторых это не устраивает! Что наука "просто" одна из форм знания в иерархии знаний! Многие хотят возродить проект старого "доброго" (не такого уж и доброго, скорее тоталитарного) просвещения во всей красе надежд 17-18 века, будто они и не знакомы с историческим наследием этого эпоса и его переосмыслением в рамках той же Франкфуртской школы! Не говоря уже о постмодерне, где контекстуальность и релятивизм стали господствующими терминами - постулирующие базовое отношение к чему либо как к "сложному" и глубокому сценарию! Некоторые хотят видеть до сих пор ясную картину "чёрное-белое" несмотря ни на что! Тоталитаризм у них в крови в нуклеатидах ДНК!... Ах, да! Здравствуйте, Dionis!
И да, есть товарищи (Квентин Мейясу, Грэм Харман, Рэй Брассье, Эйн Гамильтон Грант) философы, которые довольно изобретательно и ньюансированно аппелируя к научным фактам и необходимости логики, жонглируя и тем и другим, пытаются поставить более жёстко вопрос о возможности мыслить элементы "отношения" как объективную автономную "реальность"!
Dionis же не разделяет их осторожный подход и заявляет как "бабка на базаре" - "... у сциентизма есть железобетонное основание, о котором мало кто знает – физический принцип Чёрча-Тьюринга..."! О как!
Вообщем у Dionis'а вся это сложная философская динамика сводится в классическое Просвещенческое и диалектическое противостояние "объективное знание - вера" и противостояние эпистемологических оптимистов и пессимистов... Да уж... Глубоко!
И, оказывается, что "Эволюционная эпистемология показала, что производство знания путём вариации и отбора – УНИВЕРСАЛЬНЫЙ механизм, присущий природе изначально и действовавший задолго до появления нашего вида", - и, - "если создавать знание могут искусственный интеллект, квантовый компьютер, живые организмы и даже примитивные молекулы-репликаторы, должен существовать и универсальный предел познания"!
Вообще с эволюционизмом всё крайне интересно! Ведь ключевое утверждение классической теории эволюции - адаптация! И вопрос, что Dionis подразумевает под "средой" когда заявляет, что научное знание развивается по принципу эволюции? Ну, да ладно! Зачем разбираться в базовых предпосылках и "косяках"! Нам нужна стройная и понятная логика, так сказать в просвещенческом стиле 17-18 веков!
Вообщем, всё что далее хочет сказать Dionis - это:
«Каждая конечно реализуемая физическая система может быть идеально смоделирована универсальной модельной вычислительной машиной, действующей конечными средствами» (тезис Чёрча-Тьюринга-Дойча) Дэвид Дойч показал, что универсальный (квантовый) компьютер способен смоделировать любой конечный физический процесс, и наоборот, любая функция, которую может вычислить физическое устройство, вычислима машиной Тьюринга. Это значит, что физическая реальность не выходит за пределы вычислимого. Универсальные компьютеры способны выполнять все вычисления, разрешённые законами физики. "
И, согласно Dionis''у с этим принципом имеется только одна единственная проблема - " гипервычисления – это гипотетические вычислительные процессы, которые не могут быть выполнены на машине Тьюринга, то есть выходят за рамки того, что считается вычислимым по Тьюрингу. Это означает, что существуют задачи, которые теоретически могут быть решены такими устройствами, но не могут быть решены ни одним алгоритмом, работающим на обычной машине Тьюринга"
Ну, и потом начинается не хилое "мозго#бство" с гипервычислениями и гипотетическими задачами такого порядка.... Но, вся эта "чепуха", лишь для того чтобы перевести ответственность за доказательство (опровержение) тезиса Дойча-Тьринга-Черча на критически настроенных оппонентов:
"Если бы кто-то показал физическое устройство, которое систематически решает задачу остановки или сверхзадачу, это означало бы, что в природе реализуются процессы, которые не укладываются в рамки классической теории вычислимости, и что известные физические теории неполны или неверны в фундаментальном смысле. Но пока все наблюдения подтверждают, что физический мир ограничен тьюринговой вычислимостью (от себя - "п#здешь")."
Вообщем, далее опять классика жанра - "мозг#ебство" с гиперкомпьютерной "шляпой", чтобы в конце концов подытожить:
"Если будет построен гиперкомпьютер, который решит хотя бы одну из неразрешимых по Тьюрингу задач, это будет опровержением не физического тезиса Чёрча-Тьюринга, а физических теорий, запрещающих подобные вычисления. Тогда придётся создавать новые теории и расширять понятие вычислимости на новые гипервычислительные модели. Физический принцип Чёрча-Тьюринга стоит и падает вместе с каркасом современной физики. Если будущая теория разрешит воспроизводимые бесконечные ресурсы (точность, время, энергия) или экзотическую причинность, принцип может быть пересмотрен. Пока же такой теории нет, разумно считать универсальную машину Тьюринга пределом вычислительной мощности! "
Ой.. Ну, дальше уже... Опять эти замуты с любимой Dionos'ом ММИ Эверетта! Одним словом:
" Гипервычисления невозможны не только в нашем мире, но и во всех параллельных мирах Эверетта, разделяющих одинаковые значения физических констант. Но, поскольку репертуар универсального компьютера определяется законами физики, а не наоборот, мы не можем исключать существование гиперкомпьютеров в космологической мультивселенной. Возможно, в других вселенных с другими законами физики, где сверхтьюринговые вычисления разрешены, будет считаться реальным то, что мы считаем непознаваемым и невычислимым, и может быть невычислимым то, что реально для нас."
И собственно итоговый вывод от повара-Dionis'а:
" Таким образом, физический тезис Чёрча-Тьюринга – это манифест оптимистического рационализма в духе гильбертова «Мы должны знать. Мы будем знать», ограничивающий познание только законами физики. Он утверждает, что всё физическое в принципе вычислимо и познаваемо человеческим разумом, а невычислимые и непознаваемые «вещи в себе» выносятся за скобки физического мира. Тем самым он опровергает учение Канта о непознаваемости разумом «вещи в себе», а также формулу Ignoramus et ignorabimus, если применять её по отношению к физическому миру. Агностицизм как таковой остаётся в силе, когда речь идёт не о физике, а о метафизике: мы действительно не можем знать, есть ли что-то за пределами физического. Также тезис Чёрча-Тьюринга-Дойча не гарантирует, что рано или поздно мы всё узнаем на практике. Он лишь говорит, что всё физическое в принципе описываемо алгоритмами и вычислимо. Но даже в рамках вычислимости остаются неразрешимые задачи и области непознанного, где знание ограничено внутренними пределами вычислимости и человеческих ресурсов."
Ну, что тут сказать? Интересный замут с теорией вычисления! Конечно, не совсем понятно, как Dionis вдруг приходит к выводу что "мир объективно реален" - для меня это загадка! Из сказанного им, вопрос о "спекулятивном реализме" даже не был поставлен! Как он обосновал Декартовский жест о первичных свойства как математического описания, но уже не на базе догматизма - протяженной субстанции (Бога), и не в рамках Кантовского корреляционизма!? Мне не понятно! Ответ - никак! Никакого выхода за пределы язык-референт он не продемонстрировал!
В рамках же "вычисления" не было уделено никакого внимания гипотетическим переходам между математикой, логикой и физикой! А это крайне важная проблема - в типичных аргументах такого рода часто делается ключевой семантический шаг (перенос результатов логики в физическую онтологию) без явного построения физической модели, где этот перенос реализуется! Таким образом тезис Дойча-Чёрча-Тьюринга - просто гипотетическое заявление! Что собственно и констатируется в рамках науки!
Поймите правильно! Ничего не имею против вычислений! Как инструмента! Но, такие амбициозные утверждения типа тезиса Дойча-Тьюринга-Черча - крайне хулигански! И если Дойч делая их крайне осторожен, то Dionis использует его как молоток и наковальню, убирая всю нюансированность оригинала!
Меня же манит идея метатеории ставящая под сомнение легитимность тезиса Тьюринга-Черча-Дойча! И вообще на "всё" с научной позиции можно взглянуть по другому, а не как Dionis! Как пример - "Последствия неразрешимости в
физике для теории всего сущего"
Мир Файзал, Лоуренс М. Краусс, Аршид Шабир, Франческо Марино. 2025 г
(для поиска "Consequences of Undecidability in Physics on the
Theory of Everything")Если кратенько (без формальных математических выкладок - сам в них толком не шарю) и от себя, то:
Я выступаю в защиту ключевого тезиса, сформулированного Файзелом и соавторами в статье: строго алгоритмическая онтология - т.е. тезис о том, что Вселенную полностью описывает машина Тьюринга (включая её квантовую версию) - оказывается принципиально недостаточной, если мы требуем от фундаментальной теории квантовой гравитации (FQG) одновременно эффективности, арифметической выразительности, внутренней согласованности и эмпирической полноты!
Ниже я последовательно обосную эту позицию, опираясь на результаты Гёделя, Тарского и Чайтина, раскрою, почему формула «Черч–Дойч–Тьюринг = теория всего» оказывается слабой как методологическое утверждение, и почему попытки «спасти» всё унитарным многомировым формализмом Эверетта не снимают проблему. Я также укажу, какие эмпирические и формальные критерии нужны для проверки предложенной альтернативы - метатеории с неалгоритмическим предикатом истинности. Естественно отталкиваясь от утверждений авторов статьи!
I. Предпосылки (что мы требуем от FQG и почему это важно) :
Я принимаю за корректную постановку требование, которое авторы формулируют как четырёхчастную трилогию:
А) Эффективная аксиоматизируемость (FQG должна иметь рекурсивно перечислимый свод аксиом и правил вывода - это требование «воспроизводимости» и проверки доказательств)
Б) Арифметическая выразительность (включение арифметики натуральных чисел в формализме, что необходимо для расчёта амплитуд, энтропий и т.п.)
В) Внутренняя согласованность (отсутствие аномалий)Г) Эмпирическая полнота (требование описывать феномены от планковских до космологических масштабов).
Эти предпосылки выглядят рациональными и практически необходимыми для претендента на статус «теории всего».
II. Следствие логики (пересечение с Гёделем, Тарским и Чайтином)
Если FQG удовлетворяет пунктам (1) и (2), то на неё прямо распространяются классические метатеоремы:
А) Теорема Гёделя: любая достаточно выразительная рекурсивно перечислимая непротиворечивая теория содержит истинные утверждения арифметики, недоказуемые внутри самой теории.
Это означает, что формальная FQG не сможет «самооправдать» все истинные арифметические утверждения, если она остаётся в границах эффективной аксиоматизации.
Б) Результат Тарского о неопределимости предиката истинности: корректная формализация предиката «истинно x в объектном языке L» требует метаязыка; попытка определить этот предикат внутри L приводит к парадоксам.
Следовательно, если физическая реальность предполагает акты установления истинности (например, «фиксирование результата измерения»), то для формального описания этого акта потребен метауровень, который не редуцируется к объектной структуре.
В) Чайтинова теоретико-информационная неполнота: существуют конкретные математические истины, обладающие алгоритмической случайностью (например, константы типа Ω), которые не имеют сжатого (алгоритмического) описания и потому неизбежно ускользают от полного алгоритмического вывода.
Так вот и пожалуйста! В совокупности эти три результата очерчивают структурную границу для любой строго вычислимой структуры: чтобы быть «полной» в семантическом смысле, теория должна быть дополнена средствами, выходящими за рамки рекурсивного перечисления.
III. Почему принцип «машина Тьюринга = теория всего» (Черч–Дойч) оказывается НЕДОСТАТОЧНЫМ!
Принцип Черча–Дойча (в сильной форме: все физические процессы симулируемы универсальной вычислительной машиной) - это мощная ГИПОТЕЗА! Безусловно! Но, она не является теоремой: это эмпирическое утверждение о природе. Получается минимум три причины, почему она не гарантирует статус «теории всего»:
а) Логическая неполнота сохраняется при симуляции.
Даже если вся унитарная динамика симулируема квантовым компьютером, это не решает проблему семантики истины: симулятор вывода не равен предикату истинности, и симуляция не делает формальную теорию автоматическим источником метафизической истины.
Если FQG формализована как рекурсивно перечислимая система, то внутри неё останутся недоказуемые арифметические истины независимо от её симулируемости.
б) Возможность физических конструкций, реализующих невычислимость. (как раз только этот пункт Dionis и рассматривает, используя его как доказательство от противного в пользу тезиса Дойча-Чёрча-Тьюринга)
В физике уже есть примеры, где аналитические решения уравнений или долгосрочное поведение системы оказываются невычислимыми на Тьюринговой машине. Также существуют теоретические сценарии, которые допускают гиперкалькуляцию.
Если природа допускает такие структуры или если фундаментальная константа оказалась невычислимой, идея полной вычислимости рушится.
в) Семантический разрыв между «вычислить результат» и «постановить истину». Черч–Дойч отвечает на вопрос «что можно симулировать», но не на вопрос «что есть смысл утвердить как истину в рамках самой теории». Тарский показывает, что последний вопрос потребует метауровень.
IV. Критика многомировой интерпретации Эверетта (MWI) в этом контексте:
Многомировая интерпретация устраняет объективный коллапс, заменяя его унитарным ветвлением. На первый взгляд это устраняет «неалгоритмическую» точку входа: если всё - унитарная динамика, то всё, потенциально, симулируемо. Тем не менее:
А) Унитарность не снимает проблему предиката истинности. MWI переводит проблему «почему одно наблюдаемое» в проблему меры и притязания на правило Борна - как именно выбрать статистический вес ветвей, и почему отдельный наблюдатель воспринимает именно одну ветвь как «истинную»? Попытки вывести правило Борна из унитарной механики и декогеренции остаются предметом дебатов; до тех пор проблема семантики измерения не снята.
Б) MWI переносит проблему на уровень происхождения меры и исходных условий. Если начальные данные (гамильтониан, состояния вакуума, т.п.) содержат неабстрактные, потенциально невычислимые характеристики, то унитарная эволюция порождает невычислимые амплитуды - и тогда симуляция на Тьюринговой машине (включая квантовый симулятор) не может быть полной.
В) Сознание и семантика. MWI не объясняет, почему сознательный наблюдатель утверждает конкретные математические истины и почему человеческое познание, возможно, способно «переходить» на метауровень истинности. Если феномен сознания сопряжён с актом установления истины (как предполагают сторонники метатеории и подобные подходы), MWI остаётся онтологически экономной, но семантически пустой в отношении проблем, которые затрагивает Файзел.
V. Почему предложенная метатеория с неалгоритмическим предикатом истинности - естественное решение:
Учитывая вышесказанное, разумно считать, что включение в структуру FQG метапредиката истинности - не произвольное уклонение, а вынужденная логическая мера.
Такая метатеория должна:
• Формально признать, что предикат истинности не сводим к объектному языку FQG (по Тарскому).
• Описать динамику «фиксирования истин» (возможно, связав её с объективным коллапсом) как операцию, не редуцируемую к рекурсивным правилам вывода. Это устраняет парадокс «недоказуемых истин, имеющих физические следствия».
• Сохранить эмпирическую согласованность с известной физикой в классических и экспериментально доступных пределах (т.е. быть редуцируемой к QM и GR там, где они проверены), но встраивать новый механизм на крайних (планковских) масштабах.VI. Связь с проблемой сознания и аргументами Лукаса‑Пенроуза
Можно вполне воспринимаю аргументы Лукаса и Пенроуза не как окончательное доказательство невычислимости мышления, а как математически оформленную интуицию: человеческое постижение гёделевских истин указывает на наличие интуитивных или семантических возможностей, которые не укладываются в формальную процедуру верификации.
Если когнитивные процессы действительно опираются на физические механизмы, включающие неалгоритмический акт «установления истины», то человеческое мышление естественно окажется способным достигать истин, недоступных чисто формальным машинам. При этом тут отмечается евентуальную спорность - метатеория - это рабочая гипотеза, требующая экспериментальных подтверждений, и не надо привязываться к ней догматические (как требует Dionis в случае вычислительной концепции); тут указывается лишь, что она и подобные ей механизмы дают конкретный путь реализации метапредиката в физике и, следовательно, в философии сознания. (да, вспомним эксперимент с Китайской комнатой и его интерпретация как опровержение сильной формы ИИ)
VII. Претензии к возражениям и почему «сдвиг вверх» не решает проблему:
Обычно защитники вычислимой онтологии отвечают так: «перенесите предикат истинности в метатеорию, формализуйте метатеорию и всё будет снова эффективно аксиоматизируемо».
Это не легитимно по двум причинам:
• Это просто сдвигает проблему: Гёдель не исчезает, он снова проявится для более сильной теории, если та остаётся рекурсивно перечислимой и арифметически выразительной. Таким образом, либо проблема никогда не устраняется и рекурсивная иерархия бесконечно поднимается, либо где‑то необходимо принять неалгоритмический шаг.
• Если теория претендует быть «самооправдывающейся», то она не может при этом оставаться внутри класса рекурсивно перечислимых формализмов без утраты полноты. Принятие метапредиката как принципиального и физически реализуемого элемента позволяет избежать бесконечного подъёма и обеспечивает онтологически закрытость (интересно как это заиграет с идеями Мейясу о контингентности), пусть и за счёт неалгоритмической составляющей.
VIII. Какие эмпирические и теоретические ожидания делает эта позиция:
ЭТА ПОЗИЦИЯ не просто метафизическая: она даёт конкретные тестируемые направления:
• Поиск физических признаков объективного коллапса (например, спонтанная локализация, нарушение энергии на малых масштабах, модификации корреляций), как это делает программа GRW и её вариации. Отличие между объективным коллапсом и чисто унитарной эволюцией даёт эмпирическое различие.
• Исследование вычислимости фундаментальных констант и начальных данных: обнаружение реальных физических величин, которые демонстрируют свойства алгоритмической случайности или невычислимости, станет решающим аргументом.
• Нейрофизиологические и квантово‑биологические эксперименты, проверяющие роль квантовых процессов в когнитивных функциях; если будет найден устойчивый эмпирический след квантовых коллапсов в масштабах, релевантных мышлению, это усиливает гипотезу о связи сознания и метапредиката.
•Конструирование физических систем, в которых классические halting‑типы вопросов реализуются как реальные физические предсказания; если такие системы демонстрируют физическую неразрешимость, это укрепит тезис Файзела.
IX. Заключение: почему я склоняюсь к этому проекту:
Я считаю, что требование строго алгоритмической онтологии - слишком узкое для статуса теории всего, если мы ожидаем от последней не только вычислительного воспроизведения поведения, но и семантической полноты, т.е. способности корректно отразить акты установления истин, стабилизации результатов измерений и самоуправления в виде самооправдывающейся теории. Гёдель, Тарский и Чайтин не дают «волшебной пули», но они ясно указывают на структурные ограничения, которые нельзя обходить тривиальными апелляциями к симуляции или к унитарности.
Моя позиция - прагматически скромна и методологически требовательна: мы должны признать пределы вычислимой формализации, не из крайности отвергнуть вычисление как инструмент, но и не приписывать ему метафизическую всемогущество без строгой демонстрации и экспериментальной ВЕРИФИКАЦИИ!
Мне нравится такой подход не как окончательный догмат, а как требовательная научная программа: построить формальные модели, которые соединяют метапредикат истинности с физическим механизмом (и, при возможности, с экспериментальными предсказаниями), и таким образом подставить под сомнение или подтвердить амбицию «Вселенной как Тьюринг‑машина». Только такой путь превратит метатеоретическую проблему в проверяемую физическую гипотезу!
Вот и другой взгляд на проблему, пожалуйста! И на мой взгляд даже более перспективный и адекватный! Контекстуальный так сказать, хотя видимо многих это коробит...
Ну наконец-то! А я уже подумал, что вы мою статью пропустили, или всё настолько плохо, что, как говорится, "без комментариев") Знаю, что вам контекстуальность дороже моих параллельных миров, но подождите ещё немного, и я разгромлю этот редукционизм до основания! Сейчас же займёмся эпистемологией.
Если мы говорим о критической философии познания, то, всё что нам известно о мире - это формализации отношения "мир-сознание"! Это принципиально важное уточнение! Которое, отмечает, что мы в не этой связи ничего не можем сказать ни о субъекте, ни об объекте, а описываем их отношение! Отношение - первично!
Отношение предполагает наличие субъекта и объекта, даже если мы ничего не можем о них сказать. Субъективные идеалисты отказались от объекта, утверждая, что мир существует только в сознании субъекта. Эверетт в своей интерпретации относительного состояния отказался от субъекта, рассматривая наблюдаемое и наблюдателя как взаимодействующие физические системы. А я предлагаю рассматривать познание как моделирование одной машиной Тьюринга (мозгом) другой машины Тьюринга (Вселенной или её части). Тогда первично не отношение, а сама формальная модель и физика, на которой она основана. Естественно, ничего за пределами репертуара машины Тьюринга мы знать не можем.
Нет никаких "объективных" свойств! Есть субъективные индивидуальные параметры и субъективные (интерсубъективные) научные параметры! Таким образом в корреляционистком взгляде "объективный" - это утвержденый научным сообществом, вот и всё!
Я тоже называю "объективным" в первую очередь научное знание, так что можете считать меня корреляционистом. Но научным его делает не признание научным сообществом, а соответствие эволюционным критериям научности - критериям фальсифицируемости и трудноварьируемости. Это легко познаётся в сравнении с другими видами "знания". А сама эволюционная эпистемология эволюционирует в соответствии со своими же принципами вариации и отбора, вопреки всяким кунам с ихними "научными революциями")
Многие хотят возродить проект старого "доброго" (не такого уж и доброго, скорее тоталитарного) просвещения во всей красе надежд 17-18 века, будто они и не знакомы с историческим наследием этого эпоса и его переосмыслением в рамках той же Франкфуртской школы! Не говоря уже о постмодерне, где контекстуальность и релятивизм стали господствующими терминами - постулирующие базовое отношение к чему либо как к "сложному" и глубокому сценарию! Некоторые хотят видеть до сих пор ясную картину "чёрное-белое" несмотря ни на что! Тоталитаризм у них в крови в нуклеатидах ДНК!
Снова вам как постмодернисту во всём просвещенческом видится тоталитарный догматизм! Как взявшему в руки молоток все вокруг кажутся гвоздями) Пора уже преодолеть это чёрно-белое мышление и войти в метамодерн, где мы искренне верим в объективное знание, но понимаем, что никакое оно не объективное и не полное, просто ничего лучше ещё не придумали! Вот придумает ИИ лучшую теорию, или изобретёт принципиально новый, более эффективный способ познания, чем эта ваша наука - и всё, мы тут же пересмотрим свои субъективные вероятности и перейдём на тёмную сторону. Какой же здесь догматизм?
И вопрос, что Dionis подразумевает под "средой" когда заявляет, что научное знание развивается по принципу эволюции?
Я бы мог просто ответить "объективная реальность" и попасть в вашу ловушку, так как реальностью я называю её лучшее описание, т.е. само научное знание. Ответив "совокупность фактов", я бы тоже попал в ловушку, потому что у Поппера факты не существуют сами по себе, все наблюдения теоретически нагружены. Поэтому отвечу так: среда (ниша) - это совокупность нерешённых научных проблем, адаптация - это объективное знание о нише. Научные теории конкурируют между собой и проходят отбор на предмет того, насколько хорошо они решают проблемы в своей нише.
Конечно, не совсем понятно, как Dionis вдруг приходит к выводу что "мир объективно реален" - для меня это загадка! Из сказанного им, вопрос о "спекулятивном реализме" даже не был поставлен! Как он обосновал Декартовский жест о первичных свойства как математического описания, но уже не на базе догматизма - протяженной субстанции (Бога), и не в рамках Кантовского корреляционизма!? Мне не понятно! Ответ - никак! Никакого выхода за пределы язык-референт он не продемонстрировал!
Спекулятивный реализм мы с вами как-нибудь отдельно обсудим, а я к объективной реальности мира пришёл ещё в статье "Реализм против солипсизма" через тот же принцип трудноварьируемости, а если более формально - эффективной сложности: если нечто отвечает вычислительно сложным и автономным образом на каждое воздействие, то оно реально. Неважно, язык это, референт, или что-то запредельное. Если субъект не в состоянии его запрограммировать, значит оно уже не продукт его ума.
В рамках же "вычисления" не было уделено никакого внимания гипотетическим переходам между математикой, логикой и физикой! А это крайне важная проблема - в типичных аргументах такого рода часто делается ключевой семантический шаг (перенос результатов логики в физическую онтологию) без явного построения физической модели, где этот перенос реализуется! Таким образом тезис Дойча-Чёрча-Тьюринга - просто гипотетическое заявление! Что собственно и констатируется в рамках науки!
Ну как же, а "Реализм против платонизма" я для кого писал? Там как раз говорится, что математическое доказательство - это вычисление, а вычисление - это физический процесс моделирования компьютером абстрактных сущностей с помощью операций, разрешённых в нашей вселенной. Тезис ЧТД основан на доказанной Дойчем универсальности квантовых вычислений и эквивалентности квантового компьютера машине Тьюринга, а также на эмпирическом факте отсутствия наблюдаемых процессов, которые нельзя смоделировать на квантовом компьютере.
Меня же манит идея метатеории ставящая под сомнение легитимность тезиса Тьюринга-Черча-Дойча! И вообще на "всё" с научной позиции можно взглянуть по другому, а не как Dionis! Как пример - "Последствия неразрешимости вфизике для теории всего сущего"
Уже пишу об этом статью! В которой как раз разберу, что на самом деле доказали Гёдель, Тарский и Чайтин, и какое это имеет отношение к физике. Пока отвечу только, что ставка на гравитационный коллапс и аргумент Лукаса-Пенроуза - сомнительная затея, вероятность экспериментального подтверждения этих гипотез стремится к нулю. А без них может оказаться, что Вселенная действительно неалгоритмична и непознаваема, что влечёт за собой крах науки! Но в целом согласен, что теория всего не должна быть вычислительной, она должна предшествовать вычислениям.
Да, уж... Dionis! Позвольте ещё раз уточнить мою позицию относительно Ваших аргументов о “реализме”, вычислимости и принципе Черча–Тьюринга–Дойча!
Практически вся ваша риторика - от критериев трудноварьируемости и фальсифицируемости, эволюционной эпистемологии и вычислимости, до апелляций к универсальности вычислений машины Тьюринга - полностью остается в пределах корреляционистской парадигмы. Вы оперируете исключительно эвристическими и инструментальными правилами современной науки - функциональными средствами внутри отношений познающего и познаваемого. Всё это - способы внутренней фильтрации и когнитивной работы, которые не дают вам и не могут дать выхода к какой-то “реальности-в-себе”.
Особо подчеркну: Ваш тезис о вычислительных машинах вовсе не отменяет субъект-объектную структуру, а просто наделяет её новой формой - “машина Тьюринга моделирует другую машину Тьюринга”. Это как у постструктуралистов - язык-референт, у феменологов - ноэма-ноэзис - это просто спор о том что первично в "отношении"! Это не преодоление корреляционизма, а его техно-апгрейд, что давно констатировал Мейясу: никакими вычислительными новациями не удаётся выскочить за рамки отношения. Это Ваш метафизический фундамент - но фундамент, из которого так и не вырос “выход за корреляцию”.
Более того, сама проблема “статуса истинности”, проблема семантического перехода между логикой, математикой и физикой в вашей аргументации даже не задана по-настоящему. Вы не просто не решаете проблему (почему необходимо метафизическая легитимизация "объективной реальности"?) - Вы её даже не формулируете, сводя всё к техническим деталям методов и критериев. Между тем, именно эта философская нерефлексированность и делает Вашу позицию формой наивного догматизма, что я собственно просто-напросто и констатирую!
И здесь хочу уточнить: эта критика идёт не из противоположного лагеря “борцов с наукой” или сторонников иррационализма! Напротив! Я вовсе не враг наивному реализму - мне без труда даётся признать всю мощь и полезность научных эвристик и даже постметафизических апломбов! Более того, как человек, разделяющий постмодерновый/метамодерновый контекстуализм, я прекрасно понимаю, насколько соблазнительно строить красивые универсальные картины бытия и блок-схемы “всего сущего”. Но это - во многом детская игра: будто бы, управляя игрушечными “машинами Тьюринга” в песочнице - мы внезапно начинаем понимать подлинное устройство реальности. Именно эта глупая вера и приводит меня к необходимости внятно указывать на догматизм Вашего рассуждения.
Современный контекстуальный, а тем более постмодерновый взгляд, не противопоставляет “чёрное-белое”, не антагонизирует науку и религию - а, скорее, выводит любую речь об “объективной реальности” в ранг псевдопроблемы! Более того, в условиях рефлексии над властными дискурсами (Фуко, Латур), становится ясно: упор на единую “реальность-в-себе”, не подкреплённую доказательствами, а облачённую в язык научной необходимости, всегда обслуживает интересы того самого научного сообщества, власти, нормирования и, как показывают классики критической мысли, подспудно становится инструментом социокультурного тоталитаризма - а, по сути, - просто красивая обертка для продажи интеллектуальному сообществу - капитализация интеллектуальной собственности! Вы же в конце концов не имагинативный реализм затираете, а-ля Голосовкер, хотя в философском плане он ничем не отличается, и так же призывает к первофилософии как к онтологии, но только такая онтология не "отлизывает" научному сообществу, и поэтому так просто её не продать, в отличии от "лижущего" научный зад "спекулятивного реализма" и всей этой вакханалии наивных реалистов вокруг "объективной реальности"!
Наука работает превосходно и без метафизики - не забывайте историю! Она успешна там, где методологически признаёт свою инструментальность и контекстуальность. Вы же подменяете динамику сложности и многообразия простым наивным догматизмом, который по сути лишь повторяет заблуждения старого просветительского проекта, - теперь только на языке вычислительных машин.
Если хотите предъявить действительно новую, некорреляционистскую философию, придётся выйти из песочницы и поставить вопрос о критериях выхода за отношение. Пока же - это лишь наивный апломб с экраном авторитетной научной строгости.
Поэтому своим предыдущим комментарием я просто призвал Вас немного сбавить градус апломба, вот и всё - это первое!
А, второе, собственно это демонстрация, что если брать формальную точность математического языка, не считая его Пифагорейским или Платоническим явлением, а считая реальной только сигнификацию... Можно прийти к выводам о необходимости введения невычислимого критерия истинности и разработки соответствующей физической концепции, для метафизической легитимизации формального вычислительного языка - и это очень адекватный и здравый подход!
И лишь указал, что не надо перекидывать внутринаучное доказательство легитимности Тьюринговых эвристических гипотетических инструментов на сторонников гиперкалькуляции! И необходимости рассмотреть с Вашей стороны два других аспекта указанных в статье: проблема сохранения логической неполноты при симуляции и проблема семантического разрыва между "вычислимостью результата" и "постановкой истинности"! И именно это я и имел ввиду говоря, что в рамках же "вычисления" не было уделено никакого внимания гипотетическим переходам между математикой, логикой и физикой!
Так что заканчивайте Dionis переливать тут красиво "из пустого в порожнее"! Это Вам не свидание с 18 летней клушей, где Вы я думаю преуспели бы как мастер игры в слова и получили бы заветный сладкий плод! И отлизали бы как научному сообществу! Тут Вам не там! Соберитесь! Знакомство только началось, а Вы уже без штанов бегаете! Я, конечно, ценю постиронию, но давайте-ка посерьёзнее!
Серьёзнее уже некуда – на кону авторитет науки! В которую я до сих пор верю, потому что лучшего механизма исправления ошибок пока ещё не придумали. Честно говоря не понял, корреляционистом вы меня считаете или наивным догматиком, но не суть. В отличие от Мейясу, я не пытаюсь выйти за пределы корреляции, а доказываю, что выхода не существует! Потому что наш разум не способен преодолеть потолок машины Тьюринга, что бы там ни говорили Лукас с Пенроузом. Но, к счастью, этот потолок не преодолеет ни одна другая физическая система - все они вычислительно эквивалентны, как доказали Вольфрам и Дойч. А значит, пределы познания - это не ограничения человеческого разума, а физические границы вычислимого и познаваемого. Учитывая все наши теории и экспериментальные факты, мы можем быть уверены, что гипервычисления невозможны - не существует физического механизма, позволяющего познать непознаваемое. И новые теории тут не помогут, поскольку они не должны противоречить предсказаниям старых. Можно только выявить пределы познаваемого и доказать, что формальные описания никогда не будут полными, как это сделал Гёдель.
Да, существуют недоказуемые гёделевские истины и невычислимые физические процессы, скрытые не только от наших органов чувств, но и от любых измерительных приборов из барионного вещества. Это могут быть случайные результаты измерений, неразрешимые задачи, интерференция с параллельными мирами – много чего. Но если мы не можем их предсказать и формально описать, это ещё не значит, что науке пришёл конец. Вот тут и нужна многомировая метафизика с теорией конструкторов и другими альтернативными подходами. Они не дают возможности выйти за рамки машины Тьюринга и смоделировать невычислимое. Скорее речь идёт о неформально-противоречивом описании или построении мета-систем.
Объективная реальность, которую вы со своими коллегами-постмодернистами называете псевдопроблемой, инструментом эксплуатации трудящихся и способом манипуляции индивидуальным сознанием, - на самом деле очень полезная штука, которая не даёт нам о себе забыть, даже если мы в неё не верим. Но лучше верить - не из практических или догматических соображений, а потому что это самое разумное и трудноварьируемое объяснение из имеющихся. Мой критерий реальности вполне вычислительный, можно даже измерить «степень реальности» - вычислительную сложность системы. Он же является критерием непонимания: если я не могу что-то запрограммировать/вычислить/смоделировать, значит, я этого не понимаю. Если бы мир был полностью вычислимым, алгоритмически простым и предсказуемым, это как раз заставило бы меня усомниться в его реальности и поверить в гипотезу симуляции или солипсизм. Но мир достаточно сложный и непредсказуемый, а может до конца и не вычислимый. О логической неполноте, невычислимости и переходах от физики к математике я как раз в следующей статье и расскажу, это гиперважная тема!
Да, не надо так волноваться, Dionis! Даже, если мир окажется частично невычислимым или будет содержать неформализуемые аспекты, авторитет науки никуда не исчезнeт: научный метод опирается не на то, что всё сводимо к Тьюринговой машине, а на эмпирическую проверяемость, прогностическую силу и способность исправлять ошибки. Гёдель и гипотезы о гипервычислениях показывают границы формальных систем, но они не отменяют практической полезности моделей, приближений и статистики. Открытие невычислимого стало бы не концом науки, а вызовом и стимулом для развития методологии - шанс расширить знания, а не причина для паники!
По поводу же Вашего утверждения: "В отличие от Мейясу, я не пытаюсь выйти за пределы корреляции, а доказываю, что выхода не существует! Потому что наш разум не способен преодолеть потолок машины Тьюринга... все они вычислительно эквивалентны, как доказали Вольфрам и Дойч." - Вы тут явно в своём любимом стиле перегибаете палку!
Утверждать, что все физические системы доказательно вычислительно эквивалентны, нельзя! Принцип вычислительной эквивалентности Вольфрама и идеи Дойча - это гипотезы, а не окончательные математические или эмпирические доказательства.
Тут даже ещё важнее именно метафизическая тонкость: если Вы держитесь корреляционизма (доступно только корреляционное знание)... А, Вы даже утверждает, что настоятельно заявляете о нем! То, тем более, делать абсолютные выводы о пределах вычислимого - значит быть крайне некорректным! Ибо для таких заявлений, как раз надо обязательно выйти за рамки самой позиции корреляционизма и апеллировать к "вещи‑в‑себе" или независимой реальности вычислимости!
Вот она база! Из которой следует, что вычисления - это одно, но пока мы остаёмся в рамках корреляционизма, всё крутится вокруг антропоцентризма: наши теории, приборы и критерии объяснения ориентированы на человеческое познание и практику. Наука обслуживала и будет обслуживать этот человеческий ракурс, пока не произойдёт радикальное развенчание корреляционизма - то есть пока не появятся надёжные способы выйти за пределы наших корреляций и напрямую сопоставлять "вещь‑в‑себе" с другими перспективами! Такое развенчание потребует принципиального эпистемического прорыва (новых методов доступа или новых интерсубъективных критериев), и пока его нет, нет и оснований драматизировать роль науки: она остаётся нашим лучшим инструментом для систематического и самокорректирующегося познания! Вот и всё! А, Вы, Dionis, пытаетесь уже говорить что какие-то её эвристические инструменты там накладывают какие-то ограничения познавательные на человеческий разум! Я Вас умоляю...
Это всё равно что утверждать, что банка кефира накладывает пищеварительные ограничения на Ваше пищеварение!) Короче, Dionis, суетитесь без волнений с банкой кефира - с пищевой промышленностью ничего не случится и никакой её авторитет не под угрозой ни на йоту! И будьте уверены, взрослые дяди из САНПина не дадут Вашему пищеварению пострадать и быть ограниченным))
Так я и ничего не имею против невычислимости - наоборот, всячески показываю в своих статьях, что есть фундаментальные пределы вычислений, не преодолимые ни одним компьютером. Тезис ЧТД говорит же о том, что квантовый компьютер может вычислить всё, что в принципе вычислимо. Он не исключает невычислимые процессы, и я не исключаю. От квантовой случайности нам никуда не деться, даже если она детерминирована на уровне Мультивёрса. И детерминированность Мультивёрса не гарантирует, что мы можем узнать универсальную ВФ и предсказать результат любого измерения. В этом и заключается гёделевская неполнота наших теорий - всегда останутся непредсказуемые и невычислимые компоненты, будь то случайный коллапс ВФ, интерференция с параллельными мирами или нелокальные скрытые параметры. Это никак не угрожает науке. Угрожают философы, постулирующие, что мышление человека интуитивно-неалгоритмично, и что ему доступны какие-то истины за пределами репертуара машины Тьюринга. Тогда может оказаться, что научный метод никуда не годится, потому что есть более эффективный неалгоритмический механизм познания. Ну так пусть сами это доказывают, решая неразрешимые проблемы, а пока они этого не сделали, мы будем считать гипервычисления невозможными, а предел Тьюринга - универсальным пределом познания.
А кефир и правда накладывает ограничения на пищеварение - он определяет состав микрофлоры кишечника! А микрофлора даже на работу мозга может влиять. Не зря же говорят "ты есть то, что ты ешь") Утверждать, что кефир - это непознаваемая "вещь в себе", я бы не стал. Можно разложить кефир на атомы, ввести в когерентное сверхтекучее состояние, смоделировать его свойства на квантовом компьютере и вычислить, как эволюционирует его ВФ. Но там наверняка обнаружатся радиоактивные изотопы, которые распадаются случайным образом и вполне могут послужить триггерами макроскопического хаоса - вызвать понос, например. Неважно, это ВФ так сколлапсировала, или я оказался не в той вселенной - в любом случае в наблюдаемой вселенной есть нерекурсивные источники информации, которые нельзя использовать в качестве вычислительного ресурса. Искать в них скрытый философский смысл или неалгоритмически над ними медитировать бесполезно - из случайной последовательности битов ничего полезного извлечь не получится. Это не абсолютный вывод, но делать ставку на кефирные гипервычисления - как-то не по-байесовски.

Сверхтьюринговые вычисления и гиперкомпьютеры. Тезис Чёрча-Тьюринга как универсальный предел познания