Хочу поблагодарить за интересную работу! Хотел бы отметить важный аспект вашего численного моделирования, который связывает вашу модель с современными достижениями в теории ассоциативной памяти. Используемая в симуляциях динамическая система
по сути представляет собой современную модификацию классической сети Хопфилда. Применение гиперболического тангенса здесь – не просто технический выбор, а ключевой элемент, определяющий богатство возникающих структур.
Классическая сеть Хопфилда (1982) с бинарными состояниями и пороговой активацией имеет фундаментальное ограничение: ёмкость памяти составляет лишь паттернов для сети из узлов – сублинейный рост, делающий такую архитектуру непрактичной для больших систем.
Работы Дмитрия Кротова и Джона Хопфилда (начиная с 2016 года) показали, что использование полиномиальных энергий высокого порядка вместо квадратичных позволяет достичь экспоненциальной ёмкости памяти: . Ключевая идея – переход от парных взаимодействий к многочастичным, что драматически увеличивает пространство возможных устойчивых конфигураций.
Функция tanh, при разложении в ряд Тейлора, естественным образом порождает нелинейности всех нечётных порядков:
Это означает, что ваша динамическая система неявно реализует многочастичные взаимодействия, аналогичные подходу Хопфилда/Кротова. Эффективная энергетическая функция системы включает члены высокого порядка, что обеспечивает богатство эмерджентных структур – от изолированных кластеров до глобально когерентного суперкластера. Без этой нелинейности (например, при использовании простой пороговой функции sign) пространство возможных устойчивых паттернов было бы существенно беднее, и наблюдаемый в симуляциях фазовый переход между режимами фрагментации и интеграции имел бы гораздо менее выраженную структуру. Интересно, что работы Ramsauer et al. (2020) "Hopfield Networks is All You Need" установили математическую эквивалентность между современными сетями Хопфилда с непрерывными состояниями и механизмом внимания (attention) в трансформерах. В обоих случаях нелинейная активация () создаёт конкуренцию между паттернами, позволяя системе «выбирать» наиболее релевантные конфигурации. Таким образом, ваша модель корреляционных паттернов оказывается связанной не только с фундаментальными вопросами физики (эмерджентность пространства-времени из отношений), но и с современными достижениями в области ассоциативной памяти и машинного обучения.
Рассматривали ли вы возможность явного введения полиномиальных энергий более высокого порядка (как у Кротова) для ещё большего обогащения пространства возможных корреляционных структур? Было бы интересно увидеть, как это повлияет на характер фазовых переходов в вашей модели.
Мне кажется, это заслуживает внимания – рассматривать классическую вероятность не как простую неструктурированную величину, а как амплитуду с фазой: или для дискретного распределения .
Такое расширение вероятностного описания реализует формализм Купмана-фон Неймана, в котором классическая динамика описывается линейно и унитарно – без постулата коллапса и без разрыва между классикой и квантовой картиной. Фаза в этой картине не несёт «смысла» или интерпретации, а выступает как носитель интерференционных и корреляционных ограничений, определяющих согласование вероятностных контекстов.
Я также пришел к подобной идее в собственных изысканиях. Здесь обнаруживаются следующие интересные моменты:
Сами по себе «классические амплитуды» дают богатую геометрическую интерпретацию:
геометрия их пространства соответствует информационному многообразию (метрика Фишера, расстояние Хеллингера);
введение фазы превращает это пространство в комплексное, типа Фубини-Штуди, где углы между векторами выражают различимость и степень когерентности.
Разные порождают неортогональные состояния, так как их векторы в пространстве амплитуд имеют ненулевое перекрытие – что естественно, ведь классические распределения могут частично совпадать. Однако устранить их неортогональность напрямую невозможно:
простое «гашение фаз» не делает такие состояния ортогональными.
выбрать фазы так, чтобы для всех пар выполнялось (в дискретном случае), как это могло бы показаться самым простым способом обеспечить взаимную ортогональность при сохранении нормировки.
Неортогональные состояния в этой картине отражают тот факт, что разные наблюдаемые формируют локальные контексты – области, внутри которых вероятности согласованы, но между которыми сохраняются фазовые расхождения. С точки зрения квантового контекстуализма, это означает, что классическая вероятность подразумевает существование единого глобального распределения, тогда как квантовая система допускает лишь набор частично перекрывающихся описаний. Именно это и проявляется в виде неортогональности амплитуд.
Декогеренция при этом выступает не просто как механизм потери когерентности, а как физический способ согласования контекстов: она выравнивает фазы между локальными представлениями, устраняя интерференционные связи и формируя единую классическую вероятностную структуру. Таким образом, контекстуализм здесь естественно продолжает геометрическую картину амплитуд – он показывает, как согласование локальных контекстов ведёт к формированию классического предела.
Для устранения разрыва между нормировкой и неортогональностью, возникающего при переходе от вероятностных распределений к амплитудному описанию, требуются более тонкие подходы – асимптотические (много копий системы), вероятностные (неоднозначное различение состояний) или геометрические, где согласование осуществляется за счёт взаимодействия с окружением и формирования устойчивых подпространств.
Слабая декогеренция, вводимая, например, оператором Линдблада, может гасить недиагональные элементы в матрице плотности и в пределе приводить к классическому вероятностному распределению. В вычислительных экспериментах, которые я проводил, видно, как кубит в процессе эволюции, описываемой специально подобранными диссипативными операторами Линдблада, постепенно теряет когерентность, превращаясь в «классическую игру в орёл-решка», а система с большим числом состояний переходит к классическому режиму, статистика которого в пределе воспроизводит пуассоновское распределение.
Мне кажется, с физической стороны это даёт новый взгляд на «переход к классике». Граница между квантовым и классическим раскрывается как геометрия когерентности – плавное изменение углов между состояниями в пространстве вероятностных амплитуд. Переход к классике в этих терминах – не редукция, а плавное преобразование информационной геометрии, выражающееся в сглаживании кривизны многообразия вероятностных распределений, когда фаза перестаёт вносить вклад в различимость состояний. В этом смысле динамика Линдблада реализует процесс уплощения метрики гильбертова пространства – постепенного исчезновения кривизны, связанной с когерентными фазовыми связями, и перехода от квантовой метрики Фубини-Штуди к классической метрике Фишера. Так, переход к классике оказывается не редукцией, а непрерывным упрощением структуры пространства состояний.
Статья действительно хорошо передаёт основные идеи Wolfram Physics Project, однако важно отметить её историко-научный контекст.
Исследовательская программа Стивена Вольфрама (2020) представляет собой одно из наиболее последовательных современных воплощений идеи дискретной эволюции структур. Его гиперграфическая модель, в которой пространство и время возникают из локальных правил преобразования связей, открыла новый путь к объединению релятивистской и квантовой физики в рамках вычислительной парадигмы.
Тем не менее, с исторической точки зрения многие ключевые принципы этого подхода были сформулированы значительно раньше – в ходе постепенного развития реляционно-дискретной традиции, ведущей к современным моделям вычислительного происхождения физики.
1981–1988 – Графодинамика (М.А. Айзерман, Л.А. Гусев, С.В. Петров, И.М. Смирнова, Л.А. Тененбаум) Система трактуется как граф связей, изменяющийся во времени; её поведение описывается как динамика структуры. Локальные перестройки графа – основной механизм эволюции. Развивалась в рамках теории систем, применялась к техническим, биологическим и социальным структурам. Отмечу, что эта работа не оказала прямого влияния на последующее развитие физических теорий дискретного пространства-времени – она скорее представляет собой независимую параллельную разработку сходных концептуальных идей в другой научной области. Тем не менее, концептуальное сходство подходов примечательно: идея о том, что фундаментальная структура определяется не субстанцией элементов, а динамикой их связей, была сформулирована в системном анализе на несколько лет раньше, чем в фундаментальной физике.
1987–1995 – Causal Set Theory (R. Bombelli, J. Lee, D. Meyer, R. D. Sorkin) Пространство-время представлено как частично упорядоченное множество событий. Новые элементы добавляются в причинную сеть, формируя дискретную структуру причинности.
1988–1999 – Spin Networks → Loop Quantum Gravity (R. Penrose, C. Rovelli, L. Smolin) Геометрия возникает из комбинаторных структур SU(2); квантовые петли описывают элементарные ячейки пространства. Эволюция сети реализуется через граничные переходы.
1990–2002 – Cellular Automata и A New Kind of Science (S. Wolfram, M. Cook, J. H. Conway) Мир трактуется как клеточный автомат, где вычисление выступает универсальным процессом. Эволюция задаётся локальными правилами на дискретной решётке.
2000–2015 – Causal Dynamical Triangulations и родственные подходы (J. Ambjørn, J. Jurkiewicz, R. Loll; F. Markopoulou; D. Oriti) Пространство-время рассматривается как процесс склейки простейших элементов; причинная упорядоченность реализуется через стохастические перестройки симплициальных ячеек. Renate Loll, Jan Ambjørn и Jerzy Jurkiewicz – авторы метода Causal Dynamical Triangulations (CDT), Fotini Markopoulou – разработчик Causal Spin Networks и Quantum Causal Histories, а Daniele Oriti – основатель Group Field Theory, обобщающей петлевую гравитацию на полевом уровне.
2020 – настоящее время – Wolfram Physics Project (S. Wolfram) Пространство и время формируются из вычислительной эволюции гиперграфа; причинность и квантовость – следствие многопутевых вычислений. Основной механизм – алгоритмическое преобразование связей (rule rewriting). Для русскоязычных читателей доступен перевод на Хабре оригинальной статьи Вольфрама: «Наконец-то мы, возможно, нашли путь к фундаментальной теории физики, и он прекрасен» (https://habr.com/ru/articles/518206/).
Графодинамика как исток реляционно-дискретной парадигмы
В сборнике «Исследования по теории структур» (М., Наука, 1988) была опубликована работы М.А. Айзермана, Л.А. Гусева, С.В. Петрова, И.М. Смирновой и Л.А. Тененбаума «Динамический подход к анализу структур, описываемых графами (основы графодинамики)» и М.А.Айзермана «Структуры в задаче синтеза проекций систем».
Авторы заложили идею рассматривать систему как граф связей, изменяющийся во времени, а её поведение – как динамику самой структуры. Хотя работа создавалась в рамках общей теории систем и изначально применялась к техническим, биологическим и социальным объектам, её концептуальный аппарат предвосхитил ключевые принципы современных реляционно-дискретных подходов в физике.
Основные принципы графодинамики:
объект определяется не субстанцией, а сетью отношений;
эволюция системы выражается через локальные преобразования графа;
свойства системы возникают из правил перестройки связей.
Графодинамика 1980-х развивалась на стыке математики, системного анализа и кибернетики. Модель Вольфрама можно рассматривать как перенос реляционно-системной интуиции на уровень фундаментальной физики: он заменил язык теории систем на язык теории вычислений и причинных множеств, применив структурно-динамический подход к описанию пространства-времени.
Все перечисленные направления объединяет общая идея: структура пространства-времени возникает из дискретных элементов и их причинных/комбинаторных отношений.
Как показывает эта хронология, Wolfram Physics Project не является изолированным открытием, а представляет собой кульминацию 40-летней традиции реляционно-дискретных подходов – от графодинамики (теория систем) через причинные множества и петлевую квантовую гравитацию к современной вычислительной модели гиперграфов.
Если интересна тема суперсимметрии, у Ю. Р. Мусина её «минимум» изложен почти «на пальцах». Рекомендую: «Супервремя: новое следствие суперсимметрии» и «Современные физические теории времени (ОТО, псевдоклассическая механика, статфизика и термодинамика, квантовая теория, супервремя и суперсимметрия)». Эти тексты закрывают базовые понятия без захода в тяжёлую КТП.
Сам интересуюсь реляционными подходами к квантовой гравитации (причинные множества, петлевая КГ, теория бинарных отношений Кулакова/Владимирова), поэтому работы с фазовыми/временными расширениями всегда любопытны с точки зрения возможных связей между подходами.
Аллюзия на «супервремя» напрашивается: у Ю. Р. Мусина роль напарника времени реализована через одномерную суперсимметрию (1D SUSY) на мировой линии — грассманова координата, суперзаряд, инвариантное действие. Здесь же это выглядит как перепараметризация СТО без явной SUSY-структуры.
Добавлю к предыдущему своему комментарию. Любопытно, что автор критикует не только модификации Стандартной модели и теорию струн, но и даже упомянутую им «позитивную геометрию». Фактически это означает неприятие всех современных попыток найти более фундаментальное основание физики. Он отвергает и теоретико-полевые подходы, и направления, развивающиеся в рамках реляционной парадигмы: петлевую квантовую гравитацию и её вариации (спиновые сети и спиновые пены), теории бинарных отношений Кулакова/Владимирова, причинные множества (causal sets), причинную динамическую триангуляцию (CDT), твисторное направление Пенроуза – и так далее, и так далее... По сути, его позиция сводится к утверждению: Стандартная модель плюс ОТО – и копать глубже не нужно. Но это не аргумент против конкретных теорий, а по своей сути призыв остановить саму фундаментальную физику. Все перечисленные направления, при всех различиях в математическом аппарате, объединены одной целью – найти универсальный принцип, связывающий все проявления физической реальности. Отказ от этой цели – это не научный реализм, а капитуляция перед сложностью.
Полезный текст, но всё-таки слишком поверхностный.
Идея «Теории всего» – не наивная мечта о единой формуле, а естественное продолжение принципа науки: стремления к единству описания природы. Отказ от этого принципа – не признак научного реализма, а капитуляция перед сложностью.
Да, современные подходы вводят множество дополнительных измерений, симметрий и частиц. Но это не изъян метода, а неизбежное следствие углубления в структуру реальности. Никто не обещал, что проникновение в «глубь кроличьей норы» будет простым – чем глубже копаешь, тем больше идей и инструментария приходится привлекать. Каждый новый уровень понимания требует расширения концептуального аппарата: новых математических структур, дополнительных степеней свободы, более абстрактных симметрий. Это не «загромождение» теории ненужными сущностями, а необходимая цена за доступ к более фундаментальным слоям реальности.
Исторически язык науки всегда усложнялся на промежуточных этапах, чтобы в итоге упростить понимание сути: вспомните путь от эпициклов Птолемея через сложные выкладки Кеплера к элегантной механике Ньютона, а затем – к ещё более абстрактной, но фундаментальной общей теории относительности.
Критика нынешних теорий объединения оправдана, но лишь пока она не превращается в отговорку. Без идеи единства физика рискует деградировать в каталог частных моделей без связующей логики. «Теория всего» – это не обязательно одно уравнение, это скорее метатеория, показывающая, как различные уровни реальности соотносятся между собой.
Автор видит проблему в том, что теории объединения содержат множество компонентов, не проявляющихся в наблюдаемой физике. Но это не противоречие, а особенность перехода между масштабами. Квантовая теория поля тоже содержит бесконечное число виртуальных процессов и степеней свободы, которые «подавляются» при низких энергиях – и это не делает её несостоятельной. Компактификация дополнительных измерений – не уловка, а физический механизм, подобный тому, как трёхмерный мир кажется двумерным для существ, живущих на поверхности листа.
Если хотите увидеть действительно взвешенную и честную критику современного состояния фундаментальной физики – рекомендую читать Сабину Хоссенфельдер. Она пишет о кризисе идей без поверхностного скепсиса, сохраняя глубокое уважение к самой науке.
Отличная статья о релятивистской трассировке лучей!
В качестве дополнения предлагаю сослаться на классический алгоритм Люминэ (1979), который реализован как готовая Python-библиотека bgmeulem/luminet (https://github.com/bgmeulem/luminet ). Это альтернативный к GPU подход:
GPU-метод (ваш): геодезические интегрируются в реальном времени в GLSL
Алгоритм Люминэ (1979): изорадиальные кривые + аналитические решения
Оба физически корректны, но дают разные преимущества:
Физика и эффекты Обе реализации воспроизводят ключевые релятивистские эффекты (гравитационное линзирование, доплер-асимметрию, гравитационное красное смещение). При глобальной нормализации факторов красного смещения цветовые карты получаются физически осмысленными.
Да, Вы правы, упоминание есть. Но ведь именно историческая перспектива сделала бы тему живой: от Гинзбурга, Тамма, Фрадкина, теорем Вайнберга и Коулмана–Мандулы к работам Васильева. Было бы здорово, если бы в будущем удалось показать эту «лестницу шагов» - так статья могла бы стать отправной точкой для многих, кто впервые слышит о теории высших спинов.
Тема захватывающая. Расширенная статья о теории высших спинов была бы очень кстати. Благодарные читатели наверняка нашлись бы. Но если автору не до этого — «свято место пусто не бывает»: найдутся и желающие восполнить этот пробел.
Единственное, чего не хватило статье — это упоминания о фундаментальном вкладе Е.С. Фрадкина, М.А. Васильева и его коллег (а исторически можно вспомнить и В.Л. Гинзбурга с И.Е. Таммом). Без этой школы говорить о высших спинах и гармоническом суперпространстве — значит рассказывать лишь верхушку айсберга
Согласен, идея с «жёсткостью пространства» при экстремальной кривизне выглядит очень изящно. Она и инфляцию делает ненужной, и сингулярности укрощает. Жаль только, что пока это красивая математика, которую проверить напрямую мы не умеем.
И тут всплывает более широкий вопрос: если само пространство обладает «упругостью», то, возможно, и привычное разделение на фон и поля — лишь удобный язык. В реляционном подходе такие вещи описываются не как отдельные сущности, а как отношения и корреляции. Тогда упругость — это не свойство «ткани», а отражение того, как меняются связи при экстремальной кривизне.
Многие воспринимают хиггсовский переход как событие ранней Вселенной: было время безмассовых частиц, потом «бах» - и массы появились. Но на самом деле это не разовое явление. Поле Хиггса существует и сейчас, его вакуумное ожидание стабильно заполняет всё пространство. Каждый электрон, кварк или W/Z-бозон прямо сейчас и в каждое мгновение «черпает» массу из этого фона. Поэтому хиггсовский механизм - это не прошлое, а текущая реальность. Можно сказать, что хиггсовский переход совершается в каждой точке пространства-времени прямо сейчас. Мы просто живём внутри уже установившегося фона, для нас это стало нормой - как давление воздуха или ускорение свободного падения.
В экстремальных условиях, например при сверхвысоких энергиях или вблизи горизонтов чёрных дыр, возможно обратное явление - восстановление электрослабой симметрии. Тогда вакуумное среднее хиггсовского поля обнуляется, и частицы снова становятся безмассовыми. Но для «обычных» астрофизических чёрных дыр условия слишком «холодные»: температура Хокинга ничтожна, а даже в аккреционных дисках энергии не дотягивают до сотен ГэВ. Возможные кандидаты - очень маленькие (первичные) чёрные дыры или области вблизи сингулярности, где кривизна становится экстремальной.
Так что сама идея обратного перехода не фантастична: при достаточных энергиях поле Хиггса может «расплавиться», и мир снова станет безмассовым. Но проверить это напрямую пока невозможно - мы упираемся и в ограничения наблюдаемости, и в пределы существующих моделей. В серьезных публикациях такие сценарии тоже обсуждаются - от высокотемпературного восстановления симметрии в ранней Вселенной до влияния сильной кривизны и чёрных дыр на вакуум Хиггса.
Согласен. Провал в понимании и делает дискуссию о ранней Вселенной живой. Интересно наблюдать, как разные подходы - от инфляции до потенциально возможных реляционных сценариев - каждый по-своему пытается заполнить этот пробел.
Я придерживаюсь общепринятых представлений о стадиях ранней Вселенной, но главное, на что хотелось бы обратить внимание - это зияющий разрыв между окончанием инфляции и областью, описываемой Стандартной моделью. Именно в этот «провал» интересно заглянуть: там могут скрываться новые идеи и неожиданные механизмы.
Эти белые пятна открывают пространство для альтернативных подходов, позволяя обсуждать раннюю Вселенную не только в рамках привычных моделей, но и через призму принципиально новых сценариев. Возможно, мы уже близки к экспериментальной проверке этих гипотез на достижимых энергиях.
А что касается полета фантазий - ну как иначе заглянуть туда, где эксперимент пока молчит?
Интересно. Но чтобы довести вашу идею до уровня физической модели, нужно ответить на следующие вопросы: что значит «два пространственно-временных континуума», как работает «обратное время» и каким образом граница даёт эффект тёмной материи/энергии. А проверить можно только через наблюдаемые следствия — и это уже не просто образ, а вызов, проверить который гораздо труднее, чем может показаться.
Инфлатон — это не обнаруженная экспериментально частица и не элемент Стандартной модели физики элементарных частиц. Это гипотетическое скалярное поле, введённое для описания космологической инфляции — периода сверхбыстрого экспоненциального расширения ранней Вселенной. Инфляция элегантно объясняет наблюдаемую крупномасштабную однородность и изотропность космоса, а также отсутствие магнитных монополей. Мы знаем, что инфляционный механизм отлично согласуется с данными наблюдений (анизотропия реликтового излучения, крупномасштабная структура), но остаётся фундаментальный вопрос: является ли инфлатон реальным физическим полем или это просто удобная математическая абстракция?
Может, всё гораздо проще и происходило как-то иначе?
Проще — вряд ли, но альтернативы существуют:
K-essence (кинетическая инфляция) — ускоренное расширение обеспечивается нестандартной кинетической энергией скалярного поля без потенциала классического инфлатона
Циклическая космология (модели Стейнхардта–Турока) — наш Большой взрыв не уникален, а лишь звено в бесконечной цепи циклов сжатия и расширения Вселенной
Модифицированная гравитация — инфляция возникает из самой геометрии пространства-времени (модель Старобинского с R²-поправками), где инфлатон появляется лишь как математическое переписывание гравитационных уравнений
Эмерджентные сценарии — инфляция как коллективный статистический эффект: конденсат в многомерном пространстве, фазовые переходы в струнной теории, голографические модели
Каждый подход имеет свои преимущества и нерешённые проблемы. Будущие наблюдения гравитационных волн первичного происхождения могут дать ключ к разгадке.
По мере приближения к истокам реальности тропы становятся всё более запутанными. Простота принадлежит поверхности, тогда как в глубине мир предстает лабиринтом, где сложность не препятствие для понимания, а сама его основа.
Хочу поблагодарить за интересную работу! Хотел бы отметить важный аспект вашего численного моделирования, который связывает вашу модель с современными достижениями в теории ассоциативной памяти.
Используемая в симуляциях динамическая система
по сути представляет собой современную модификацию классической сети Хопфилда. Применение гиперболического тангенса здесь – не просто технический выбор, а ключевой элемент, определяющий богатство возникающих структур.
Классическая сеть Хопфилда (1982) с бинарными состояниями и пороговой активацией имеет фундаментальное ограничение: ёмкость памяти составляет лишь
паттернов для сети из
узлов – сублинейный рост, делающий такую архитектуру непрактичной для больших систем.
Работы Дмитрия Кротова и Джона Хопфилда (начиная с 2016 года) показали, что использование полиномиальных энергий высокого порядка вместо квадратичных позволяет достичь экспоненциальной ёмкости памяти:
. Ключевая идея – переход от парных взаимодействий к многочастичным, что драматически увеличивает пространство возможных устойчивых конфигураций.
Функция tanh, при разложении в ряд Тейлора, естественным образом порождает нелинейности всех нечётных порядков:
Это означает, что ваша динамическая система неявно реализует многочастичные взаимодействия, аналогичные подходу Хопфилда/Кротова. Эффективная энергетическая функция системы включает члены высокого порядка, что обеспечивает богатство эмерджентных структур – от изолированных кластеров до глобально когерентного суперкластера.
) создаёт конкуренцию между паттернами, позволяя системе «выбирать» наиболее релевантные конфигурации.
Без этой нелинейности (например, при использовании простой пороговой функции sign) пространство возможных устойчивых паттернов было бы существенно беднее, и наблюдаемый в симуляциях фазовый переход между режимами фрагментации и интеграции имел бы гораздо менее выраженную структуру.
Интересно, что работы Ramsauer et al. (2020) "Hopfield Networks is All You Need" установили математическую эквивалентность между современными сетями Хопфилда с непрерывными состояниями и механизмом внимания (attention) в трансформерах. В обоих случаях нелинейная активация (
Таким образом, ваша модель корреляционных паттернов оказывается связанной не только с фундаментальными вопросами физики (эмерджентность пространства-времени из отношений), но и с современными достижениями в области ассоциативной памяти и машинного обучения.
Рассматривали ли вы возможность явного введения полиномиальных энергий более высокого порядка (как у Кротова) для ещё большего обогащения пространства возможных корреляционных структур? Было бы интересно увидеть, как это повлияет на характер фазовых переходов в вашей модели.
Мне кажется, это заслуживает внимания – рассматривать классическую вероятность не как простую неструктурированную величину, а как амплитуду с фазой:
или для дискретного распределения
.
Такое расширение вероятностного описания реализует формализм Купмана-фон Неймана, в котором классическая динамика описывается линейно и унитарно – без постулата коллапса и без разрыва между классикой и квантовой картиной. Фаза
в этой картине не несёт «смысла» или интерпретации, а выступает как носитель интерференционных и корреляционных ограничений, определяющих согласование вероятностных контекстов.
Я также пришел к подобной идее в собственных изысканиях. Здесь обнаруживаются следующие интересные моменты:
Сами по себе «классические амплитуды» дают богатую геометрическую интерпретацию:
геометрия их пространства соответствует информационному многообразию (метрика Фишера, расстояние Хеллингера);
введение фазы превращает это пространство в комплексное, типа Фубини-Штуди, где углы между векторами выражают различимость и степень когерентности.
Разные
порождают неортогональные состояния, так как их векторы в пространстве амплитуд имеют ненулевое перекрытие – что естественно, ведь классические распределения могут частично совпадать. Однако устранить их неортогональность напрямую невозможно:
унитарная динамика сохраняет скалярные произведения;
простое «гашение фаз» не делает такие состояния ортогональными.
выбрать фазы так, чтобы для всех пар
выполнялось
(в дискретном случае), как это могло бы показаться самым простым способом обеспечить взаимную ортогональность при сохранении нормировки.
Неортогональные состояния в этой картине отражают тот факт, что разные наблюдаемые формируют локальные контексты – области, внутри которых вероятности согласованы, но между которыми сохраняются фазовые расхождения. С точки зрения квантового контекстуализма, это означает, что классическая вероятность подразумевает существование единого глобального распределения, тогда как квантовая система допускает лишь набор частично перекрывающихся описаний. Именно это и проявляется в виде неортогональности амплитуд.
Декогеренция при этом выступает не просто как механизм потери когерентности, а как физический способ согласования контекстов: она выравнивает фазы между локальными представлениями, устраняя интерференционные связи и формируя единую классическую вероятностную структуру. Таким образом, контекстуализм здесь естественно продолжает геометрическую картину амплитуд – он показывает, как согласование локальных контекстов ведёт к формированию классического предела.
Для устранения разрыва между нормировкой и неортогональностью, возникающего при переходе от вероятностных распределений к амплитудному описанию, требуются более тонкие подходы – асимптотические (много копий системы), вероятностные (неоднозначное различение состояний) или геометрические, где согласование осуществляется за счёт взаимодействия с окружением и формирования устойчивых подпространств.
Слабая декогеренция, вводимая, например, оператором Линдблада, может гасить недиагональные элементы в матрице плотности и в пределе приводить к классическому вероятностному распределению. В вычислительных экспериментах, которые я проводил, видно, как кубит в процессе эволюции, описываемой специально подобранными диссипативными операторами Линдблада, постепенно теряет когерентность, превращаясь в «классическую игру в орёл-решка», а система с большим числом состояний переходит к классическому режиму, статистика которого в пределе воспроизводит пуассоновское распределение.
Мне кажется, с физической стороны это даёт новый взгляд на «переход к классике». Граница между квантовым и классическим раскрывается как геометрия когерентности – плавное изменение углов между состояниями в пространстве вероятностных амплитуд. Переход к классике в этих терминах – не редукция, а плавное преобразование информационной геометрии, выражающееся в сглаживании кривизны многообразия вероятностных распределений, когда фаза перестаёт вносить вклад в различимость состояний. В этом смысле динамика Линдблада реализует процесс уплощения метрики гильбертова пространства – постепенного исчезновения кривизны, связанной с когерентными фазовыми связями, и перехода от квантовой метрики Фубини-Штуди к классической метрике Фишера. Так, переход к классике оказывается не редукцией, а непрерывным упрощением структуры пространства состояний.
Статья действительно хорошо передаёт основные идеи Wolfram Physics Project, однако важно отметить её историко-научный контекст.
Исследовательская программа Стивена Вольфрама (2020) представляет собой одно из наиболее последовательных современных воплощений идеи дискретной эволюции структур. Его гиперграфическая модель, в которой пространство и время возникают из локальных правил преобразования связей, открыла новый путь к объединению релятивистской и квантовой физики в рамках вычислительной парадигмы.
Тем не менее, с исторической точки зрения многие ключевые принципы этого подхода были сформулированы значительно раньше – в ходе постепенного развития реляционно-дискретной традиции, ведущей к современным моделям вычислительного происхождения физики.
Историческая преемственность реляционно-дискретных подходов
1981–1988 – Графодинамика (М.А. Айзерман, Л.А. Гусев, С.В. Петров, И.М. Смирнова, Л.А. Тененбаум) Система трактуется как граф связей, изменяющийся во времени; её поведение описывается как динамика структуры. Локальные перестройки графа – основной механизм эволюции. Развивалась в рамках теории систем, применялась к техническим, биологическим и социальным структурам. Отмечу, что эта работа не оказала прямого влияния на последующее развитие физических теорий дискретного пространства-времени – она скорее представляет собой независимую параллельную разработку сходных концептуальных идей в другой научной области. Тем не менее, концептуальное сходство подходов примечательно: идея о том, что фундаментальная структура определяется не субстанцией элементов, а динамикой их связей, была сформулирована в системном анализе на несколько лет раньше, чем в фундаментальной физике.
1987–1995 – Causal Set Theory (R. Bombelli, J. Lee, D. Meyer, R. D. Sorkin) Пространство-время представлено как частично упорядоченное множество событий. Новые элементы добавляются в причинную сеть, формируя дискретную структуру причинности.
1988–1999 – Spin Networks → Loop Quantum Gravity (R. Penrose, C. Rovelli, L. Smolin) Геометрия возникает из комбинаторных структур SU(2); квантовые петли описывают элементарные ячейки пространства. Эволюция сети реализуется через граничные переходы.
1990–2002 – Cellular Automata и A New Kind of Science (S. Wolfram, M. Cook, J. H. Conway) Мир трактуется как клеточный автомат, где вычисление выступает универсальным процессом. Эволюция задаётся локальными правилами на дискретной решётке.
2000–2015 – Causal Dynamical Triangulations и родственные подходы (J. Ambjørn, J. Jurkiewicz, R. Loll; F. Markopoulou; D. Oriti) Пространство-время рассматривается как процесс склейки простейших элементов; причинная упорядоченность реализуется через стохастические перестройки симплициальных ячеек. Renate Loll, Jan Ambjørn и Jerzy Jurkiewicz – авторы метода Causal Dynamical Triangulations (CDT), Fotini Markopoulou – разработчик Causal Spin Networks и Quantum Causal Histories, а Daniele Oriti – основатель Group Field Theory, обобщающей петлевую гравитацию на полевом уровне.
2020 – настоящее время – Wolfram Physics Project (S. Wolfram) Пространство и время формируются из вычислительной эволюции гиперграфа; причинность и квантовость – следствие многопутевых вычислений. Основной механизм – алгоритмическое преобразование связей (rule rewriting). Для русскоязычных читателей доступен перевод на Хабре оригинальной статьи Вольфрама: «Наконец-то мы, возможно, нашли путь к фундаментальной теории физики, и он прекрасен» (https://habr.com/ru/articles/518206/).
Графодинамика как исток реляционно-дискретной парадигмы
В сборнике «Исследования по теории структур» (М., Наука, 1988) была опубликована работы М.А. Айзермана, Л.А. Гусева, С.В. Петрова, И.М. Смирновой и Л.А. Тененбаума «Динамический подход к анализу структур, описываемых графами (основы графодинамики)» и М.А.Айзермана «Структуры в задаче синтеза проекций систем».
Авторы заложили идею рассматривать систему как граф связей, изменяющийся во времени, а её поведение – как динамику самой структуры. Хотя работа создавалась в рамках общей теории систем и изначально применялась к техническим, биологическим и социальным объектам, её концептуальный аппарат предвосхитил ключевые принципы современных реляционно-дискретных подходов в физике.
Основные принципы графодинамики:
объект определяется не субстанцией, а сетью отношений;
эволюция системы выражается через локальные преобразования графа;
свойства системы возникают из правил перестройки связей.
Графодинамика 1980-х развивалась на стыке математики, системного анализа и кибернетики. Модель Вольфрама можно рассматривать как перенос реляционно-системной интуиции на уровень фундаментальной физики: он заменил язык теории систем на язык теории вычислений и причинных множеств, применив структурно-динамический подход к описанию пространства-времени.
Все перечисленные направления объединяет общая идея: структура пространства-времени возникает из дискретных элементов и их причинных/комбинаторных отношений.
Как показывает эта хронология, Wolfram Physics Project не является изолированным открытием, а представляет собой кульминацию 40-летней традиции реляционно-дискретных подходов – от графодинамики (теория систем) через причинные множества и петлевую квантовую гравитацию к современной вычислительной модели гиперграфов.
Если интересна тема суперсимметрии, у Ю. Р. Мусина её «минимум» изложен почти «на пальцах». Рекомендую: «Супервремя: новое следствие суперсимметрии» и «Современные физические теории времени (ОТО, псевдоклассическая механика, статфизика и термодинамика, квантовая теория, супервремя и суперсимметрия)». Эти тексты закрывают базовые понятия без захода в тяжёлую КТП.
Сам интересуюсь реляционными подходами к квантовой гравитации (причинные множества, петлевая КГ, теория бинарных отношений Кулакова/Владимирова), поэтому работы с фазовыми/временными расширениями всегда любопытны с точки зрения возможных связей между подходами.
Аллюзия на «супервремя» напрашивается: у Ю. Р. Мусина роль напарника времени реализована через одномерную суперсимметрию (1D SUSY) на мировой линии — грассманова координата, суперзаряд, инвариантное действие. Здесь же это выглядит как перепараметризация СТО без явной SUSY-структуры.
Добавлю к предыдущему своему комментарию. Любопытно, что автор критикует не только модификации Стандартной модели и теорию струн, но и даже упомянутую им «позитивную геометрию». Фактически это означает неприятие всех современных попыток найти более фундаментальное основание физики. Он отвергает и теоретико-полевые подходы, и направления, развивающиеся в рамках реляционной парадигмы: петлевую квантовую гравитацию и её вариации (спиновые сети и спиновые пены), теории бинарных отношений Кулакова/Владимирова, причинные множества (causal sets), причинную динамическую триангуляцию (CDT), твисторное направление Пенроуза – и так далее, и так далее... По сути, его позиция сводится к утверждению: Стандартная модель плюс ОТО – и копать глубже не нужно. Но это не аргумент против конкретных теорий, а по своей сути призыв остановить саму фундаментальную физику. Все перечисленные направления, при всех различиях в математическом аппарате, объединены одной целью – найти универсальный принцип, связывающий все проявления физической реальности. Отказ от этой цели – это не научный реализм, а капитуляция перед сложностью.
Полезный текст, но всё-таки слишком поверхностный.
Идея «Теории всего» – не наивная мечта о единой формуле, а естественное продолжение принципа науки: стремления к единству описания природы. Отказ от этого принципа – не признак научного реализма, а капитуляция перед сложностью.
Да, современные подходы вводят множество дополнительных измерений, симметрий и частиц. Но это не изъян метода, а неизбежное следствие углубления в структуру реальности. Никто не обещал, что проникновение в «глубь кроличьей норы» будет простым – чем глубже копаешь, тем больше идей и инструментария приходится привлекать. Каждый новый уровень понимания требует расширения концептуального аппарата: новых математических структур, дополнительных степеней свободы, более абстрактных симметрий. Это не «загромождение» теории ненужными сущностями, а необходимая цена за доступ к более фундаментальным слоям реальности.
Исторически язык науки всегда усложнялся на промежуточных этапах, чтобы в итоге упростить понимание сути: вспомните путь от эпициклов Птолемея через сложные выкладки Кеплера к элегантной механике Ньютона, а затем – к ещё более абстрактной, но фундаментальной общей теории относительности.
Критика нынешних теорий объединения оправдана, но лишь пока она не превращается в отговорку. Без идеи единства физика рискует деградировать в каталог частных моделей без связующей логики. «Теория всего» – это не обязательно одно уравнение, это скорее метатеория, показывающая, как различные уровни реальности соотносятся между собой.
Автор видит проблему в том, что теории объединения содержат множество компонентов, не проявляющихся в наблюдаемой физике. Но это не противоречие, а особенность перехода между масштабами. Квантовая теория поля тоже содержит бесконечное число виртуальных процессов и степеней свободы, которые «подавляются» при низких энергиях – и это не делает её несостоятельной. Компактификация дополнительных измерений – не уловка, а физический механизм, подобный тому, как трёхмерный мир кажется двумерным для существ, живущих на поверхности листа.
Если хотите увидеть действительно взвешенную и честную критику современного состояния фундаментальной физики – рекомендую читать Сабину Хоссенфельдер. Она пишет о кризисе идей без поверхностного скепсиса, сохраняя глубокое уважение к самой науке.
Отличная статья о релятивистской трассировке лучей!
В качестве дополнения предлагаю сослаться на классический алгоритм Люминэ (1979), который реализован как готовая Python-библиотека bgmeulem/luminet (https://github.com/bgmeulem/luminet
). Это альтернативный к GPU подход:
GPU-метод (ваш): геодезические интегрируются в реальном времени в GLSL
Алгоритм Люминэ (1979): изорадиальные кривые + аналитические решения
Оба физически корректны, но дают разные преимущества:
GPU: интерактивность, плавные переходы, современная визуализация
Люминэ: концентрические структуры, историческая точность, готовая Python-библиотека
Физика и эффекты
Обе реализации воспроизводят ключевые релятивистские эффекты (гравитационное линзирование, доплер-асимметрию, гравитационное красное смещение). При глобальной нормализации факторов красного смещения цветовые карты получаются физически осмысленными.
Примеры и репро
Галерея примеров: https://cloud.mail.ru/public/dYka/1La4MfbnZ
Репозиторий: https://github.com/bgmeulem/luminet
Спасибо за детальное объяснение математики GPU-реализации!
Да, Вы правы, упоминание есть. Но ведь именно историческая перспектива сделала бы тему живой: от Гинзбурга, Тамма, Фрадкина, теорем Вайнберга и Коулмана–Мандулы к работам Васильева. Было бы здорово, если бы в будущем удалось показать эту «лестницу шагов» - так статья могла бы стать отправной точкой для многих, кто впервые слышит о теории высших спинов.
Тема захватывающая. Расширенная статья о теории высших спинов была бы очень кстати. Благодарные читатели наверняка нашлись бы. Но если автору не до этого — «свято место пусто не бывает»: найдутся и желающие восполнить этот пробел.
Единственное, чего не хватило статье — это упоминания о фундаментальном вкладе Е.С. Фрадкина, М.А. Васильева и его коллег (а исторически можно вспомнить и В.Л. Гинзбурга с И.Е. Таммом). Без этой школы говорить о высших спинах и гармоническом суперпространстве — значит рассказывать лишь верхушку айсберга
Согласен, идея с «жёсткостью пространства» при экстремальной кривизне выглядит очень изящно. Она и инфляцию делает ненужной, и сингулярности укрощает. Жаль только, что пока это красивая математика, которую проверить напрямую мы не умеем.
И тут всплывает более широкий вопрос: если само пространство обладает «упругостью», то, возможно, и привычное разделение на фон и поля — лишь удобный язык. В реляционном подходе такие вещи описываются не как отдельные сущности, а как отношения и корреляции. Тогда упругость — это не свойство «ткани», а отражение того, как меняются связи при экстремальной кривизне.
Да, было бы здорово. Но, как говорится, мечтать не вредно.
Многие воспринимают хиггсовский переход как событие ранней Вселенной: было время безмассовых частиц, потом «бах» - и массы появились. Но на самом деле это не разовое явление. Поле Хиггса существует и сейчас, его вакуумное ожидание стабильно заполняет всё пространство. Каждый электрон, кварк или W/Z-бозон прямо сейчас и в каждое мгновение «черпает» массу из этого фона. Поэтому хиггсовский механизм - это не прошлое, а текущая реальность. Можно сказать, что хиггсовский переход совершается в каждой точке пространства-времени прямо сейчас. Мы просто живём внутри уже установившегося фона, для нас это стало нормой - как давление воздуха или ускорение свободного падения.
В экстремальных условиях, например при сверхвысоких энергиях или вблизи горизонтов чёрных дыр, возможно обратное явление - восстановление электрослабой симметрии. Тогда вакуумное среднее хиггсовского поля обнуляется, и частицы снова становятся безмассовыми. Но для «обычных» астрофизических чёрных дыр условия слишком «холодные»: температура Хокинга ничтожна, а даже в аккреционных дисках энергии не дотягивают до сотен ГэВ. Возможные кандидаты - очень маленькие (первичные) чёрные дыры или области вблизи сингулярности, где кривизна становится экстремальной.
Так что сама идея обратного перехода не фантастична: при достаточных энергиях поле Хиггса может «расплавиться», и мир снова станет безмассовым. Но проверить это напрямую пока невозможно - мы упираемся и в ограничения наблюдаемости, и в пределы существующих моделей. В серьезных публикациях такие сценарии тоже обсуждаются - от высокотемпературного восстановления симметрии в ранней Вселенной до влияния сильной кривизны и чёрных дыр на вакуум Хиггса.
Я так не думаю
Не напрягает, А почему именно на пион {0} и позитрон? Меня больше волнуют др. вопросы.
Согласен. Провал в понимании и делает дискуссию о ранней Вселенной живой. Интересно наблюдать, как разные подходы - от инфляции до потенциально возможных реляционных сценариев - каждый по-своему пытается заполнить этот пробел.
Я придерживаюсь общепринятых представлений о стадиях ранней Вселенной, но главное, на что хотелось бы обратить внимание - это зияющий разрыв между окончанием инфляции и областью, описываемой Стандартной моделью. Именно в этот «провал» интересно заглянуть: там могут скрываться новые идеи и неожиданные механизмы.
Эти белые пятна открывают пространство для альтернативных подходов, позволяя обсуждать раннюю Вселенную не только в рамках привычных моделей, но и через призму принципиально новых сценариев. Возможно, мы уже близки к экспериментальной проверке этих гипотез на достижимых энергиях.
А что касается полета фантазий - ну как иначе заглянуть туда, где эксперимент пока молчит?
Перекладывать с места на место известное - скучно, а нескладное иногда ведёт к новым идеям.
Интересно. Но чтобы довести вашу идею до уровня физической модели, нужно ответить на следующие вопросы: что значит «два пространственно-временных континуума», как работает «обратное время» и каким образом граница даёт эффект тёмной материи/энергии. А проверить можно только через наблюдаемые следствия — и это уже не просто образ, а вызов, проверить который гораздо труднее, чем может показаться.
Инфлатон — это не обнаруженная экспериментально частица и не элемент Стандартной модели физики элементарных частиц. Это гипотетическое скалярное поле, введённое для описания космологической инфляции — периода сверхбыстрого экспоненциального расширения ранней Вселенной. Инфляция элегантно объясняет наблюдаемую крупномасштабную однородность и изотропность космоса, а также отсутствие магнитных монополей.
Мы знаем, что инфляционный механизм отлично согласуется с данными наблюдений (анизотропия реликтового излучения, крупномасштабная структура), но остаётся фундаментальный вопрос: является ли инфлатон реальным физическим полем или это просто удобная математическая абстракция?
Проще — вряд ли, но альтернативы существуют:
K-essence (кинетическая инфляция) — ускоренное расширение обеспечивается нестандартной кинетической энергией скалярного поля без потенциала классического инфлатона
Циклическая космология (модели Стейнхардта–Турока) — наш Большой взрыв не уникален, а лишь звено в бесконечной цепи циклов сжатия и расширения Вселенной
Модифицированная гравитация — инфляция возникает из самой геометрии пространства-времени (модель Старобинского с R²-поправками), где инфлатон появляется лишь как математическое переписывание гравитационных уравнений
Эмерджентные сценарии — инфляция как коллективный статистический эффект: конденсат в многомерном пространстве, фазовые переходы в струнной теории, голографические модели
Каждый подход имеет свои преимущества и нерешённые проблемы. Будущие наблюдения гравитационных волн первичного происхождения могут дать ключ к разгадке.
По мере приближения к истокам реальности тропы становятся всё более запутанными. Простота принадлежит поверхности, тогда как в глубине мир предстает лабиринтом, где сложность не препятствие для понимания, а сама его основа.