Согласен, что «квантование энергии» само по себе не даёт «минимальной энергии/массы» – это про дискретность спектров в конкретных системах. Но важный момент: связь планковских масштабов с квантованием пространства-времени – это уже модельная гипотеза (петлевая теория гравитации – LQG, каузальные множества и т.д.), а не следствие размерностей. Из следует лишь характерный масштаб несостоятельности «поля на фиксированном фоне»; дискретность геометрии – отдельное допущение. Поэтому корректно различать:
– предел применимости (Бронштейн: попытка локализации ниже ведёт возможности измерения применительно к гравитации);
– и квантование самой геометрии, которое зависит от выбранной теории и её совместимости с Лоренц-инвариантностью.
Иначе говоря: планковские длина/время – это аргумент «где ломается континуум», но не автоматическое доказательство дискретности пространства-времени - конечно хотелось бы, но от желаемого до реальности – огромная пропасть.
Величины не «кажутся более реалистичными» только потому, что они «малые». Речь не о магии чисел, а о том, что на этих масштабах ломается применимость исходных понятий (траектории, поле на фиксированном фоне и т.п.). Здесь нет «вывода из размерностей» как физического обоснования – есть именно аргумент Бронштейна об ограничениях применительно к гравитации. Их малость – лишь индикатор, а не фундаментальный аргумент. Да, «микроскопичность» завораживает воображение, но физический смысл этих масштабов задаётся не величиной чисел, а пределом применимости наших понятий и процедур измерения.
Да, именно так – я смог ответить на ваш предыдущий запрос по поводу вывода на основе анализа размерностей только утром. Вы хотели пример вывода через анализ размерностей, и я как раз привёл канву (см. выше) в том виде, в каком эти величины могли быть получены М. Планком. Сам Планк обозначал их просто как «естественные единицы», имеющие скорее метрологический характер, чем фундаментальный. Это не динамический вывод и не поиск «минимумов», а лишь указание характерных масштабов, где квантовые и гравитационные эффекты становятся сравнимыми – что, впрочем, напрямую из самого анализа размерностей не следует. В приведенном мною выводе я отметил некоторые важные, на мой взгляд, моменты, касающиеся планковских длины, массы и энергии.
Наиболее физически содержательное понимание этих масштабов было дано М.П. Бронштейном, что позже было осмыслено Г.Е. Гореликом. Все последующие рассуждения о «планковских» величинах в значительной степени носят уже метафизический, а не физический характер.
Что касается планковских массы и энергии – их стоит рассматривать скорее как иллюстративные величины, удобные для обозначения масштаба перехода, чем как реально существующие физические пределы.
Боюсь, что в таких формулировках ваших вопросов теряется физический смысл. В бесконечном пространстве у безмассового поля энергия просто стремится к нулю при частоте, стремящейся к нулю – «максимальной» длины волны фундаментально нет; она появляется лишь из-за конечного объёма, особенностей границ, геометрии и фоновой эволюции рассматриваемой системы. Вопрос о «минимальной массе» тоже некорректен: он исходит из картины теории полей на фиксированном классическом фоне – если энергии достаточно, то вы получите как минимум частицу или пару частиц с соответствующей массой, в полном соответствии с . На планковских масштабах же квантовые и гравитационные эффекты неразделимы, и привычные понятия «частица», «поле», «масса покоя» теряют привычный физический смысл. Поэтому обсуждать их «минимумы» там принципиально невозможно – сначала нужна теория, в рамках которой эти понятия вообще имеют определение. Или я не совсем правильно понял ваши вопросы.
Спасибо за замечание. Уточню: формулировки в основном тексте были сознательно упрощены для широкой аудитории Habr – это статья на Хабре, а не в журнале по физике высоких энергий.
По существу: хиггс даёт массу не только бозонам и , но и фермионам – кваркам и лептонам – через юкавские связи. Безмассовые до спонтанного нарушения симметрии члены превращаются в массовые благодаря вакуумному среднему хиггсовского поля:
Фотон и глюоны остаются безмассовыми как следствие выбора определённого механизма спонтанного нарушения симметрии в стандартной модели: (ненарушенная симметрия дает безмассовый фотон ), а вовсе не нарушается (глюоны безмассовы), поскольку хиггсовский дублет не несёт цветового заряда. К слову – это бозоны. Но, также замечу, что это осознанный выбор группы, представлений и зарядов, для согласования модели с экспериментом. (Для полноты картины:,.)
По поводу использования ИИ: что ж, каждый видит в тексте то, что хочет и способен увидеть – и понять.
Да примерно так. С моей точки зрения лучше всего начинать размерный анализ планковских масштабов с планковского времени - именно оно естественным образом выражается через и c. А от него просто перейти к длине и массе.
Возьмём три фундаментальные константы:
Ищем комбинацию
с размерностью времени . Складываем показатели по :
по массе
по длине
по времени
Подставляя во вторые два уравнения, получаем:
Итак,
Планковскую длину часто описывают как расстояние, которое свет прошёл бы за планковское время . Однако это лишь удобная интуитивная интерпретация: на таких масштабах пространство-время утрачивает привычную непрерывность, и сам вопрос о «прохождении» света становится метафоричным - мы уже не можем говорить о траектории или движении в классическом смысле; и о «свете» тоже: на планковских масштабах нет даже самой среды, в которой могло бы существовать электромагнитное поле. Здесь «свет» остаётся образом, помогающим вообразить предельный масштаб связи пространства и времени.
С массой нам придется пройти аналогичный путь.
Составляем уравнения по показателям :
Из последнего: . Подставляем в уравнение по :
.
Теперь из . Получаем .
Тогда,
Планковская энергия:
Это определение использует соотношение , корректное в рамках релятивистской теории на гладком пространстве-времени. На планковских масштабах (где ожидаем существенные квантовые флуктуации метрики) буквальный смысл «массы частицы» и «энергии покоя» становится модельно-зависимым, поэтому следует понимать как характерный энергетический масштаб, а не энергию реально существующего объекта.
Формально у восемь действительных компонент – скаляр, бивекторы и псевдоскаляр. Но связывать «псевдоскаляр и бусты» только с правохиральной частью некорректно: в представлении Хестенеса все эти компоненты входят в единый мультивектор, а хиральность определяется проекторами , а не разложением по компонентам мультивектора.
В координатном представлении волновая функция описывает амплитуду вероятности, и в этом смысле «бустов» в нет.
Однако в геометрической алгебре вводится поле , которое уже не является амплитудой, а представляет собой фермионное поле – локальный мультивектор, включающий ротор . Именно в этом операторе реализуются локальные бусты и вращения, отражающие преобразования системы отсчёта, а не изменение вероятности.
Поэтому оба утверждения можно согласовать: в смысле волновой функции бустов нет, а в описании поля они естественно возникают как локальные преобразования базиса.
А не кажется ли вам, что вы пытаетесь обсуждать совершенно пустую математическую конструкцию? То, что вам предложили, – игрушечная модель на марковских цепях с заранее встроенным поглощающим состоянием. Вывод «все миры скатываются к » следует из правил игры, а не из физики. Использовать её как «объяснение» отсутствия туристов из будущего – всё равно что объяснять гравитацию тем, что яблоко захотело упасть. Это следствие выбранной функции и математики поглощающих состояний, а не открытие закона природы.
Какой конкретно угол из ротора R соответствует U(1)-фазе? Ротор содержит вращения/бусты в разных плоскостях пространства-времени - как выделить именно ту степень свободы, которая:
Не зависит от системы отсчёта (инвариантна при Лоренц-преобразованиях)?
Соответствует ли он комплексной фазе e^(iφ), а не просто углу θ?
Вы пишете, что "фазовый множитель из стандартной КМ - это лишь одномерная проекция этого объекта, который описывает вращения во всех плоскостях пространства-времени". Что вы конкретно имеете в виду под "одномерной проекцией"?
Для понимания контекста: само нейтрино было зарегистрировано детектором KM3NeT в Средиземном море. А данные радиотелескопа РАТАН-600 использовались для локализации возможного источника — блазара PMN J0606-0724, у которого зафиксирована радиовспышка, совпавшая по времени с событием нейтрино.
Спасибо! Да, я знаком с современными вариантами формализма KvN и его классико-квантовыми расширениями, но сам придерживаюсь более физического подхода – через динамику Линдблада, где переход к классике связан с потерей когерентности и выравниванием метрики. Мои материалы пока не публиковались – это часть общей модели, которую я называю UMPD (Unified Model of Probabilistic Dynamics). Статья по этой теме почти готова, просто пока «отлеживается» перед публикацией на Хабре.
Да, как и у ваших коллег, так и у Румера, «пятимерный световой конус» оказывается разным для разных масс – ведь пятая координата масштабируется как . В итоге каждая частица живёт в своём собственном конусе, а универсальная геометрия теряет смысл.
Хочу поблагодарить за интересную работу! Хотел бы отметить важный аспект вашего численного моделирования, который связывает вашу модель с современными достижениями в теории ассоциативной памяти. Используемая в симуляциях динамическая система
по сути представляет собой современную модификацию классической сети Хопфилда. Применение гиперболического тангенса здесь – не просто технический выбор, а ключевой элемент, определяющий богатство возникающих структур.
Классическая сеть Хопфилда (1982) с бинарными состояниями и пороговой активацией имеет фундаментальное ограничение: ёмкость памяти составляет лишь паттернов для сети из узлов – сублинейный рост, делающий такую архитектуру непрактичной для больших систем.
Работы Дмитрия Кротова и Джона Хопфилда (начиная с 2016 года) показали, что использование полиномиальных энергий высокого порядка вместо квадратичных позволяет достичь экспоненциальной ёмкости памяти: . Ключевая идея – переход от парных взаимодействий к многочастичным, что драматически увеличивает пространство возможных устойчивых конфигураций.
Функция tanh, при разложении в ряд Тейлора, естественным образом порождает нелинейности всех нечётных порядков:
Это означает, что ваша динамическая система неявно реализует многочастичные взаимодействия, аналогичные подходу Хопфилда/Кротова. Эффективная энергетическая функция системы включает члены высокого порядка, что обеспечивает богатство эмерджентных структур – от изолированных кластеров до глобально когерентного суперкластера. Без этой нелинейности (например, при использовании простой пороговой функции sign) пространство возможных устойчивых паттернов было бы существенно беднее, и наблюдаемый в симуляциях фазовый переход между режимами фрагментации и интеграции имел бы гораздо менее выраженную структуру. Интересно, что работы Ramsauer et al. (2020) "Hopfield Networks is All You Need" установили математическую эквивалентность между современными сетями Хопфилда с непрерывными состояниями и механизмом внимания (attention) в трансформерах. В обоих случаях нелинейная активация () создаёт конкуренцию между паттернами, позволяя системе «выбирать» наиболее релевантные конфигурации. Таким образом, ваша модель корреляционных паттернов оказывается связанной не только с фундаментальными вопросами физики (эмерджентность пространства-времени из отношений), но и с современными достижениями в области ассоциативной памяти и машинного обучения.
Рассматривали ли вы возможность явного введения полиномиальных энергий более высокого порядка (как у Кротова) для ещё большего обогащения пространства возможных корреляционных структур? Было бы интересно увидеть, как это повлияет на характер фазовых переходов в вашей модели.
Мне кажется, это заслуживает внимания – рассматривать классическую вероятность не как простую неструктурированную величину, а как амплитуду с фазой: или для дискретного распределения .
Такое расширение вероятностного описания реализует формализм Купмана-фон Неймана, в котором классическая динамика описывается линейно и унитарно – без постулата коллапса и без разрыва между классикой и квантовой картиной. Фаза в этой картине не несёт «смысла» или интерпретации, а выступает как носитель интерференционных и корреляционных ограничений, определяющих согласование вероятностных контекстов.
Я также пришел к подобной идее в собственных изысканиях. Здесь обнаруживаются следующие интересные моменты:
Сами по себе «классические амплитуды» дают богатую геометрическую интерпретацию:
геометрия их пространства соответствует информационному многообразию (метрика Фишера, расстояние Хеллингера);
введение фазы превращает это пространство в комплексное, типа Фубини-Штуди, где углы между векторами выражают различимость и степень когерентности.
Разные порождают неортогональные состояния, так как их векторы в пространстве амплитуд имеют ненулевое перекрытие – что естественно, ведь классические распределения могут частично совпадать. Однако устранить их неортогональность напрямую невозможно:
простое «гашение фаз» не делает такие состояния ортогональными.
выбрать фазы так, чтобы для всех пар выполнялось (в дискретном случае), как это могло бы показаться самым простым способом обеспечить взаимную ортогональность при сохранении нормировки.
Неортогональные состояния в этой картине отражают тот факт, что разные наблюдаемые формируют локальные контексты – области, внутри которых вероятности согласованы, но между которыми сохраняются фазовые расхождения. С точки зрения квантового контекстуализма, это означает, что классическая вероятность подразумевает существование единого глобального распределения, тогда как квантовая система допускает лишь набор частично перекрывающихся описаний. Именно это и проявляется в виде неортогональности амплитуд.
Декогеренция при этом выступает не просто как механизм потери когерентности, а как физический способ согласования контекстов: она выравнивает фазы между локальными представлениями, устраняя интерференционные связи и формируя единую классическую вероятностную структуру. Таким образом, контекстуализм здесь естественно продолжает геометрическую картину амплитуд – он показывает, как согласование локальных контекстов ведёт к формированию классического предела.
Для устранения разрыва между нормировкой и неортогональностью, возникающего при переходе от вероятностных распределений к амплитудному описанию, требуются более тонкие подходы – асимптотические (много копий системы), вероятностные (неоднозначное различение состояний) или геометрические, где согласование осуществляется за счёт взаимодействия с окружением и формирования устойчивых подпространств.
Слабая декогеренция, вводимая, например, оператором Линдблада, может гасить недиагональные элементы в матрице плотности и в пределе приводить к классическому вероятностному распределению. В вычислительных экспериментах, которые я проводил, видно, как кубит в процессе эволюции, описываемой специально подобранными диссипативными операторами Линдблада, постепенно теряет когерентность, превращаясь в «классическую игру в орёл-решка», а система с большим числом состояний переходит к классическому режиму, статистика которого в пределе воспроизводит пуассоновское распределение.
Мне кажется, с физической стороны это даёт новый взгляд на «переход к классике». Граница между квантовым и классическим раскрывается как геометрия когерентности – плавное изменение углов между состояниями в пространстве вероятностных амплитуд. Переход к классике в этих терминах – не редукция, а плавное преобразование информационной геометрии, выражающееся в сглаживании кривизны многообразия вероятностных распределений, когда фаза перестаёт вносить вклад в различимость состояний. В этом смысле динамика Линдблада реализует процесс уплощения метрики гильбертова пространства – постепенного исчезновения кривизны, связанной с когерентными фазовыми связями, и перехода от квантовой метрики Фубини-Штуди к классической метрике Фишера. Так, переход к классике оказывается не редукцией, а непрерывным упрощением структуры пространства состояний.
Статья действительно хорошо передаёт основные идеи Wolfram Physics Project, однако важно отметить её историко-научный контекст.
Исследовательская программа Стивена Вольфрама (2020) представляет собой одно из наиболее последовательных современных воплощений идеи дискретной эволюции структур. Его гиперграфическая модель, в которой пространство и время возникают из локальных правил преобразования связей, открыла новый путь к объединению релятивистской и квантовой физики в рамках вычислительной парадигмы.
Тем не менее, с исторической точки зрения многие ключевые принципы этого подхода были сформулированы значительно раньше – в ходе постепенного развития реляционно-дискретной традиции, ведущей к современным моделям вычислительного происхождения физики.
1981–1988 – Графодинамика (М.А. Айзерман, Л.А. Гусев, С.В. Петров, И.М. Смирнова, Л.А. Тененбаум) Система трактуется как граф связей, изменяющийся во времени; её поведение описывается как динамика структуры. Локальные перестройки графа – основной механизм эволюции. Развивалась в рамках теории систем, применялась к техническим, биологическим и социальным структурам. Отмечу, что эта работа не оказала прямого влияния на последующее развитие физических теорий дискретного пространства-времени – она скорее представляет собой независимую параллельную разработку сходных концептуальных идей в другой научной области. Тем не менее, концептуальное сходство подходов примечательно: идея о том, что фундаментальная структура определяется не субстанцией элементов, а динамикой их связей, была сформулирована в системном анализе на несколько лет раньше, чем в фундаментальной физике.
1987–1995 – Causal Set Theory (R. Bombelli, J. Lee, D. Meyer, R. D. Sorkin) Пространство-время представлено как частично упорядоченное множество событий. Новые элементы добавляются в причинную сеть, формируя дискретную структуру причинности.
1988–1999 – Spin Networks → Loop Quantum Gravity (R. Penrose, C. Rovelli, L. Smolin) Геометрия возникает из комбинаторных структур SU(2); квантовые петли описывают элементарные ячейки пространства. Эволюция сети реализуется через граничные переходы.
1990–2002 – Cellular Automata и A New Kind of Science (S. Wolfram, M. Cook, J. H. Conway) Мир трактуется как клеточный автомат, где вычисление выступает универсальным процессом. Эволюция задаётся локальными правилами на дискретной решётке.
2000–2015 – Causal Dynamical Triangulations и родственные подходы (J. Ambjørn, J. Jurkiewicz, R. Loll; F. Markopoulou; D. Oriti) Пространство-время рассматривается как процесс склейки простейших элементов; причинная упорядоченность реализуется через стохастические перестройки симплициальных ячеек. Renate Loll, Jan Ambjørn и Jerzy Jurkiewicz – авторы метода Causal Dynamical Triangulations (CDT), Fotini Markopoulou – разработчик Causal Spin Networks и Quantum Causal Histories, а Daniele Oriti – основатель Group Field Theory, обобщающей петлевую гравитацию на полевом уровне.
2020 – настоящее время – Wolfram Physics Project (S. Wolfram) Пространство и время формируются из вычислительной эволюции гиперграфа; причинность и квантовость – следствие многопутевых вычислений. Основной механизм – алгоритмическое преобразование связей (rule rewriting). Для русскоязычных читателей доступен перевод на Хабре оригинальной статьи Вольфрама: «Наконец-то мы, возможно, нашли путь к фундаментальной теории физики, и он прекрасен» (https://habr.com/ru/articles/518206/).
Графодинамика как исток реляционно-дискретной парадигмы
В сборнике «Исследования по теории структур» (М., Наука, 1988) была опубликована работы М.А. Айзермана, Л.А. Гусева, С.В. Петрова, И.М. Смирновой и Л.А. Тененбаума «Динамический подход к анализу структур, описываемых графами (основы графодинамики)» и М.А.Айзермана «Структуры в задаче синтеза проекций систем».
Авторы заложили идею рассматривать систему как граф связей, изменяющийся во времени, а её поведение – как динамику самой структуры. Хотя работа создавалась в рамках общей теории систем и изначально применялась к техническим, биологическим и социальным объектам, её концептуальный аппарат предвосхитил ключевые принципы современных реляционно-дискретных подходов в физике.
Основные принципы графодинамики:
объект определяется не субстанцией, а сетью отношений;
эволюция системы выражается через локальные преобразования графа;
свойства системы возникают из правил перестройки связей.
Графодинамика 1980-х развивалась на стыке математики, системного анализа и кибернетики. Модель Вольфрама можно рассматривать как перенос реляционно-системной интуиции на уровень фундаментальной физики: он заменил язык теории систем на язык теории вычислений и причинных множеств, применив структурно-динамический подход к описанию пространства-времени.
Все перечисленные направления объединяет общая идея: структура пространства-времени возникает из дискретных элементов и их причинных/комбинаторных отношений.
Как показывает эта хронология, Wolfram Physics Project не является изолированным открытием, а представляет собой кульминацию 40-летней традиции реляционно-дискретных подходов – от графодинамики (теория систем) через причинные множества и петлевую квантовую гравитацию к современной вычислительной модели гиперграфов.
Если интересна тема суперсимметрии, у Ю. Р. Мусина её «минимум» изложен почти «на пальцах». Рекомендую: «Супервремя: новое следствие суперсимметрии» и «Современные физические теории времени (ОТО, псевдоклассическая механика, статфизика и термодинамика, квантовая теория, супервремя и суперсимметрия)». Эти тексты закрывают базовые понятия без захода в тяжёлую КТП.
Сам интересуюсь реляционными подходами к квантовой гравитации (причинные множества, петлевая КГ, теория бинарных отношений Кулакова/Владимирова), поэтому работы с фазовыми/временными расширениями всегда любопытны с точки зрения возможных связей между подходами.
Аллюзия на «супервремя» напрашивается: у Ю. Р. Мусина роль напарника времени реализована через одномерную суперсимметрию (1D SUSY) на мировой линии — грассманова координата, суперзаряд, инвариантное действие. Здесь же это выглядит как перепараметризация СТО без явной SUSY-структуры.
Добавлю к предыдущему своему комментарию. Любопытно, что автор критикует не только модификации Стандартной модели и теорию струн, но и даже упомянутую им «позитивную геометрию». Фактически это означает неприятие всех современных попыток найти более фундаментальное основание физики. Он отвергает и теоретико-полевые подходы, и направления, развивающиеся в рамках реляционной парадигмы: петлевую квантовую гравитацию и её вариации (спиновые сети и спиновые пены), теории бинарных отношений Кулакова/Владимирова, причинные множества (causal sets), причинную динамическую триангуляцию (CDT), твисторное направление Пенроуза – и так далее, и так далее... По сути, его позиция сводится к утверждению: Стандартная модель плюс ОТО – и копать глубже не нужно. Но это не аргумент против конкретных теорий, а по своей сути призыв остановить саму фундаментальную физику. Все перечисленные направления, при всех различиях в математическом аппарате, объединены одной целью – найти универсальный принцип, связывающий все проявления физической реальности. Отказ от этой цели – это не научный реализм, а капитуляция перед сложностью.
Согласен, что «квантование энергии» само по себе не даёт «минимальной энергии/массы» – это про дискретность спектров в конкретных системах. Но важный момент: связь планковских масштабов с квантованием пространства-времени – это уже модельная гипотеза (петлевая теория гравитации – LQG, каузальные множества и т.д.), а не следствие размерностей. Из
следует лишь характерный масштаб несостоятельности «поля на фиксированном фоне»; дискретность геометрии – отдельное допущение. Поэтому корректно различать:
– предел применимости (Бронштейн: попытка локализации ниже ведёт возможности измерения применительно к гравитации);
– и квантование самой геометрии, которое зависит от выбранной теории и её совместимости с Лоренц-инвариантностью.
Иначе говоря: планковские длина/время – это аргумент «где ломается континуум», но не автоматическое доказательство дискретности пространства-времени - конечно хотелось бы, но от желаемого до реальности – огромная пропасть.
Величины не «кажутся более реалистичными» только потому, что они «малые». Речь не о магии чисел, а о том, что на этих масштабах ломается применимость исходных понятий (траектории, поле на фиксированном фоне и т.п.). Здесь нет «вывода из размерностей» как физического обоснования – есть именно аргумент Бронштейна об ограничениях применительно к гравитации. Их малость – лишь индикатор, а не фундаментальный аргумент. Да, «микроскопичность» завораживает воображение, но физический смысл этих масштабов задаётся не величиной чисел, а пределом применимости наших понятий и процедур измерения.
Да, именно так – я смог ответить на ваш предыдущий запрос по поводу вывода на основе анализа размерностей только утром. Вы хотели пример вывода через анализ размерностей, и я как раз привёл канву (см. выше) в том виде, в каком эти величины могли быть получены М. Планком. Сам Планк обозначал их просто как «естественные единицы», имеющие скорее метрологический характер, чем фундаментальный. Это не динамический вывод и не поиск «минимумов», а лишь указание характерных масштабов, где квантовые и гравитационные эффекты становятся сравнимыми – что, впрочем, напрямую из самого анализа размерностей не следует. В приведенном мною выводе я отметил некоторые важные, на мой взгляд, моменты, касающиеся планковских длины, массы и энергии.
Наиболее физически содержательное понимание этих масштабов было дано М.П. Бронштейном, что позже было осмыслено Г.Е. Гореликом. Все последующие рассуждения о «планковских» величинах в значительной степени носят уже метафизический, а не физический характер.
Что касается планковских массы и энергии – их стоит рассматривать скорее как иллюстративные величины, удобные для обозначения масштаба перехода, чем как реально существующие физические пределы.
Боюсь, что в таких формулировках ваших вопросов теряется физический смысл. В бесконечном пространстве у безмассового поля энергия просто стремится к нулю при частоте, стремящейся к нулю – «максимальной» длины волны фундаментально нет; она появляется лишь из-за конечного объёма, особенностей границ, геометрии и фоновой эволюции рассматриваемой системы. Вопрос о «минимальной массе» тоже некорректен: он исходит из картины теории полей на фиксированном классическом фоне – если энергии достаточно, то вы получите как минимум частицу или пару частиц с соответствующей массой, в полном соответствии с
. На планковских масштабах же квантовые и гравитационные эффекты неразделимы, и привычные понятия «частица», «поле», «масса покоя» теряют привычный физический смысл. Поэтому обсуждать их «минимумы» там принципиально невозможно – сначала нужна теория, в рамках которой эти понятия вообще имеют определение. Или я не совсем правильно понял ваши вопросы.
Спасибо за замечание. Уточню: формулировки в основном тексте были сознательно упрощены для широкой аудитории Habr – это статья на Хабре, а не в журнале по физике высоких энергий.
По существу: хиггс даёт массу не только бозонам
и
, но и фермионам – кваркам и лептонам – через юкавские связи. Безмассовые до спонтанного нарушения симметрии члены превращаются в массовые благодаря вакуумному среднему хиггсовского поля:
Фотон и глюоны остаются безмассовыми как следствие выбора определённого механизма спонтанного нарушения симметрии в стандартной модели:
(ненарушенная симметрия
дает безмассовый фотон
), а
вовсе не нарушается (глюоны безмассовы), поскольку хиггсовский дублет не несёт цветового заряда. К слову – это бозоны. Но, также замечу, что это осознанный выбор группы, представлений и зарядов, для согласования модели с экспериментом. (Для полноты картины:
,
.)
По поводу использования ИИ: что ж, каждый видит в тексте то, что хочет и способен увидеть – и понять.
Да примерно так. С моей точки зрения лучше всего начинать размерный анализ планковских масштабов с планковского времени - именно оно естественным образом выражается через
и c. А от него просто перейти к длине и массе.
Возьмём три фундаментальные константы:
Ищем комбинацию
с размерностью времени
. Складываем показатели по
:
по массе
по длине
по времени
Подставляя
во вторые два уравнения, получаем:
Итак,

Планковскую длину
часто описывают как расстояние, которое свет прошёл бы за планковское время
. Однако это лишь удобная интуитивная интерпретация: на таких масштабах пространство-время утрачивает привычную непрерывность, и сам вопрос о «прохождении» света становится метафоричным - мы уже не можем говорить о траектории или движении в классическом смысле; и о «свете» тоже: на планковских масштабах нет даже самой среды, в которой могло бы существовать электромагнитное поле. Здесь «свет» остаётся образом, помогающим вообразить предельный масштаб связи пространства и времени.
С массой нам придется пройти аналогичный путь.
Составляем уравнения по показателям
:
Из последнего:
. Подставляем в уравнение по
:
Теперь из
. Получаем
.
Тогда,
Планковская энергия:
Это определение использует соотношение
, корректное в рамках релятивистской теории на гладком пространстве-времени. На планковских масштабах (где ожидаем существенные квантовые флуктуации метрики) буквальный смысл «массы частицы» и «энергии покоя» становится модельно-зависимым, поэтому
следует понимать как характерный энергетический масштаб, а не энергию реально существующего объекта.
Формально у
восемь действительных компонент – скаляр, бивекторы и псевдоскаляр. Но связывать «псевдоскаляр и бусты» только с правохиральной частью некорректно: в представлении Хестенеса все эти компоненты входят в единый мультивектор, а хиральность определяется проекторами
, а не разложением по компонентам мультивектора.
В координатном представлении волновая функция
описывает амплитуду вероятности, и в этом смысле «бустов» в
нет.
Однако в геометрической алгебре вводится поле
, которое уже не является амплитудой, а представляет собой фермионное поле – локальный мультивектор, включающий ротор
. Именно в этом операторе
реализуются локальные бусты и вращения, отражающие преобразования системы отсчёта, а не изменение вероятности.
Поэтому оба утверждения можно согласовать: в смысле волновой функции
бустов нет, а в описании поля
они естественно возникают как локальные преобразования базиса.
А не кажется ли вам, что вы пытаетесь обсуждать совершенно пустую математическую конструкцию? То, что вам предложили, – игрушечная модель на марковских цепях с заранее встроенным поглощающим состоянием. Вывод «все миры скатываются к
» следует из правил игры, а не из физики. Использовать её как «объяснение» отсутствия туристов из будущего – всё равно что объяснять гравитацию тем, что яблоко захотело упасть. Это следствие выбранной функции
и математики поглощающих состояний, а не открытие закона природы.
Какой конкретно угол из ротора R соответствует U(1)-фазе? Ротор содержит вращения/бусты в разных плоскостях пространства-времени - как выделить именно ту степень свободы, которая:
Не зависит от системы отсчёта (инвариантна при Лоренц-преобразованиях)?
Соответствует ли он комплексной фазе e^(iφ), а не просто углу θ?
Вы пишете, что "фазовый множитель из стандартной КМ - это лишь одномерная проекция этого объекта, который описывает вращения во всех плоскостях пространства-времени". Что вы конкретно имеете в виду под "одномерной проекцией"?
Для понимания контекста: само нейтрино было зарегистрировано детектором KM3NeT в Средиземном море. А данные радиотелескопа РАТАН-600 использовались для локализации возможного источника — блазара PMN J0606-0724, у которого зафиксирована радиовспышка, совпавшая по времени с событием нейтрино.
Спасибо! Да, я знаком с современными вариантами формализма KvN и его классико-квантовыми расширениями, но сам придерживаюсь более физического подхода – через динамику Линдблада, где переход к классике связан с потерей когерентности и выравниванием метрики.
Мои материалы пока не публиковались – это часть общей модели, которую я называю UMPD (Unified Model of Probabilistic Dynamics). Статья по этой теме почти готова, просто пока «отлеживается» перед публикацией на Хабре.
Спасибо за ответ. Буду ждать вашу статью по этой теме на Хабре.
Да, как и у ваших коллег, так и у Румера, «пятимерный световой конус» оказывается разным для разных масс – ведь пятая координата масштабируется как
. В итоге каждая частица живёт в своём собственном конусе, а универсальная геометрия теряет смысл.
Хочу поблагодарить за интересную работу! Хотел бы отметить важный аспект вашего численного моделирования, который связывает вашу модель с современными достижениями в теории ассоциативной памяти.
Используемая в симуляциях динамическая система
по сути представляет собой современную модификацию классической сети Хопфилда. Применение гиперболического тангенса здесь – не просто технический выбор, а ключевой элемент, определяющий богатство возникающих структур.
Классическая сеть Хопфилда (1982) с бинарными состояниями и пороговой активацией имеет фундаментальное ограничение: ёмкость памяти составляет лишь
паттернов для сети из
узлов – сублинейный рост, делающий такую архитектуру непрактичной для больших систем.
Работы Дмитрия Кротова и Джона Хопфилда (начиная с 2016 года) показали, что использование полиномиальных энергий высокого порядка вместо квадратичных позволяет достичь экспоненциальной ёмкости памяти:
. Ключевая идея – переход от парных взаимодействий к многочастичным, что драматически увеличивает пространство возможных устойчивых конфигураций.
Функция tanh, при разложении в ряд Тейлора, естественным образом порождает нелинейности всех нечётных порядков:
Это означает, что ваша динамическая система неявно реализует многочастичные взаимодействия, аналогичные подходу Хопфилда/Кротова. Эффективная энергетическая функция системы включает члены высокого порядка, что обеспечивает богатство эмерджентных структур – от изолированных кластеров до глобально когерентного суперкластера.
) создаёт конкуренцию между паттернами, позволяя системе «выбирать» наиболее релевантные конфигурации.
Без этой нелинейности (например, при использовании простой пороговой функции sign) пространство возможных устойчивых паттернов было бы существенно беднее, и наблюдаемый в симуляциях фазовый переход между режимами фрагментации и интеграции имел бы гораздо менее выраженную структуру.
Интересно, что работы Ramsauer et al. (2020) "Hopfield Networks is All You Need" установили математическую эквивалентность между современными сетями Хопфилда с непрерывными состояниями и механизмом внимания (attention) в трансформерах. В обоих случаях нелинейная активация (
Таким образом, ваша модель корреляционных паттернов оказывается связанной не только с фундаментальными вопросами физики (эмерджентность пространства-времени из отношений), но и с современными достижениями в области ассоциативной памяти и машинного обучения.
Рассматривали ли вы возможность явного введения полиномиальных энергий более высокого порядка (как у Кротова) для ещё большего обогащения пространства возможных корреляционных структур? Было бы интересно увидеть, как это повлияет на характер фазовых переходов в вашей модели.
Мне кажется, это заслуживает внимания – рассматривать классическую вероятность не как простую неструктурированную величину, а как амплитуду с фазой:
или для дискретного распределения
.
Такое расширение вероятностного описания реализует формализм Купмана-фон Неймана, в котором классическая динамика описывается линейно и унитарно – без постулата коллапса и без разрыва между классикой и квантовой картиной. Фаза
в этой картине не несёт «смысла» или интерпретации, а выступает как носитель интерференционных и корреляционных ограничений, определяющих согласование вероятностных контекстов.
Я также пришел к подобной идее в собственных изысканиях. Здесь обнаруживаются следующие интересные моменты:
Сами по себе «классические амплитуды» дают богатую геометрическую интерпретацию:
геометрия их пространства соответствует информационному многообразию (метрика Фишера, расстояние Хеллингера);
введение фазы превращает это пространство в комплексное, типа Фубини-Штуди, где углы между векторами выражают различимость и степень когерентности.
Разные
порождают неортогональные состояния, так как их векторы в пространстве амплитуд имеют ненулевое перекрытие – что естественно, ведь классические распределения могут частично совпадать. Однако устранить их неортогональность напрямую невозможно:
унитарная динамика сохраняет скалярные произведения;
простое «гашение фаз» не делает такие состояния ортогональными.
выбрать фазы так, чтобы для всех пар
выполнялось
(в дискретном случае), как это могло бы показаться самым простым способом обеспечить взаимную ортогональность при сохранении нормировки.
Неортогональные состояния в этой картине отражают тот факт, что разные наблюдаемые формируют локальные контексты – области, внутри которых вероятности согласованы, но между которыми сохраняются фазовые расхождения. С точки зрения квантового контекстуализма, это означает, что классическая вероятность подразумевает существование единого глобального распределения, тогда как квантовая система допускает лишь набор частично перекрывающихся описаний. Именно это и проявляется в виде неортогональности амплитуд.
Декогеренция при этом выступает не просто как механизм потери когерентности, а как физический способ согласования контекстов: она выравнивает фазы между локальными представлениями, устраняя интерференционные связи и формируя единую классическую вероятностную структуру. Таким образом, контекстуализм здесь естественно продолжает геометрическую картину амплитуд – он показывает, как согласование локальных контекстов ведёт к формированию классического предела.
Для устранения разрыва между нормировкой и неортогональностью, возникающего при переходе от вероятностных распределений к амплитудному описанию, требуются более тонкие подходы – асимптотические (много копий системы), вероятностные (неоднозначное различение состояний) или геометрические, где согласование осуществляется за счёт взаимодействия с окружением и формирования устойчивых подпространств.
Слабая декогеренция, вводимая, например, оператором Линдблада, может гасить недиагональные элементы в матрице плотности и в пределе приводить к классическому вероятностному распределению. В вычислительных экспериментах, которые я проводил, видно, как кубит в процессе эволюции, описываемой специально подобранными диссипативными операторами Линдблада, постепенно теряет когерентность, превращаясь в «классическую игру в орёл-решка», а система с большим числом состояний переходит к классическому режиму, статистика которого в пределе воспроизводит пуассоновское распределение.
Мне кажется, с физической стороны это даёт новый взгляд на «переход к классике». Граница между квантовым и классическим раскрывается как геометрия когерентности – плавное изменение углов между состояниями в пространстве вероятностных амплитуд. Переход к классике в этих терминах – не редукция, а плавное преобразование информационной геометрии, выражающееся в сглаживании кривизны многообразия вероятностных распределений, когда фаза перестаёт вносить вклад в различимость состояний. В этом смысле динамика Линдблада реализует процесс уплощения метрики гильбертова пространства – постепенного исчезновения кривизны, связанной с когерентными фазовыми связями, и перехода от квантовой метрики Фубини-Штуди к классической метрике Фишера. Так, переход к классике оказывается не редукцией, а непрерывным упрощением структуры пространства состояний.
Статья действительно хорошо передаёт основные идеи Wolfram Physics Project, однако важно отметить её историко-научный контекст.
Исследовательская программа Стивена Вольфрама (2020) представляет собой одно из наиболее последовательных современных воплощений идеи дискретной эволюции структур. Его гиперграфическая модель, в которой пространство и время возникают из локальных правил преобразования связей, открыла новый путь к объединению релятивистской и квантовой физики в рамках вычислительной парадигмы.
Тем не менее, с исторической точки зрения многие ключевые принципы этого подхода были сформулированы значительно раньше – в ходе постепенного развития реляционно-дискретной традиции, ведущей к современным моделям вычислительного происхождения физики.
Историческая преемственность реляционно-дискретных подходов
1981–1988 – Графодинамика (М.А. Айзерман, Л.А. Гусев, С.В. Петров, И.М. Смирнова, Л.А. Тененбаум) Система трактуется как граф связей, изменяющийся во времени; её поведение описывается как динамика структуры. Локальные перестройки графа – основной механизм эволюции. Развивалась в рамках теории систем, применялась к техническим, биологическим и социальным структурам. Отмечу, что эта работа не оказала прямого влияния на последующее развитие физических теорий дискретного пространства-времени – она скорее представляет собой независимую параллельную разработку сходных концептуальных идей в другой научной области. Тем не менее, концептуальное сходство подходов примечательно: идея о том, что фундаментальная структура определяется не субстанцией элементов, а динамикой их связей, была сформулирована в системном анализе на несколько лет раньше, чем в фундаментальной физике.
1987–1995 – Causal Set Theory (R. Bombelli, J. Lee, D. Meyer, R. D. Sorkin) Пространство-время представлено как частично упорядоченное множество событий. Новые элементы добавляются в причинную сеть, формируя дискретную структуру причинности.
1988–1999 – Spin Networks → Loop Quantum Gravity (R. Penrose, C. Rovelli, L. Smolin) Геометрия возникает из комбинаторных структур SU(2); квантовые петли описывают элементарные ячейки пространства. Эволюция сети реализуется через граничные переходы.
1990–2002 – Cellular Automata и A New Kind of Science (S. Wolfram, M. Cook, J. H. Conway) Мир трактуется как клеточный автомат, где вычисление выступает универсальным процессом. Эволюция задаётся локальными правилами на дискретной решётке.
2000–2015 – Causal Dynamical Triangulations и родственные подходы (J. Ambjørn, J. Jurkiewicz, R. Loll; F. Markopoulou; D. Oriti) Пространство-время рассматривается как процесс склейки простейших элементов; причинная упорядоченность реализуется через стохастические перестройки симплициальных ячеек. Renate Loll, Jan Ambjørn и Jerzy Jurkiewicz – авторы метода Causal Dynamical Triangulations (CDT), Fotini Markopoulou – разработчик Causal Spin Networks и Quantum Causal Histories, а Daniele Oriti – основатель Group Field Theory, обобщающей петлевую гравитацию на полевом уровне.
2020 – настоящее время – Wolfram Physics Project (S. Wolfram) Пространство и время формируются из вычислительной эволюции гиперграфа; причинность и квантовость – следствие многопутевых вычислений. Основной механизм – алгоритмическое преобразование связей (rule rewriting). Для русскоязычных читателей доступен перевод на Хабре оригинальной статьи Вольфрама: «Наконец-то мы, возможно, нашли путь к фундаментальной теории физики, и он прекрасен» (https://habr.com/ru/articles/518206/).
Графодинамика как исток реляционно-дискретной парадигмы
В сборнике «Исследования по теории структур» (М., Наука, 1988) была опубликована работы М.А. Айзермана, Л.А. Гусева, С.В. Петрова, И.М. Смирновой и Л.А. Тененбаума «Динамический подход к анализу структур, описываемых графами (основы графодинамики)» и М.А.Айзермана «Структуры в задаче синтеза проекций систем».
Авторы заложили идею рассматривать систему как граф связей, изменяющийся во времени, а её поведение – как динамику самой структуры. Хотя работа создавалась в рамках общей теории систем и изначально применялась к техническим, биологическим и социальным объектам, её концептуальный аппарат предвосхитил ключевые принципы современных реляционно-дискретных подходов в физике.
Основные принципы графодинамики:
объект определяется не субстанцией, а сетью отношений;
эволюция системы выражается через локальные преобразования графа;
свойства системы возникают из правил перестройки связей.
Графодинамика 1980-х развивалась на стыке математики, системного анализа и кибернетики. Модель Вольфрама можно рассматривать как перенос реляционно-системной интуиции на уровень фундаментальной физики: он заменил язык теории систем на язык теории вычислений и причинных множеств, применив структурно-динамический подход к описанию пространства-времени.
Все перечисленные направления объединяет общая идея: структура пространства-времени возникает из дискретных элементов и их причинных/комбинаторных отношений.
Как показывает эта хронология, Wolfram Physics Project не является изолированным открытием, а представляет собой кульминацию 40-летней традиции реляционно-дискретных подходов – от графодинамики (теория систем) через причинные множества и петлевую квантовую гравитацию к современной вычислительной модели гиперграфов.
Если интересна тема суперсимметрии, у Ю. Р. Мусина её «минимум» изложен почти «на пальцах». Рекомендую: «Супервремя: новое следствие суперсимметрии» и «Современные физические теории времени (ОТО, псевдоклассическая механика, статфизика и термодинамика, квантовая теория, супервремя и суперсимметрия)». Эти тексты закрывают базовые понятия без захода в тяжёлую КТП.
Сам интересуюсь реляционными подходами к квантовой гравитации (причинные множества, петлевая КГ, теория бинарных отношений Кулакова/Владимирова), поэтому работы с фазовыми/временными расширениями всегда любопытны с точки зрения возможных связей между подходами.
Аллюзия на «супервремя» напрашивается: у Ю. Р. Мусина роль напарника времени реализована через одномерную суперсимметрию (1D SUSY) на мировой линии — грассманова координата, суперзаряд, инвариантное действие. Здесь же это выглядит как перепараметризация СТО без явной SUSY-структуры.
Добавлю к предыдущему своему комментарию. Любопытно, что автор критикует не только модификации Стандартной модели и теорию струн, но и даже упомянутую им «позитивную геометрию». Фактически это означает неприятие всех современных попыток найти более фундаментальное основание физики. Он отвергает и теоретико-полевые подходы, и направления, развивающиеся в рамках реляционной парадигмы: петлевую квантовую гравитацию и её вариации (спиновые сети и спиновые пены), теории бинарных отношений Кулакова/Владимирова, причинные множества (causal sets), причинную динамическую триангуляцию (CDT), твисторное направление Пенроуза – и так далее, и так далее... По сути, его позиция сводится к утверждению: Стандартная модель плюс ОТО – и копать глубже не нужно. Но это не аргумент против конкретных теорий, а по своей сути призыв остановить саму фундаментальную физику. Все перечисленные направления, при всех различиях в математическом аппарате, объединены одной целью – найти универсальный принцип, связывающий все проявления физической реальности. Отказ от этой цели – это не научный реализм, а капитуляция перед сложностью.