Тут и помогли цефеиды, которые Ливитт за их свойства назвала «стандартными свечами». Их большая яркость позволяет рассмотреть даже цефеиды, расположенные в других галактиках. Определив их период пульсаций, мы можем подсчитать их собственную яркость. Воспользовавшись законом обратных квадратов (именно так убывает видимая яркость при расстоянии до объекта), мы можем получить расстояние до изучаемой цефеиды (учтя некоторые тонкости вроде изучения яркости в одном диапазоне частот и отсутствия радиальных скоростей между объектами). Полученная таким способом величина называется модулем расстояния.
Отсюда можно сформировать ложное представление о модуле расстояния, на самом деле это логарифм:
где - модуль расстояния, - расстояние и делится оно на 10 парсек по соглашению. Оно получается так, потому что измерения видимой яркости переводятся в видимую звёздную величину , а вместо абсолютной яркости часто используют абсолютную звёздную величину . Из их определений следует .
Кроме того, в космологии есть разные виды расстояния, и закон обратных квадратов работает только для одного из них (по определению). Хотя все эти расстояния сходятся, когда они малы, и различия не так важны в диапазоне, где работают Цефеиды.
Если рассказ про близнецов преобразовать в тройнецов
Одного оставить на земле, а с двумя провернуть тоже самое что и в первой истории, но отправив одного назад к земле
Непонятно, что вы имеете в виду. В оригинальном парадоксе близнецов один остаётся на Земле, а другой движется с околосветовой скоростью вдаль и возвращается на Землю. Решение парадокса как раз в том, что второе нельзя сделать без ускорения, система отсчёта второго становится неинерциальной, СТО уже не работает, а по ОТО время в ней как раз "набегает" в этот промежуток. Не сведя близнецов в одному точку, нетривиально сравнить возраст. Зачем вам нужен третий?
Внутри сферы, "нарисованной" вокруг наблюдателя, безусловно есть материя, это не новость.
Проблема в том, что она есть и снаружи этой сферы, и сила притяжения этой наружной материи (по крайней мере, в рамках ньютоновской гравитации) нулевая только при полной сферической симметрии.
Для гравитационного потенциала наружная материя вообще важна даже в сферически-симметричном случае и в ньютоновской теории.
То есть вы убрали отдельную единицу для массы, положив , оставили только длину и время. Это логично, и похоже на естественную систему единиц из физики частиц, где .
Но откуда вы берёте ? Из написанного вами не ясно, но похоже на вывод методом размерностей. С ним надо аккуратно - адекватность результата не гарантирована, особенно если у вас уместных величин для правой части больше, чем независимых базовых единиц. Кроме того, остаётся безразмерная константа, которую невозможно предсказать этим способом.
Извините, но в ваших выкладках почти на каждом шагу проблема.
Как указали выше, нужно выбрать центр (видимо, на Земле) и считать сферу вокруг него (почему?).
Вы связываете скорость разбегания (радиальную) с радиальным же ускорением. Это так не работает, нужна поперечная (вращательная) скорость, которую как раз очень сложно измерить.
Вы, похоже, принимаете МОНД, что под вопросом, но меньшим, чем другие пункты.
Откуда известно, что что ?
В итоге у вас получаются два "нелинейных закона Хаббла", которые не сходятся друг с другом, и известный линейный закон Хаббла в пределе малых расстояний с ними также несовместим.
Также вы, похоже, не задумывались, откуда известна средняя плотность Вселенной. Она как раз получается из космологических наблюдений, одно из которых - сопоставление расстояний, полученных методом стандартных свеч с красными смещениями.
Получить плотность массы из наблюдений более прямыми способами получается с намного меньшей точностью, потому что значительная часть даже обычной (барионной) материи видна очень плохо.
Наконец, на фоне гладкого закона Хаббла есть помехи в виде пекулярных скоростей (например, движения галактик в кластере/суперкластере), которые для отдельных объектов предсказать также сложно. Величина этого эффекта примерно одинакова на всех масштабах, поэтому он делает измерения малых расстояний через закон Хаббла неточными, практичным этот метод становится только на больших пространственных масштабах (порядка гигапарсека/3 млрд световых лет; и соответственно высоких "скоростях").
Главная причина того, что это произошло так поздно - сложность измерения расстояний до очень далёких объектов и соответственно их реальных размеров (угловые размеры измерить относительно просто, если они не слишком малы). Параллакс работал только в близких галактических окрестностях (сейчас уже по большей части Млечного пути, но это совсем недавний прорыв, раньше таких технологий не было), а дальше непонятно.
Только в межвоенное время были разработаны методики измерения таких расстояний - например, используя Цефеиды (характерно пульсирующие звёзды) как стандартные свечи (вкратце: предсказать полную мощность излучения объекта, измерить приходящую от него энергию на площадь, рассчитать расстояние). На данный момент нет возможности рассчитать мощность теоретически, поэтому каждый тип стандартных свеч требует калибровки на достаточно большой выборке объектов нужного класса с расстояниями, полученных другим методом.
Сложность измерения времени в специальной теории относительности связана с нетривиальностью синхронизации часов в разных точках пространства, вызванной конечной максимальной скоростью. В ньютоновской механике можно обмениваться информацией мгновенно и проблема не возникает.
В СТО в определённой системе отсчёта время измеряется так, как бы показывали часы, размещённые в покое (относительно этой СО) в каждой точке. И они синхронизированы в том смысле, что если
одни часы показывают и в этот момент отправляют сигнал вторым
вторые часы получают сигнал, показывая , и сразу отправляют ответный сигнал обратно
первые часы получают ответный сигнал, показывая
то второе время всегда будет ровно между первым и третьим, .
Если у пары часов ненулевая относительная скорость, их нельзя так синхронизировать.
Течение времени в рамках специальной теории относительности меняется, когда вы переходите в новую инерциальную систему отсчёта, движующуюся относительно предыдущей (привязанной к Земле или Солнцу; хотя они не вполне инерциальные). Промежутки времени между событиями меняются в зависимости от пространственного смещения между ними. События, происходящие в разных местах, могут менять временной порядок, становиться или переставить быть одновременными и т.п. И это происходит во всём бесконечном пространстве.
То есть если вы возьмёте пространственную зависимость электромагнитного поля в фиксированный момент времени относительно Земли и попробуете перейти в систему отсчёта относительно Солнца, то ваша картина перестанет быть одновременной. А ещё поля тоже преобразуются под бустами, но это не так критично для плоской электромагнитной волны.
Относительность времени очень контринтуитивна, потому что не заметна на бытовых малых скоростях. Но в целом похожа на то, как пространственные координаты меняются при преобразованиях Галилея (что обычно удивляет намного меньше) с добавлением идеи, что время не обособлено.
Ещё один важный фактор в том, что обычная материя может излучать лишнюю энергию, в основном электромагнитными механизмами. Без этого гравитационный коллапс останавливается на определённом масштабе, зависящем от начальной энергии системы. Тёмной материи тяжелее "спускать" энергию, поэтому она остаётся более "размазанной".
Но в целом идея у вас в контексте статьи верная. Идея МОНД изначально была про то, что степень расстояния в знаменателе уравнения Ньютона не ровно 2, а чуть-чуть, самую малость, больше. Условно, 2.000000002 (конкретное число зависит от единиц измерения). В рамках Солнечной системы это незаметно, а вот на масштабе галактик уже ощутимо.
В МОНД же на больших расстояниях, на малых практически , чтобы соответствовать околоземным измерениям, а на промежуточных плавный переход с непостоянной степенью. Аналогия тут скорее с диэлектрической (или магнитной) проницаемостью сред.
В принципе, вся тёмная материя не обязана иметь одну и ту же природу, так что чёрные дыры могут отвечать за часть её массы. Хотя, конечно, модель усложняется необходимостью введения разных механизмов.
Не отказались, но не вместо, а в качестве - (некоторые) чёрные дыры подходят под описание тёмной материи. И это объяснение её природы довольно популярное, наряду с аксионами и WIMP, по крайней мере, я именно об этих трёх чаще всего слышу. Достаточно крупные/распространённые первичные чёрные дыры ещё и могут убрать проблематичную необходимость роста сверхмассивных чёрных дыр в центрах галактик быстрее предела Эддингтона для достижения наблюдаемых размеров. Вот навскидку обзор 2020 года по теме.
Вряд ли реальность так работает, чтобы удовлетворить представления профессоров)
Как и кого-либо другого, можно только говорить, что мы достаточно хорошо догадываемся, чтобы интерпретировать доступный опыт.
Другое дело, что ее значение не согласуется с оценками плотности вакуума в квантах, это может быть связано с несколькими причинами или недостаточностью эмпирического материала.
Аргумент с контрчленами был как раз об этом, я думаю. Для вычисления плотности квантового вакуума надо учесть все поля/взаимодействия (хорошо бы гравитационное тоже). Интегралы по диаграммам Фейнмана с циклами будут расходиться, и придётся применить отсечки/размерную регуляризацию/добавить контрчлены. В любом случае процедуру устранения бесконечностей нужно откалибровать, для чего у нас, вероятно, недостаточно независимых измерений, особенно если не использовать значение плотности тёмной энергии из космологических наблюдений. То есть на текущем уровне теорий и экспериментов независимой оценки плотности вакуума из КТП, похоже, и нет.
Также не очень понятно, что делать с сильным взаимодействием, для которого теория возмущений почти никогда не работает.
Есть вполне измеряемый эффект Казимира, но там важна только разница плотности энергии вакуума внутри (между пластинами) и снаружи, а абсолютное её значение как раз и должно соответствовать космологической постоянной.
Автор не указан, но статья довольно неграмотная. Темная материя совершенно не "простая" теория. Неизвестная частица с неизвестной массой, которая добавляет целый зоопарк взаимодействий и необходимости согласовать ее со всей стандартной моделью, сильно-сильно сложнее, чем модификация законов гравитации. Даже если эта модель относительно сложна сама по себе.
Зависит от контекста. Крупномасштабные эффекты тёмной материи слабо чувствительны к ряду её фундаментальных свойств, это одна из причин, почему остаётся множество частиц-кандидатов. При этом я не утверждаю, что это изящное решение.
Можно сравнить, насколько хорошо темная материя объясняет наблюдения, и увидеть, что MOND вообще-то объясняет наблюдения даже получше темной материи.
После просмотра сравнения (к сожалению, на ознакомление со всеми источниками времени пока нет) возникает впечатление, что MOND превосходит CDM в динамике галактик (как примерно и утверждается в этой статье), но уступает ей в космологии, за неожиданными исключениями в первом-втором пике реликтового излучения (но написано в 2011 году, тогда ещё первые космологические результаты Planck вроде как не вышли, ситуация могла измениться) и первичном нуклеосинтезе.
В этой связи вспоминается реакция коллег на сенсационно древние галактики, наблюдаемые телескопом Джеймса Уэбба, которые в заголовках новостей часто "противоречат CDM": даже если их красные смещения (и соответственно возраст) будут подтверждены спектроскопически (текущие числа могут быть артефактом анализа ограниченных данных), в эволюции галактик слишком много дополнительных допущений и упрощений, и которые перед громкими заявлениями нужно проверить. (Это не умаляет ценность этих наблюдений, скорее наоборот.)
Более того, MOND позволяет делать предсказанияо наблюдениях, а не просто объяснять уже то, что пронаблюдали (в отличие от темной материи).
Меньшее количество калибруемых параметров и большая предсказательная способность, безусловно, привлекательны. Но со многими глобальными космологическими результатами, считающимися более простыми и потому надёжными, ситуация у MOND не ясная или проблематичная.
Хотя с увеличением точности и у CDM не всё гладко - разные наборы данных не согласуются с теми же значениями параметров. Может быть, систематические ошибки измерений, но может и более сложная или просто другая физика проявляться.
Конечно профессора своим ученикам не скажут, что это костыли в теориях, а именно контрчлены)
Подход был довольно практическим: у КТП есть проблема, так её придумали решить, оно пока работает во многих случаях. Не спорю, что выглядит не изящно.
А как быть с феноменом ускоренного расширения Вселенной?
Результаты с контрчленами совершенно реальны, их значения просто нельзя предсказать без калибровки. Плотность тёмной энергии, вероятно, является пока единственным измеряемым проявлением этого члена, поэтому её неоткуда предсказать.
Сингулярности в физических теориях говорят только о том, что существуют некоторые пространственно-временные масштабы, где эти теории не могут дать адекватного описания.
Отсутствие сингулярностей в некотором режиме не доказывает, что теория будет точна в этом случае. Например, Планк устранил оригинальную (классическую) ультрафиолетовую катастрофу квантованием излучения, но это же не значит, что его распределение верно для произвольно высоких энергий.
С другой стороны сингулярности в теориях могут служить предикторами поиска новых феноменов.
С этим не спорю.
Другой вариант решения — ограничение значения некоторых параметров, например, ограничение скорости тел скоростью света, кот. предотвращает сингулярности в СТО, для той же массы, но не для безмассовых частиц. В КТП это пока контрчлены.
В КТП тоже можно устранять бесконечности, передвигая верхний предел интегрирования по промежуточному импульсу на некоторое конечное значение. Но это вроде бы эквивалентно контрчленам математически, и предсказать подходящую "отсечку", не прибегая к калибровке измерениями, обычно тоже не получается.
Очень интересно, должен признать, что сомнения крайне разумные, особенно касательно разрешающей способности и зернистости; моих познаний в измерительных техниках, к сожалению, не хватает, чтобы их однозначно подтвердить или развеять (не похоже, что развенчания обвинений в фальсификации, приведённые в английской Википедии, их затрагивают).
Анализ можно уточнить с использованием параметров телескопа и пластинок из публикаций, которые я давал выше. В Принсипи использовался, судя по всему, 13-дюймовый астрографический телескоп, в Собрале использовались апертуры 8 дюймов и 4 дюйма. В лучшем случае это даёт примерно 0.4 угловые секунды по критерию Рэлея. Для первых двух телескопов использовались пластинки 16х16 см на фокусном расстоянии 3.43 м, для последнего - 10х8 дюймов на фокусном расстоянии 19 футов. Угловая секунда соответствовала примерно 17 и 28 микрометрам соответственно.
Ваше утверждение насчёт единственной фотопластинки, кажется, не подтверждается, но вопрос о том, как можно получить хоть какие-то данные с учётом вышеупомянутых факторов, совсем не тривиальный.
Многие кандидаты в тёмную материю являются частицами за пределами Стандартной модели (например, WIMP, аксионы или стерильные нейтрино), и в этом смысле они противоречат комбинации СМ+ОТО. Но не все, вроде как, например, первобытные чёрные дыры не обязательно требуют новой физики.
А по поводу плотности тёмной энергии на курсе по квантовой теории поля (КТП) была дискуссия с лектором, Мэтью Шварцем, и он сказал, что с точки зрения ОТО + СМ она больше всего похожа на контрчлен.
В большинстве КТП возникают бесконечности/расходимости при интегрировании диаграмм Фейнмана высших порядков с циклами, и расходится обычно из-за неограниченно больших импульсов виртуальной частицы. Эти бесконечности можно устранить ренормализацией/перенормировкой, которая вводит контрчлены. Значения контрчленов не предсказываются теорией, их нужно калибровать измерениями. Поэтому если плотность тёмной энергии является контрчленом, её значение не должно никого удивлять.
Даже теория с такими точными предсказаниями, как квантовая электродинамика, не лишена контрчленов. Но их в ней конечное число - достаточно сделать некоторое количество измерений и потом можно предсказывать всё остальное.
Квантовая гравитация (построенная на уравнении Эйнштейна) не ренормализуема, что значит, что в ней нужно бесконечное количество разных контрчленов. Лектор был убеждён, что это не следует считать противоречием между квантовой теорией и гравитацией. В режиме низких (относительно планковской) энергий бесконечности и контрчлены не важны, и предсказания получаются, но они выглядят как классические.
Один из других примеров не ренормализуемых теорий - уравнение Шрёдингера, если в нём начать раскладывать кинетическую энергию в степенной ряд относительно импульса. Тоже возникает бесконечное число независимых контрчленов, но в пределе малых скоростей они не важны и теория имеет предсказательную способность. Его получилось обобщить до Лоренц-инвариантного уравнения Дирака. Аналогично для гравитации желательно ультрафиолетовое (т.е. высокоэнергетическое) дополнение. И кандидаты в такие теории уже есть (например, теория струн), но с данными для их калибровки и проверки пока туго.
Вы заметили, что приводите примеры из неблизкого прошлого, когда данных было значительно меньше и теории были более интуитивными? К тому же сейчас трудно оценить, насколько близко к принятому в то время уровню формализовали свою теорию Фатио и ЛеСаж.
Фотоны являются квантами не материи вообще, а конкретно электромагнитного поля. Пары фотонов могут превращаться в пары частиц-античастиц, обладающих зарядом, но это не уникальное для них свойство.
Доказать отсутствие тёмной материи крайне непросто из-за огромного спектра предложенных гипотез, чем она может быть.
Насколько я знаю, теории, убирающие тёмную материю, часто сталкиваются с проблемой, что её количество относительно обычной материи сильно отличается в разных галактиках. Зависимость Талли-Фишера и соотношение Фабер-Джексона действительно указывают на некоторую связь между количеством тёмной и обычной материи, но в среднем и для определённых типов. В отдельных галактиках других классов (например, ультра-разреженных карликовых) наблюдаются значительные отклонения.
Хотя я не эксперт по структуре галактик, я (пока) работаю на ещё более крупных масштабах, где они рассматриваются лишь как точки, отслеживающие плотность.
Отсюда можно сформировать ложное представление о модуле расстояния, на самом деле это логарифм:
где
- модуль расстояния,
- расстояние и делится оно на 10 парсек по соглашению. Оно получается так, потому что измерения видимой яркости переводятся в видимую звёздную величину
, а вместо абсолютной яркости часто используют абсолютную звёздную величину
. Из их определений следует
.
Кроме того, в космологии есть разные виды расстояния, и закон обратных квадратов работает только для одного из них (по определению). Хотя все эти расстояния сходятся, когда они малы, и различия не так важны в диапазоне, где работают Цефеиды.
Есть сомнения, что эта оценка адекватна и независима от космологического измерения, обсуждали с @phenik в недавней дискуссии под другим постом.
Довольно расплывчатое утверждение. Например, вы считаете, что природа остальных трёх фундаментальных взаимодействий нам известна? Почему?
Непонятно, что вы имеете в виду. В оригинальном парадоксе близнецов один остаётся на Земле, а другой движется с околосветовой скоростью вдаль и возвращается на Землю. Решение парадокса как раз в том, что второе нельзя сделать без ускорения, система отсчёта второго становится неинерциальной, СТО уже не работает, а по ОТО время в ней как раз "набегает" в этот промежуток. Не сведя близнецов в одному точку, нетривиально сравнить возраст. Зачем вам нужен третий?
Внутри сферы, "нарисованной" вокруг наблюдателя, безусловно есть материя, это не новость.
Проблема в том, что она есть и снаружи этой сферы, и сила притяжения этой наружной материи (по крайней мере, в рамках ньютоновской гравитации) нулевая только при полной сферической симметрии.
Для гравитационного потенциала наружная материя вообще важна даже в сферически-симметричном случае и в ньютоновской теории.
Измерения Оорта же вроде внутри галактики, нет гарантий, что в среднем по вселенной будет так же.
Ваше - вообще загадка человечества.
То есть вы убрали отдельную единицу для массы, положив
, оставили только длину и время. Это логично, и похоже на естественную систему единиц из физики частиц, где
.
Но откуда вы берёте
? Из написанного вами не ясно, но похоже на вывод методом размерностей. С ним надо аккуратно - адекватность результата не гарантирована, особенно если у вас уместных величин для правой части больше, чем независимых базовых единиц. Кроме того, остаётся безразмерная константа, которую невозможно предсказать этим способом.
Извините, но в ваших выкладках почти на каждом шагу проблема.
Как указали выше, нужно выбрать центр (видимо, на Земле) и считать сферу вокруг него (почему?).
Вы связываете скорость разбегания (радиальную) с радиальным же ускорением. Это так не работает, нужна поперечная (вращательная) скорость, которую как раз очень сложно измерить.
Вы, похоже, принимаете МОНД, что под вопросом, но меньшим, чем другие пункты.
Откуда известно, что что
?
В итоге у вас получаются два "нелинейных закона Хаббла", которые не сходятся друг с другом, и известный линейный закон Хаббла
в пределе малых расстояний с ними также несовместим.
Также вы, похоже, не задумывались, откуда известна средняя плотность Вселенной. Она как раз получается из космологических наблюдений, одно из которых - сопоставление расстояний, полученных методом стандартных свеч с красными смещениями.
Получить плотность массы из наблюдений более прямыми способами получается с намного меньшей точностью, потому что значительная часть даже обычной (барионной) материи видна очень плохо.
Наконец, на фоне гладкого закона Хаббла есть помехи в виде пекулярных скоростей (например, движения галактик в кластере/суперкластере), которые для отдельных объектов предсказать также сложно. Величина этого эффекта примерно одинакова на всех масштабах, поэтому он делает измерения малых расстояний через закон Хаббла неточными, практичным этот метод становится только на больших пространственных масштабах (порядка гигапарсека/3 млрд световых лет; и соответственно высоких "скоростях").
Главная причина того, что это произошло так поздно - сложность измерения расстояний до очень далёких объектов и соответственно их реальных размеров (угловые размеры измерить относительно просто, если они не слишком малы). Параллакс работал только в близких галактических окрестностях (сейчас уже по большей части Млечного пути, но это совсем недавний прорыв, раньше таких технологий не было), а дальше непонятно.
Только в межвоенное время были разработаны методики измерения таких расстояний - например, используя Цефеиды (характерно пульсирующие звёзды) как стандартные свечи (вкратце: предсказать полную мощность излучения объекта, измерить приходящую от него энергию на площадь, рассчитать расстояние). На данный момент нет возможности рассчитать мощность теоретически, поэтому каждый тип стандартных свеч требует калибровки на достаточно большой выборке объектов нужного класса с расстояниями, полученных другим методом.
(Писал об этом под другим постом чуть раньше.)
Сложность измерения времени в специальной теории относительности связана с нетривиальностью синхронизации часов в разных точках пространства, вызванной конечной максимальной скоростью. В ньютоновской механике можно обмениваться информацией мгновенно и проблема не возникает.
В СТО в определённой системе отсчёта время измеряется так, как бы показывали часы, размещённые в покое (относительно этой СО) в каждой точке. И они синхронизированы в том смысле, что если
одни часы показывают
и в этот момент отправляют сигнал вторым
вторые часы получают сигнал, показывая
, и сразу отправляют ответный сигнал обратно
первые часы получают ответный сигнал, показывая
то второе время всегда будет ровно между первым и третьим,
.
Если у пары часов ненулевая относительная скорость, их нельзя так синхронизировать.
Дело не в луче света.
Течение времени в рамках специальной теории относительности меняется, когда вы переходите в новую инерциальную систему отсчёта, движующуюся относительно предыдущей (привязанной к Земле или Солнцу; хотя они не вполне инерциальные). Промежутки времени между событиями меняются в зависимости от пространственного смещения между ними. События, происходящие в разных местах, могут менять временной порядок, становиться или переставить быть одновременными и т.п. И это происходит во всём бесконечном пространстве.
То есть если вы возьмёте пространственную зависимость электромагнитного поля в фиксированный момент времени относительно Земли и попробуете перейти в систему отсчёта относительно Солнца, то ваша картина перестанет быть одновременной. А ещё поля тоже преобразуются под бустами, но это не так критично для плоской электромагнитной волны.
Относительность времени очень контринтуитивна, потому что не заметна на бытовых малых скоростях. Но в целом похожа на то, как пространственные координаты меняются при преобразованиях Галилея (что обычно удивляет намного меньше) с добавлением идеи, что время не обособлено.
Ещё один важный фактор в том, что обычная материя может излучать лишнюю энергию, в основном электромагнитными механизмами. Без этого гравитационный коллапс останавливается на определённом масштабе, зависящем от начальной энергии системы. Тёмной материи тяжелее "спускать" энергию, поэтому она остаётся более "размазанной".
В МОНД же
на больших расстояниях, на малых практически
, чтобы соответствовать околоземным измерениям, а на промежуточных плавный переход с непостоянной степенью. Аналогия тут скорее с диэлектрической (или магнитной) проницаемостью сред.
В принципе, вся тёмная материя не обязана иметь одну и ту же природу, так что чёрные дыры могут отвечать за часть её массы. Хотя, конечно, модель усложняется необходимостью введения разных механизмов.
Не отказались, но не вместо, а в качестве - (некоторые) чёрные дыры подходят под описание тёмной материи. И это объяснение её природы довольно популярное, наряду с аксионами и WIMP, по крайней мере, я именно об этих трёх чаще всего слышу. Достаточно крупные/распространённые первичные чёрные дыры ещё и могут убрать проблематичную необходимость роста сверхмассивных чёрных дыр в центрах галактик быстрее предела Эддингтона для достижения наблюдаемых размеров. Вот навскидку обзор 2020 года по теме.
Как и кого-либо другого, можно только говорить, что мы достаточно хорошо догадываемся, чтобы интерпретировать доступный опыт.
Аргумент с контрчленами был как раз об этом, я думаю. Для вычисления плотности квантового вакуума надо учесть все поля/взаимодействия (хорошо бы гравитационное тоже). Интегралы по диаграммам Фейнмана с циклами будут расходиться, и придётся применить отсечки/размерную регуляризацию/добавить контрчлены. В любом случае процедуру устранения бесконечностей нужно откалибровать, для чего у нас, вероятно, недостаточно независимых измерений, особенно если не использовать значение плотности тёмной энергии из космологических наблюдений. То есть на текущем уровне теорий и экспериментов независимой оценки плотности вакуума из КТП, похоже, и нет.
Также не очень понятно, что делать с сильным взаимодействием, для которого теория возмущений почти никогда не работает.
Есть вполне измеряемый эффект Казимира, но там важна только разница плотности энергии вакуума внутри (между пластинами) и снаружи, а абсолютное её значение как раз и должно соответствовать космологической постоянной.
Зависит от контекста. Крупномасштабные эффекты тёмной материи слабо чувствительны к ряду её фундаментальных свойств, это одна из причин, почему остаётся множество частиц-кандидатов. При этом я не утверждаю, что это изящное решение.
После просмотра сравнения (к сожалению, на ознакомление со всеми источниками времени пока нет) возникает впечатление, что MOND превосходит
CDM в динамике галактик (как примерно и утверждается в этой статье), но уступает ей в космологии, за неожиданными исключениями в первом-втором пике реликтового излучения (но написано в 2011 году, тогда ещё первые космологические результаты Planck вроде как не вышли, ситуация могла измениться) и первичном нуклеосинтезе.
В этой связи вспоминается реакция коллег на сенсационно древние галактики, наблюдаемые телескопом Джеймса Уэбба, которые в заголовках новостей часто "противоречат
CDM": даже если их красные смещения (и соответственно возраст) будут подтверждены спектроскопически (текущие числа могут быть артефактом анализа ограниченных данных), в эволюции галактик слишком много дополнительных допущений и упрощений, и которые перед громкими заявлениями нужно проверить. (Это не умаляет ценность этих наблюдений, скорее наоборот.)
Меньшее количество калибруемых параметров и большая предсказательная способность, безусловно, привлекательны. Но со многими глобальными космологическими результатами, считающимися более простыми и потому надёжными, ситуация у MOND не ясная или проблематичная.
Хотя с увеличением точности и у
CDM не всё гладко - разные наборы данных не согласуются с теми же значениями параметров. Может быть, систематические ошибки измерений, но может и более сложная или просто другая физика проявляться.
Подход был довольно практическим: у КТП есть проблема, так её придумали решить, оно пока работает во многих случаях. Не спорю, что выглядит не изящно.
Результаты с контрчленами совершенно реальны, их значения просто нельзя предсказать без калибровки. Плотность тёмной энергии, вероятно, является пока единственным измеряемым проявлением этого члена, поэтому её неоткуда предсказать.
Отсутствие сингулярностей в некотором режиме не доказывает, что теория будет точна в этом случае. Например, Планк устранил оригинальную (классическую) ультрафиолетовую катастрофу квантованием излучения, но это же не значит, что его распределение верно для произвольно высоких энергий.
С этим не спорю.
В КТП тоже можно устранять бесконечности, передвигая верхний предел интегрирования по промежуточному импульсу на некоторое конечное значение. Но это вроде бы эквивалентно контрчленам математически, и предсказать подходящую "отсечку", не прибегая к калибровке измерениями, обычно тоже не получается.
Очень интересно, должен признать, что сомнения крайне разумные, особенно касательно разрешающей способности и зернистости; моих познаний в измерительных техниках, к сожалению, не хватает, чтобы их однозначно подтвердить или развеять (не похоже, что развенчания обвинений в фальсификации, приведённые в английской Википедии, их затрагивают).
Анализ можно уточнить с использованием параметров телескопа и пластинок из публикаций, которые я давал выше. В Принсипи использовался, судя по всему, 13-дюймовый астрографический телескоп, в Собрале использовались апертуры 8 дюймов и 4 дюйма. В лучшем случае это даёт примерно 0.4 угловые секунды по критерию Рэлея. Для первых двух телескопов использовались пластинки 16х16 см на фокусном расстоянии 3.43 м, для последнего - 10х8 дюймов на фокусном расстоянии 19 футов. Угловая секунда соответствовала примерно 17 и 28 микрометрам соответственно.
Ваше утверждение насчёт единственной фотопластинки, кажется, не подтверждается, но вопрос о том, как можно получить хоть какие-то данные с учётом вышеупомянутых факторов, совсем не тривиальный.
Касательно тёмных сущностей хотел бы уточнить.
Многие кандидаты в тёмную материю являются частицами за пределами Стандартной модели (например, WIMP, аксионы или стерильные нейтрино), и в этом смысле они противоречат комбинации СМ+ОТО. Но не все, вроде как, например, первобытные чёрные дыры не обязательно требуют новой физики.
А по поводу плотности тёмной энергии на курсе по квантовой теории поля (КТП) была дискуссия с лектором, Мэтью Шварцем, и он сказал, что с точки зрения ОТО + СМ она больше всего похожа на контрчлен.
В большинстве КТП возникают бесконечности/расходимости при интегрировании диаграмм Фейнмана высших порядков с циклами, и расходится обычно из-за неограниченно больших импульсов виртуальной частицы. Эти бесконечности можно устранить ренормализацией/перенормировкой, которая вводит контрчлены. Значения контрчленов не предсказываются теорией, их нужно калибровать измерениями. Поэтому если плотность тёмной энергии является контрчленом, её значение не должно никого удивлять.
Даже теория с такими точными предсказаниями, как квантовая электродинамика, не лишена контрчленов. Но их в ней конечное число - достаточно сделать некоторое количество измерений и потом можно предсказывать всё остальное.
Квантовая гравитация (построенная на уравнении Эйнштейна) не ренормализуема, что значит, что в ней нужно бесконечное количество разных контрчленов. Лектор был убеждён, что это не следует считать противоречием между квантовой теорией и гравитацией. В режиме низких (относительно планковской) энергий бесконечности и контрчлены не важны, и предсказания получаются, но они выглядят как классические.
Один из других примеров не ренормализуемых теорий - уравнение Шрёдингера, если в нём начать раскладывать кинетическую энергию в степенной ряд относительно импульса. Тоже возникает бесконечное число независимых контрчленов, но в пределе малых скоростей они не важны и теория имеет предсказательную способность. Его получилось обобщить до Лоренц-инвариантного уравнения Дирака. Аналогично для гравитации желательно ультрафиолетовое (т.е. высокоэнергетическое) дополнение. И кандидаты в такие теории уже есть (например, теория струн), но с данными для их калибровки и проверки пока туго.
Вы заметили, что приводите примеры из неблизкого прошлого, когда данных было значительно меньше и теории были более интуитивными? К тому же сейчас трудно оценить, насколько близко к принятому в то время уровню формализовали свою теорию Фатио и ЛеСаж.
Фотоны являются квантами не материи вообще, а конкретно электромагнитного поля. Пары фотонов могут превращаться в пары частиц-античастиц, обладающих зарядом, но это не уникальное для них свойство.
Доказать отсутствие тёмной материи крайне непросто из-за огромного спектра предложенных гипотез, чем она может быть.
Насколько я знаю, теории, убирающие тёмную материю, часто сталкиваются с проблемой, что её количество относительно обычной материи сильно отличается в разных галактиках. Зависимость Талли-Фишера и соотношение Фабер-Джексона действительно указывают на некоторую связь между количеством тёмной и обычной материи, но в среднем и для определённых типов. В отдельных галактиках других классов (например, ультра-разреженных карликовых) наблюдаются значительные отклонения.
Хотя я не эксперт по структуре галактик, я (пока) работаю на ещё более крупных масштабах, где они рассматриваются лишь как точки, отслеживающие плотность.