Как я писал раньше, проблема скорее в том, что для нынешних экспериментов и общая теория относительности хорошо работает.
Новая, более общая теория должна сходиться со старой в знакомом режиме. То есть варианты теории струн (или другой альтернативной гравитации), которые не соответствуют ОТО в пределе низких энергий, можно почти сразу исключить. Поэтому до убедительного эксперимента/наблюдения за рамками применимости общей теории относительности новых ограничений практически не будет.
Из предыдущего абзаца, строго говоря, предсказательная сила получается не нулевая, но фактически не больше, чем у текущей теории. И пока это не поменяется, зачем плодить сущности. (Вроде бы верно и для квантовой гравитации на уравнениях Эйнштейна - она по сути даёт предсказания только в классическом режиме.)
Я не эксперт по теории струн, но мне казалось, что формулы там есть, но возможных вариантов действительно слишком много и калибровать их не на чем - нет данных с нужной комбинацией точности и режима.
Вряд ли можно знать, ошибочная ли теория (объективно). Если подгоняется и совпадает с практикой - хорошо. Если не получается, нужно заменять. Стройность и красота, безусловно, приятны, но необходимы ли?
В квантовых теориях для других взаимодействий тоже приходится устранять бесконечности (ренормализация), но количество калибруемых коэффициентов конечно. Можно их измерить и дальше предсказывать всё остальное.
Также есть мнение (было, например, на курсе по квантовой теории поля), что противоречий в квантовой гравитации нет. Она просто не может давать предсказания на энергетических масштабах не намного меньше планковской энергии - нужно калибровать бесконечное число коэффициентов в теории. На более низких энергиях результаты получаются вполне определёнными, только они выглядят не как квантовые, а вполне классические.
Похожая проблема возникает, если начать раскладывать гамильтониан в уравнении Шрёдингера -- при релятивистских скоростях предсказания не получаются по той же причине. Его получилось заменить уравнением Дирака, требующим только нескольких измеряемых параметров для конкретных результатов и для высоких скоростей/энергий. Аналогично предлагаются новые теории гравитации, но отличие их предсказаний между собой и от общей теории относительности не ясно, как пронаблюдать.
Насколько я знаю, кандидатов в теорию квантовой гравитации (для высоких энергий и соответственно мелких пространственных масштабов) хватает, например, теория струн или петлевая гравитация. Проблема скорее в их экспериментальном утверждении - разница будет очевидна на таких энергиях, от которых наши коллайдеры крайне далеки, а на меньших нужна феноменальная точность, тоже пока недостижимая. И в астрофизике наблюдения в таком режиме не предвидятся. А все менее экстремальные проверки общая теория относительности проходит блестяще.
Браге усовершенствовал секстант и квадрант, достиг точности измерения небесных координат порядка одной угловой минуты. И всё это без телескопа.
Кроме того, он одним их первых начал говорить о траектории планеты в пространстве, а не движении сфер на шарнирах или чём-то вроде того.
После чтения по теме кажется вероятным, что переход от эпициклов к эллипсам был не таким эмпирическим, как я писал выше.
Стандартная схема Птолемея с эпициклами, деферентами и эквантами была такая: планета движется равномерно по малому кругу (эпициклу), центр этого круга движется по большому кругу (деференту) неравномерно, но угловая скорость движения по деференту кажется одинаковой из другой точки (экванта), не совпадающей с центром деферента. Есть упоминания вторичного эпицикла, но не похоже, что они использовались очень часто. Эта модель противоречила аристотелевской философии, в которой движения должны были быть просто круговыми и равномерными.
Кеплер сосредоточился на анализе данных Браге для Марса. Похоже, стандартная модель с эпициклом (видимо, уже вокруг Солнца) в целом работала неплохо, но местами отклонения были неприятно большими. И в целом подход был не изящный. Поэтому Кеплер стал пробовать яйцевидные формы. Читаю, что эллипс сначала казался слишком очевидным - разве могли античные астрономы его упустить, но вот как-то всё же не догадались. (В геоцентрической системе это было бы движение по эллипсу, центр которого движется по эллипсу, или хотя бы кругу. Наверное, непросто до такого дойти, когда предполагаешь круги и равномерное движение.)
негарантированность наличия ответа не повод его не искать.
С этим вряд ли кто-то будет спорить, но вопрос о приоритете в сравнении со всем остальным не такой тривиальный.
в квантовой физике вероятно пока не нашли правильного. т.к. теории всего нет.
В глобальном смысле теории всего может и не быть. Да и нахождение такой завершит прогресс фундаментальной науки, что в некотором смысле не так интересно.
Подход заткнись и считай превалирует до тех пор, пока мы не найдём правильную интерпретацию. Когда-то затыкались и считали по Кеплеру. Но пришёл Ньютон и всё объяснил.
Существование правильной интерпретации в принципе не гарантировано. Или она может быть не одна (в квантовой физике пока как раз довольно многие справляются). Кроме того, исторически эта правильность была временной (что определялось способностью/неспособностью объяснять и точно предсказывать результаты экспериментов и наблюдений).
В случае с квантовой физикой, если вам нужно прикладное применение-заткнитесь и считайте. Если хотите двигать науку вперёд: у вас есть 2 варианта. И считать и объяснять.
Не уверен, что это противопоставление движения вперёд и практического применения полезно и корректно.
С другой стороны проблема может быть именно в математике. Я сомневаюсь что ньютон смог бы вывести закон всемирного тяготения, если бы в то время все считали движения планет через эпициклы.
Математический прорыв Кеплера был обусловлен и поддержан скачком в точности измерений Тихо Браге. Тогда впервые получилось убедительно показать, что подгон с эпициклами уже не годится.
То есть полная последовательность тут скорее такая: улучшенный эксперимент (Браге) и неспособность старой "теории" его объяснить -> качественная эмпирическая модель (Кеплер) -> формулировка более фундаментальных законов и вывод прошлого результата из них (Ньютон).
Есть чуть более ранний пример: гелиоцентрическая система Коперника. Из того, как о ней рассказывают сейчас, не очевидно, но согласно Википедии смена парадигмы была более философской (по сути выбор "правильной" системы отсчёта), для совпадения с наблюдениями приходилось по-прежнему использовать эпициклы. И мне кажется, что её неприятие было в большей степени обусловлено отсутствие практических преимуществ в довесок к контринтуитивности, чем многие считают.
Насколько я знаю, в квантовой физике превалирует именно подход "заткнись и считай" из-за множества альтернативных интерпретаций, которые все приспосабливаются для предсказания результатов измерений. (Вряд ли кто-то будет спорить, что если вариант теории не справляется с наблюдениями, его нужно усовершенствовать или забросить в пользу более успешных.)
Наверное, для фундаментального прорыва всё же нужна полная картина. Но вопрос, сколько сил нужно на него бросать. И для утверждения новой парадигмы сейчас скорее нужен экспериментальный результат, которой убедительно предсказывается ей, а со старой не сходится.
600 лет вполне можно опустить, потому что это очень короткий срок на масштабах Галактики/Вселенной. Но 11.5 млрд лет сравнимо с возрастом Вселенной (около 13.7 млрд лет) и поэтому куда более значимо. Так же, как и в примере с теорией относительности - для автомобиля это не важно, потому что маленькая скорость и точность сверхвысокая не нужна, но вот уже со спутниками GPS приходится учитывать из-за обоих факторов.
P.S. Я бы не брался обобщать на произвольного обывателя, люди разные.
Замечание было бы верно в статической Вселенной, пожалуй. Но мы живём не в такой.
Все объекты могут внутренне эволюционировать со временем. Поэтому расстояние и соответственно задержка имеют значение, далёкие и древние объекты интересны своими отличиями от близких и более современных. (Подобные черты тоже важны, конечно.)
Кроме того, из-за расширения Вселенной задержка между приёмом сигналов сегодня больше, чем задержка между их отправкой в прошлом (в физическом времени). Чем дальше, тем больше; это аналогично одному из способов вывести красное смещение. Тут надо сказать, что изменения в индивидуальных далёких объектах со временем обычно не видны -- на больших пространственных масштабах они происходит долго (относительно человеческой жизни) в любом случае, поэтому это дополнительное замедление не столь важно на практике.
средняя температура Вселенной была больше 3000 К. Такая температура держала электроны в свободном состоянии, поскольку энергия фотонов превосходила энергию ионизации атомов: энергию, необходимую для вышибания электрона из атома.
Если посчитать, числа не сходятся: 3000 К соответствует 0.25 электронвольт (эВ), в то время как энергия ионизации водорода 13.6 эВ, что значительно больше. В чём же дело? Просто электронов (по количеству) в миллиарды раз больше, чем атомов, и даже дальний "хвост" планковского распределения (с энергией во много раз выше средней) получается не таким уж и редким. Рекомбинация -- это довольно сложный процесс, для которого важно как понижение энергии, так и понижение плотности. Точные вычисления требуют рассмотрения многих энергетических уровней в атомах и неравновесного распределения по ним.
То же верно и для прозрачности. К сегодняшнему дню большая часть Вселенной заново ионизировалась (в ходе реионизации), но настолько непрозрачной, как до рекомбинации, она от этого не становится из-за сильного разрежения в результате расширения со временем.
В истории открытия реликтового излучения есть и другой интересный момент, которого я ещё совсем недавно не знал.
Практически одновременно с Зельдовичем и тоже независимо от остальных, заново предсказал реликтовое излучение Роберт Дике в Принстоне. Его коллеги, Дэвид Уилкинсон и Тодд Ролл, после этого начали собирать радиометр, чтобы его обнаружить. Но в процессе Дике получил звонок от Пензиаса и Уилсона (после того как те поняли, что устранить фон никак не получается), после чего сообщил "Ребята, нас облапошили." В итоге группы встретились и принстонская команда подтвердила, что это действительно реликтовое излучение.
С определением этой скорости есть тонкости. Если вкратце, она делится на собственное время движущегося тела, а не на обычное, и постоянность тогда получается по определению. Гравитационное замедление времени вообще-то не мешает (просто полунорму скорости нужно считать с соответствующей метрикой), в отличие от безмассовых частиц, у которых собственное время не идёт.
Пространство легко переводится во время и обратно с помощью скорости света, так что не уверен в плодотворности размышлений о размерности.
Парадокса нет, проблема в трактовке. Запутанные не обязательно значит, что их свойства равны или противоположны. В общем случае они связаны законами сохранения с ранее измеренными свойствами исходных частиц. И если вы переходите в систему отсчёта, где те не покоились, ничего удивительного, что у фотонов ненулевой суммарный импульс и неравная энергия.
В принципе, можно сказать, что из-за расширения Вселенной далёкие галактики удаляются от нас (и мы от них). Очевидных противоречий это вроде не вызывает (потому что, например, развернуть фотон обратно в место испускания не так просто), больше похоже на ещё один вопрос определения. Обычно удобнее работать в сопутствующих координатах, где все движения от структур относительно малого масштаба, а на глобальном однородном фоне всё покоится.
Рассуждениям ОТО и не нужно затрагивать моменты излучения и поглощения фотона. Прелесть в том, что в рамках ОТО всегда можно выбрать локально-инерционную систему, в которой такие локальные процессы будут происходить так же, как мы ожидаем в инерционной. А вот движение нелокально, и для него нужны полные детали.
Отдача от фотона не мешает вычислять частоту излучения из квантовой механики в хорошем соответствии с лабораторными измерениями. (Большая часть спектральных линий предсказывается довольно плохо, но, насколько я помню, это скорее из-за сложности решения энергетических уровней сложных многоэлектронных систем безотносительно фотонов. В крайнем случае можно измерять в лаборатории, возможно, применяя поправки на известную неинерциальность.)
Как я писал раньше, проблема скорее в том, что для нынешних экспериментов и общая теория относительности хорошо работает.
Новая, более общая теория должна сходиться со старой в знакомом режиме. То есть варианты теории струн (или другой альтернативной гравитации), которые не соответствуют ОТО в пределе низких энергий, можно почти сразу исключить. Поэтому до убедительного эксперимента/наблюдения за рамками применимости общей теории относительности новых ограничений практически не будет.
Из предыдущего абзаца, строго говоря, предсказательная сила получается не нулевая, но фактически не больше, чем у текущей теории. И пока это не поменяется, зачем плодить сущности. (Вроде бы верно и для квантовой гравитации на уравнениях Эйнштейна - она по сути даёт предсказания только в классическом режиме.)
Да, с конечным числом калибруемых параметров оно (пока) и получается для новых экспериментов.
P.S. Если теорию нужно подгонять под каждый результат, это как раз нулевая предсказательная способность. Вряд ли можно поспорить, что это бесполезно.
Я не эксперт по теории струн, но мне казалось, что формулы там есть, но возможных вариантов действительно слишком много и калибровать их не на чем - нет данных с нужной комбинацией точности и режима.
Вряд ли можно знать, ошибочная ли теория (объективно). Если подгоняется и совпадает с практикой - хорошо. Если не получается, нужно заменять. Стройность и красота, безусловно, приятны, но необходимы ли?
В квантовых теориях для других взаимодействий тоже приходится устранять бесконечности (ренормализация), но количество калибруемых коэффициентов конечно. Можно их измерить и дальше предсказывать всё остальное.
Также есть мнение (было, например, на курсе по квантовой теории поля), что противоречий в квантовой гравитации нет. Она просто не может давать предсказания на энергетических масштабах не намного меньше планковской энергии - нужно калибровать бесконечное число коэффициентов в теории. На более низких энергиях результаты получаются вполне определёнными, только они выглядят не как квантовые, а вполне классические.
Похожая проблема возникает, если начать раскладывать гамильтониан в уравнении Шрёдингера -- при релятивистских скоростях предсказания не получаются по той же причине. Его получилось заменить уравнением Дирака, требующим только нескольких измеряемых параметров для конкретных результатов и для высоких скоростей/энергий. Аналогично предлагаются новые теории гравитации, но отличие их предсказаний между собой и от общей теории относительности не ясно, как пронаблюдать.
Насколько я знаю, кандидатов в теорию квантовой гравитации (для высоких энергий и соответственно мелких пространственных масштабов) хватает, например, теория струн или петлевая гравитация. Проблема скорее в их экспериментальном утверждении - разница будет очевидна на таких энергиях, от которых наши коллайдеры крайне далеки, а на меньших нужна феноменальная точность, тоже пока недостижимая. И в астрофизике наблюдения в таком режиме не предвидятся. А все менее экстремальные проверки общая теория относительности проходит блестяще.
Браге усовершенствовал секстант и квадрант, достиг точности измерения небесных координат порядка одной угловой минуты. И всё это без телескопа.
Кроме того, он одним их первых начал говорить о траектории планеты в пространстве, а не движении сфер на шарнирах или чём-то вроде того.
После чтения по теме кажется вероятным, что переход от эпициклов к эллипсам был не таким эмпирическим, как я писал выше.
Стандартная схема Птолемея с эпициклами, деферентами и эквантами была такая: планета движется равномерно по малому кругу (эпициклу), центр этого круга движется по большому кругу (деференту) неравномерно, но угловая скорость движения по деференту кажется одинаковой из другой точки (экванта), не совпадающей с центром деферента. Есть упоминания вторичного эпицикла, но не похоже, что они использовались очень часто. Эта модель противоречила аристотелевской философии, в которой движения должны были быть просто круговыми и равномерными.
Кеплер сосредоточился на анализе данных Браге для Марса. Похоже, стандартная модель с эпициклом (видимо, уже вокруг Солнца) в целом работала неплохо, но местами отклонения были неприятно большими. И в целом подход был не изящный. Поэтому Кеплер стал пробовать яйцевидные формы. Читаю, что эллипс сначала казался слишком очевидным - разве могли античные астрономы его упустить, но вот как-то всё же не догадались. (В геоцентрической системе это было бы движение по эллипсу, центр которого движется по эллипсу, или хотя бы кругу. Наверное, непросто до такого дойти, когда предполагаешь круги и равномерное движение.)
С этим вряд ли кто-то будет спорить, но вопрос о приоритете в сравнении со всем остальным не такой тривиальный.
В глобальном смысле теории всего может и не быть. Да и нахождение такой завершит прогресс фундаментальной науки, что в некотором смысле не так интересно.
Существование правильной интерпретации в принципе не гарантировано. Или она может быть не одна (в квантовой физике пока как раз довольно многие справляются). Кроме того, исторически эта правильность была временной (что определялось способностью/неспособностью объяснять и точно предсказывать результаты экспериментов и наблюдений).
Не уверен, что это противопоставление движения вперёд и практического применения полезно и корректно.
Математический прорыв Кеплера был обусловлен и поддержан скачком в точности измерений Тихо Браге. Тогда впервые получилось убедительно показать, что подгон с эпициклами уже не годится.
То есть полная последовательность тут скорее такая: улучшенный эксперимент (Браге) и неспособность старой "теории" его объяснить -> качественная эмпирическая модель (Кеплер) -> формулировка более фундаментальных законов и вывод прошлого результата из них (Ньютон).
Есть чуть более ранний пример: гелиоцентрическая система Коперника. Из того, как о ней рассказывают сейчас, не очевидно, но согласно Википедии смена парадигмы была более философской (по сути выбор "правильной" системы отсчёта), для совпадения с наблюдениями приходилось по-прежнему использовать эпициклы. И мне кажется, что её неприятие было в большей степени обусловлено отсутствие практических преимуществ в довесок к контринтуитивности, чем многие считают.
Насколько я знаю, в квантовой физике превалирует именно подход "заткнись и считай" из-за множества альтернативных интерпретаций, которые все приспосабливаются для предсказания результатов измерений. (Вряд ли кто-то будет спорить, что если вариант теории не справляется с наблюдениями, его нужно усовершенствовать или забросить в пользу более успешных.)
Наверное, для фундаментального прорыва всё же нужна полная картина. Но вопрос, сколько сил нужно на него бросать. И для утверждения новой парадигмы сейчас скорее нужен экспериментальный результат, которой убедительно предсказывается ей, а со старой не сходится.
600 лет вполне можно опустить, потому что это очень короткий срок на масштабах Галактики/Вселенной. Но 11.5 млрд лет сравнимо с возрастом Вселенной (около 13.7 млрд лет) и поэтому куда более значимо. Так же, как и в примере с теорией относительности - для автомобиля это не важно, потому что маленькая скорость и точность сверхвысокая не нужна, но вот уже со спутниками GPS приходится учитывать из-за обоих факторов.
P.S. Я бы не брался обобщать на произвольного обывателя, люди разные.
Замечание было бы верно в статической Вселенной, пожалуй. Но мы живём не в такой.
Все объекты могут внутренне эволюционировать со временем. Поэтому расстояние и соответственно задержка имеют значение, далёкие и древние объекты интересны своими отличиями от близких и более современных. (Подобные черты тоже важны, конечно.)
Кроме того, из-за расширения Вселенной задержка между приёмом сигналов сегодня больше, чем задержка между их отправкой в прошлом (в физическом времени). Чем дальше, тем больше; это аналогично одному из способов вывести красное смещение. Тут надо сказать, что изменения в индивидуальных далёких объектах со временем обычно не видны -- на больших пространственных масштабах они происходит долго (относительно человеческой жизни) в любом случае, поэтому это дополнительное замедление не столь важно на практике.
Если посчитать, числа не сходятся: 3000 К соответствует 0.25 электронвольт (эВ), в то время как энергия ионизации водорода 13.6 эВ, что значительно больше. В чём же дело? Просто электронов (по количеству) в миллиарды раз больше, чем атомов, и даже дальний "хвост" планковского распределения (с энергией во много раз выше средней) получается не таким уж и редким. Рекомбинация -- это довольно сложный процесс, для которого важно как понижение энергии, так и понижение плотности. Точные вычисления требуют рассмотрения многих энергетических уровней в атомах и неравновесного распределения по ним.
То же верно и для прозрачности. К сегодняшнему дню большая часть Вселенной заново ионизировалась (в ходе реионизации), но настолько непрозрачной, как до рекомбинации, она от этого не становится из-за сильного разрежения в результате расширения со временем.
В истории открытия реликтового излучения есть и другой интересный момент, которого я ещё совсем недавно не знал.
Практически одновременно с Зельдовичем и тоже независимо от остальных, заново предсказал реликтовое излучение Роберт Дике в Принстоне. Его коллеги, Дэвид Уилкинсон и Тодд Ролл, после этого начали собирать радиометр, чтобы его обнаружить. Но в процессе Дике получил звонок от Пензиаса и Уилсона (после того как те поняли, что устранить фон никак не получается), после чего сообщил "Ребята, нас облапошили." В итоге группы встретились и принстонская команда подтвердила, что это действительно реликтовое излучение.
С определением этой скорости есть тонкости. Если вкратце, она делится на собственное время движущегося тела, а не на обычное, и постоянность тогда получается по определению. Гравитационное замедление времени вообще-то не мешает (просто полунорму скорости нужно считать с соответствующей метрикой), в отличие от безмассовых частиц, у которых собственное время не идёт.
Пространство легко переводится во время и обратно с помощью скорости света, так что не уверен в плодотворности размышлений о размерности.
Парадокса нет, проблема в трактовке. Запутанные не обязательно значит, что их свойства равны или противоположны. В общем случае они связаны законами сохранения с ранее измеренными свойствами исходных частиц. И если вы переходите в систему отсчёта, где те не покоились, ничего удивительного, что у фотонов ненулевой суммарный импульс и неравная энергия.
В принципе, можно сказать, что из-за расширения Вселенной далёкие галактики удаляются от нас (и мы от них). Очевидных противоречий это вроде не вызывает (потому что, например, развернуть фотон обратно в место испускания не так просто), больше похоже на ещё один вопрос определения. Обычно удобнее работать в сопутствующих координатах, где все движения от структур относительно малого масштаба, а на глобальном однородном фоне всё покоится.
Оно же про массу покоя элементарных частиц. Да и в Википедии читаем:
Рассуждениям ОТО и не нужно затрагивать моменты излучения и поглощения фотона. Прелесть в том, что в рамках ОТО всегда можно выбрать локально-инерционную систему, в которой такие локальные процессы будут происходить так же, как мы ожидаем в инерционной. А вот движение нелокально, и для него нужны полные детали.
Отдача от фотона не мешает вычислять частоту излучения из квантовой механики в хорошем соответствии с лабораторными измерениями. (Большая часть спектральных линий предсказывается довольно плохо, но, насколько я помню, это скорее из-за сложности решения энергетических уровней сложных многоэлектронных систем безотносительно фотонов. В крайнем случае можно измерять в лаборатории, возможно, применяя поправки на известную неинерциальность.)
P.S. Только заметил, что аргумент про мгновенность уже был.