Как стать автором
Поиск
Написать публикацию
Обновить

Статистика Ферми и Бозе

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров404

Данный вывод я увидел в книге Леонтовича М.А. "Введение в термодинамику. Статистическая физика." Одна из самых интересных книг, которые я читал(прочитал не полностью, правда) и один из самых красивых выводов, который я видел. Настоятельно рекомендую к ознакомлению. Потрясающая книга, подача ну и ваще.

Моя интерпретация главы будет упрощенной и вряд ли научно достоверной. Но вы всегда можете прочитать оригинал. Ну что же, теперь без лишних слов приступим.

На самом деле, мы рассматриваем систему из конечного числа N частиц и вероятности каждой частицы находиться в состоянии со своей энергией\varepsilon. Можно предположить, что каждая из частиц имеет вероятностьe^{\frac{\psi - \varepsilon}{T}} находиться в состоянии с энергией\varepsilon, где\psi— нормирующий коэффициент,T— это просто температура в энергетических величинах. На самом деле, это не совсем так, так как, по определению(а для законов природы можно так выражаться?), два и более фермиона не могут пребывать в состоянии с одинаковыми энергиями. Соответственно, эти события не независимые.

Статистика Ферми-Дирака

Вместо учета сложных зависимостей, автор предлагает гениальное решение: рассмотреть состояние так, будто бы каждое событие независимо, а невозможные события просто нивелировать умножением этого состояния на0. Отсюда получаем вероятность состояния газа, когдаn_1,n_2,\dots частиц находятся в состояниях с энергиями\varepsilon_1,\varepsilon_2\dots(обратите внимание, чтоn_i— это КОЛИЧЕСТВО частиц с энергией\varepsilon_i)

W(n_1,n_2,\dots)=\Omega(n_1,n_2,\dots)\prod_{k=1}^{\infty}e^{\frac{\psi_k-\varepsilon_k}{T}}=\Omega(n_1,n_2,\dots)e^{\frac{\Psi-\sum_{k=1}^{\infty}\varepsilon_kn_k}{T}}

Функци\Omega(n_1,n_2,\dots)как раз и отвечает за тот самый регулирующий коэффициент, равный 0, если хотя бы один изn_i>1.

Чтобы совсем не ограничивать параметрыn_1,n_2\dots, введем еще одну функцию, которая будет равна1, если сумма\sum_{k=1}^\infty n_k=N и0в обратном случае

\delta_m =\begin{cases}1, & m = 0,  \\0, & m  \ne  0 .\end{cases}

То есть так просто мы перефразировали закон природы в набор функций. Это ли не потрясающе?

Зная вероятность каждого события, мы могли бы посчитать среднее число частиц с энергией\varepsilon_i. Спешу огорчить диванных аналитиков: нет, она не равна 0 или 1, но она будет находиться в промежутке между ними!

Моя личная боль.

Диванные аналитики — это вообще моя личная боль. Как же каждый раз бесит читать в комментариях очередной бред про 50% или сбудется, или нет. Зачем вообще эта система образования существует? Чему она обучает людей? Чтобы они ничего не поняли, а потом в интернетах этих ваших писали про идущие на шарлатанов(ученых) налоги? Да лучше не обучайте их вовсе, пусть астрологией своей и занимаются. Ну да ладно.

\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}n_iW(n_1,n_2,\dots)=\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}n_i\delta_{\sum_{k=1}^\infty n_k-N} \Omega(n_1,n_2,\dots)e^{\frac{\Psi-\sum_{k=1}^{\infty}\varepsilon_kn_k}{T}}

Ну разве не красота? Все невозможные события будут просто выброшены благодаря функции\Omega(n_1,n_2,\dots)и\delta_{N-\sum_{k=1}^\infty n_k}.

Самое замечательное тут то, что для поиска этой функции достаточно рассмотреть более простую сумму. Если просуммировать вероятности всех событий, то их сумма будет равна единице и тогда можно написать

e^{-\frac{\Psi}{T}}=\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\delta_{\sum_{k=1}^\infty n_k - N}\Omega(n_1,n_2,\dots)e^{-\frac{1}{T}\sum_{k=1}^{\infty}\varepsilon_kn_k}

То есть слева мы имеем функцию

e^{-\frac{\Psi}{T}}=Z(e^{-\varepsilon_1},e^{-\varepsilon_2},\dots)

А наша искомая сумма найдется обычным дифференцированием

\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}n_i\delta_{N-\sum_{k=1}^\infty n_k}\Omega(n_1,n_2,\dots)e^{\frac{\Psi-\sum_{k=1}^{\infty}\varepsilon_kn_k}{T}}=e^{-\varepsilon_i}\frac{\partial }{\partial e^{-\varepsilon_i}}\log Z(e^{-\varepsilon_1},e^{-\varepsilon_2},\dots)
dlog Z=dZ/Z

Нет, ну если вы этого не знаете, то дальше читать смысла нет.

Чтобы продвинуться дальше, нужно подобрать функцию\delta_m, к счастью, тут на помощь приходят комплексные числа

\delta_m=\frac{1}{2\pi}\int_0^{2\pi}e^{im\varphi}\mathrm{d}\varphi

Подставив, и изменив порядок суммирования и интегрирования, получим

\frac{1}{2\pi}\int_0^{2\pi}e^{-i\varphi N}\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\left[\Omega(n_1,n_2,\dots)e^{\sum_{k=1}^{\infty}(i\phi-\frac{\varepsilon_k}{T})n_k}\right]\mathrm{d}\varphi

Итак, что можно сказать о выражении в квадратных скобках? Если обозначитьe^{i\phi-\frac{\varepsilon_k}{T}}через переменнуюx_k, то мы получаем сумму всевозможных произведений как максимум первой степени для каждой перменной.

\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\Omega(n_1,n_2,\dots)e^{\sum_{k=1}^{\infty}(i\phi-\frac{\varepsilon_k}{T})n_k}=\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\Omega(n_1,n_2,\dots)\prod_{k=1}^{\infty}x_k^{n_k}

Тот же результат получается, если раскрыть скобки выражения(1+x_1)(1+x_2)\dots

\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\Omega(n_1,n_2,\dots)e^{\sum_{k=1}^{\infty}(i\phi-\frac{\varepsilon_k}{T})n_k}=\prod_{k=1}^\infty(1+e^{i\phi-\frac{\varepsilon_k}{T}})

На самом деле, здесь автор получает самую общую формулу для суммы состояний. Она выглядит вот так

\frac{1}{2\pi}\int_0^{2\pi}\exp\left(N\left[-i\varphi +\frac{1}{N}\sum_{k=1}^\infty\ln(1+e^{i\phi-\frac{\varepsilon_k}{T}})\right]\right)\mathrm{d}\varphi

Дальше идут, как мне кажется, детали доказательства, с которыми лучше познакомиться в оригинальной литературе. По-этому я пройду по ним только лишь образно.

Автор показывает, что при условии постоянства концентрации частиц в объеме, можно утверждать, что выражение в квадратных скобках не зависит отN, обозначив ее через\omega(\varphi)

\frac{1}{2\pi}\int_0^{2\pi}e^{N\omega(\varphi)}\mathrm{d}\varphi

Которое, к моему огромному удивлению, оказывается, имеет изящное решение. Представим, что\varphi_0— это корень уравнения, тогда верно равенство

\frac{1}{2\pi}\int_0^{2\pi}e^{N\omega(\varphi)}\mathrm{d}\varphi=\exp(N\omega(\varphi_0)+O(\ln N))\log Z(e^{-\varepsilon_1},e^{-\varepsilon_1},\dots)=N\omega(\varphi_0)+O(\ln N)

После несложных преобразований, и учитываяi\phi_0=\frac{\zeta}{T}, получаем

\log Z(e^{-\varepsilon_1},e^{-\varepsilon_1},\dots)=-N\frac{\zeta}{T}+\sum_{k=1}^\infty\ln (1+e^{\frac{\zeta - \varepsilon_k}{T}})

Далее, вновь, если не вдаваться в подробности и опустить зависимость\zeta(e^{-\frac{\varepsilon_k}{T}}), можно легко найти среднее число частиц в состоянии с энергией\varepsilon_k

\overline{n_k}=\frac{1}{e^{\frac{\varepsilon_k-\zeta}{T}}+1}

Статистика Бозе-Эйнштейна

В отличие от фермионов, бозоны в неограниченном числе могут пребывать в одном и том же энергетическом состоянии. Соотвественно, получаем вероятность системы находиться в указанном состоянии

W(n_1,n_2,\dots)=\delta_{\sum_{k=1}^\infty-N}e^{\frac{\Psi-\sum_{k=1}^{\infty}\varepsilon_kn_k}{T}}

Вместо повторения всех выкладок, сделанных выше, сразу напишу то, что получается после изменения порядка суммирования и интегрирования

\frac{1}{2\pi}\int_0^{2\pi}e^{-i\varphi N}\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\left[e^{\sum_{k=1}^{\infty}(i\varphi-\frac{\varepsilon_k}{T})n_k}\right]\mathrm{d}\varphi

Вновь, при заменеx_k=e^{i\varphi}-\frac{\varepsilon_k}{T}, заметим, что каждая переменная в квадратных скобках содержится во всех возможных степенях

\sum_{\substack{n_1,n_2,\dots \in \mathbb{N}}}\prod_{k=1}^\infty x^{n_k}=\prod_{k=1}^\infty(1+x_k+x_k^2+\dots)=\prod_{k=1}^\infty\sum_{i=0}^\infty x^i=\prod_{k=1}^\infty\frac{1}{1-x_k}

Такое сильное различие в условии распределения газов приводит всего лишь к незначительным изменениям

\frac{1}{2\pi}\int_0^{2\pi}\exp\left(N\left[-i\varphi -\frac{1}{N}\sum_{k=1}^\infty\ln(1-e^{i\phi-\frac{\varepsilon_k}{T}})\right]\right)\mathrm{d}\varphi

Повторив все выкладки, получаем распределение Бозе-Эйнштейна

\overline{n_k}=\frac{1}{e^{\frac{\varepsilon_k-\zeta}{T}}-1}
Теги:
Хабы:
-1
Комментарии0

Публикации

Ближайшие события