Как стать автором
Обновить

Комментарии 58

Поясните, пожалуйста, что такое «закрытая система».
Правильно ли я понимаю, что закрытая система перестает быть таковой при наблюдении за ней?
Это система, которая не обменивается энергией с другими системами. Строго говоря, наблюдение нарушает условие закрытости, но на практике это нарушение для неквантовых систем можно сделать пренебрежимо малым.
Есть некая закрытая система, пусть наблюдатель является ее частью, это ведь возможно?
Наблюдатель начинает выяснять микросостояние системы, энтропия при этом (по определению) падает.
Но наблюдение происходит внутри системы, то есть наблюдение не требует обмена энергией.
Как же тогда быть с утверждением:
энтропия (закрытой системы) всегда увеличивается
Наблюдатель внутри закрытой системы? А как это? Приведите пример, пожалуйста. Мне как-то неочевиден такой наблюдатель. Не происходит ли так, что в тот момент, когда микронаблюдатель внутри замкнутой системы начинает выяснять ее микросостояния, он начинает совершать над ней работу, тратя свою энергию — т.е. система перестает быть замкнутой. И потом, наблюдатель, это, по определению, некое «существо», которое только наблюдает и не действует никак на систему. Если же он выясняет ее микросостояния изнутри (упорядочивает ее из состояния «ничего не знаю» в состояние «знаю о ней все») — это уже никакой не наблюдатель.
Если наблюдатель включён в закрытую систему и попытается определить (то есть, фактически, зафиксировать) микросостояние подсистемы, то это неизбежно приведёт к увеличению его энтропии, которое скомпенсирует уменьшение энтропии изучаемой подсистемы.

Другими словами, нельзя определить микросостояние системы, не обменявшись с ней большим количеством энергии и энтропии.
Хорошая статья, спасибо! Такое объяснение гораздо более понятно, нежели традиционное «мера беспорядка системы». Вообще, думаю, стоит развить тему энтропии дальше: способы уменьшения энтропии, невозможность создания вечных двигателей и т.д. с точки зрения энтропии.
Не обольщайтесь особо. В статье изложен «сильно авторский» взгляд на энтропию, во многом не совпадающий с научным.
Понятно, что автор хотел упростить, но вместе с водой вылил и ребёнка.
Из объяснения последнего парадокса понял, что я совершенно не понимаю второго закона термодинамики. Если энтропия — это лишь описание нашего незнания о системе, то почему она не может убывать? Пусть тот же ящик с двумя газами и два человека. Для первого это просто чёрный ящик с двумя газами и неизвестным распределением. Второй же обладает информацией, что эти два газа там разделены перегородкой. Второй человек сообщает эту информацию первому, энтропия у второго осталась неизменной, у первого уменьшилась. Где ошибка в рассуждениях? Конечно, я тут упускаю из виду сам процесс передачи информации, но не могу сообразить, как его учёт может привести к компенсации уменьшения энтропии.
Под термодинамической энтропией, а именно о ней обычно идёт речь во втором законе термодинамике, понимается вполне конкретная вещь — S = log Ω, где Ω — число микросостояний, отвечающих данному макросостоянию. И это число никак не зависит от того, что вы знаете о системе.

Но, в принципе, вы можете определить энтропию более удобным для вас способом, если обладаете, например, информацией о подсистемах рассматриваемой системы. И для этой энтропии второй закон термодинамики будет тоже справедлив.

В парадоксе же демона Максвелла совершается прыжок от одной энтропии к другой. Мы сначала говорим о термодинамической энтропии, а затем вводим инструмент (демона), который знает о системе намного больше, и говорим уже об энтропии для него. Термодинамически ведь система после разделения не изменилась — у неё остались те же давление, энергия и плотность (по крайней мере, в среднем, а только со средними в термодинамике и работают).
Уточню первый абзац своего ответа. Число микросостояний не зависит от того, что вы знаете о системе, если вы зафиксируете способ определения макросостояния. Например, в термодинамике оно определяется величиной давления и плотности.

Если вы хотите добавить какие-то дополнительные сведения, которые вам известны о системе, то вам надо переопределить энтропию.
То есть энтропия относительна?
Скорее она субъективна. Эта величина не является объективным свойством объекта, а возникает из-за невозможности полного описания системы. Правда, удобное в конкретной ситуации определение энтропии можно зафиксировать, как например, формула Больцмана определяет термодинамическую энтропию, и тогда эта конкретная энтропия становится объективной, во всяком случае связывается с объективными величинами.
Описано все четко и понятно, понимаю автор только перевел, но может мне кто то объяснит, почему демон должен знать все о системе, демон может «видеть» подлетевшую молекулу.

Например, мембрана водяного фильтра пропускает, только воду потому, что мембрана содержит дырки размер, которых не позволяет пропускать молекулы более крупных размеров.

Електрокатушка может определять заряд который проходит сквозь дырку.
Ответ на ваш вопрос в последнем абзаце. Даже в этом случае информация, которой должен обладать демон, как раз компенсирует потерю информации при перемешивании.
я не понимаю, может потому, что постоянно думаю как это связанно со вторым законом термодинамики и энергией.

Т.е. демон в принципе может пропускать налево быстрые молекулы (горячие), а направо медленные (холодные) и тем самым разделить газ на холодный и горячий, если при этом состояние холодного газа и горячего будет более не определенное?

Если в начале все, что мы знали, что газ слева и права от дырки был 20 градусов, то через час мы будем знать, слева он >20 градусов, а справа <20 градусов?

Но ведь это будет противоречить второму закону термодинамики?
Да, демон может так делать — если у него есть свой источник энергии. Нет, второму закону термодинамики это не противоречит — потому что система без демона открытая — в нее поступает энергия от демона, а в системе с демоном энтропия не смотря на старания демона все равно растет — за счет увеличения энтропии самого демона.

Сначала мы знали, что газ слева и справа от дырки был 20 градусов, а демон находился посередине в состоянии покоя. Через час будем знать, что слева газ >20 градусов, справа <20 градусов — а демон черти-где и непонятно что с ним творится :)

Вот если принять демона за некоторый идеальный объект, не имеющий своего состояния — тогда противоречие и возникает. Но это противоречие означает всего лишь невозможность существования идеального демона.
Получается должна быть связь dI ~ dE
dI — дельта информации. молекула горячей или холодней 20 градусов, (да-нет) 1 бит,
dЕ — дельта энергии для определения горячей или холодней + энергия открыть или закрыть дверь)
Да, такая связь есть. С одной стороны, изменение энтропии dS = dQ/T, где dQ — это количество переданной системе теплоты (фактически, ваша dE), а с другой S — это и есть информация, то есть dS = dI (с точностью до знака, зависящего от того, понимаем мы под dI количество переданной или полученной информации).
Тогда сколько джоулей в одном бите?
Связь нелинейна, поэтому вопрос некорректен. В ваших обозначениях связь приблизительно такая:

dI = dE/E
т.е.

E = dE/dI

I = ln|E|

И как это интерпретируется?

Особенно в контексте демона и второго закона. Я смысла не вижу.
В смысле, как интерпретируется? Если вы хотите получить больше информации о системе, вам надо забрать у неё часть энергии, уменьшив энтропию. Количество энергии, которую надо забрать, чтобы получить 1 бит информации, зависит от того, насколько много в ней энергии сейчас. Возвращаясь к аналогии с кубиками: если у вас два кубика, то чтобы уменьшить количество неизвестной информации на один символ, вам надо взять один кубик, а если кубиков 10 — то уже два кубика.
+ C забыла
I — С = ln |E|

E = e ^ (I — С) — информация показатель энергии ))))

Может учение про энтропию и второй закон термодинамики во все не закон, а просто часто наблюдаемое явление.

Второе начало термодинамики является постулатом, не доказываемым в рамках классической термодинамики. Оно было создано на основе обобщения опытных фактов и получило многочисленные экспериментальные подтверждения.


Т.е. например энтропия закрытой системы растет, да растет, в 99.9999999999%

Но я не вижу ясного доказательства, что это происходит всегда и везде во всех 100%
Где энтропия выше?

Случай 1
1. две емкости с температурой 20 градусов,
2. две емкости, первая прохладней 20 градусов, вторая горячей 20 градусов

Случай 2
1. две емкости с температурой 20 градусов,
2. две емкости, первая 19 градусов, вторая 21 градусов

Случай 3
1. две емкости с температурой 20 градусов,
2. две емкости, первая 19 градусов, вторая 22 градусов

Если отвечать на ваш вопрос исходя из утверждения «энтропия — мера беспорядка», то там где температура выше и энтропия больше. Вы просите сравнить пункты в каждом случае или случаи между собой?
Да три случая.

Я понимаю так.

Случай 1
2 — так как возможных вариантов больше во втором варианте

Случай 2 — не знаю

Случай 3
2, так как в сумме температура выше.

— Почему я спрашиваю, мне кажется, если энтропия выше в варианте 2 случаях 1 и 2, то это противоречит второму закону термодинамики.
Вселенная (метагалактика) — замкнутая система. Её энтропия увеличивается и это даже как-то влияет на направление течения времени.
Вселенная расширяется и пишет истории быстрее Донцовой плодит информацию.
Вдруг рождается клетка и создаёт из ничего массу информации. Как так?
Появляется человек, который также пытается уменьшить энтропию, познавая мир.
Не изменится ли от этого направление течения времени?
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Во-первых, человек не уменьшает энтропию. Он наоборот, питается негэнтропией и производит энтропию. Причем делает это очень эффективно. Познавая мир, он переводит кучу лесов на бумаги для учебников и сжигает нефть или уран чтобы накачать гелий для БАК. Все это повышает энтропию.
Во-вторых, насколько я понимаю, второй закон имеет вероятностную природу. Т. е., спонтанные падения энтропии возможны, просто они маловероятны. А дальше работает уже закон больших чисел и антропный принцип: энтропия упала на уровень, достаточный для возникновения наблюдателей.
Вселенная в целом — замкнутая система, состоящая из множества локальных открытых систем. Так планета Земля — открытая система, получающая приток энергии от Солнца. И человек — это тоже открытая система, т.к. не может существовать без получения энергии (в виде пищи, кислорода, тепла).

Рождение клетки — это уменьшение энтропии (и, соответственно, уменьшение количества информации) — чем более упорядочена система, тем меньше информации.

Кстати, из различных мысленных экспериментов по мотивам демона Максвелла был получен интересный вывод: для записи информации дополнительная энергия не требуется, но энергия необходима для стирания записанной информации.

Тут стоит отметить, что это два компенсирующих друг друга процесса в природе: возрастающая энтропия и эволюция в широком смысле, упорядочивающая хаос посредством образования более стабильных структур. Одновременно с этим, стоит также говорить об иерархической сути энтропии, или по крайней мере об ее относительности (субъективности). Говоря о примере с костями, количество неизвестной нам информации относительно: если нам важен только результат броска, нам и не нужно знать, как выпала каждая отдельная кость. У нас уже есть готовый результат, таким образом, у нас нет неизвестной для нас информации с точки зрения цели нашего наблюдения. Более того - если нам нужен лишь результат, а нам говорят про каждую из 10 костей по отдельности - это избыточная информация, которая, при этом, не содержит нужной нам информации напрямую - нам ее еще предстоит вычислить. Другими словами - здесь содержится неизвестность. Более того. Что, если нам скажут даже не результат броска каждой кости, а выдадут все внутренние микросостояния - это еще больше усложнит нам задачу получения нужной нам информации, а именно - конечной суммы всех бросков.

То, что я описываю - это как раз тот противовес возрастающей энтропии, заключающийся в организации более стабильных структур, которыми можно оперировать на более высоком уровне, снижая энтропию. Хотим мы бросить кости - мы их бросаем без размышлений о том, что бросаем мы какие-то там атомы и молекула, а равно как и лежащие в их основе более элементарные частицы.

Говоря о человеке, изначально он, как представитель жизни - энтропию уменьшает. Он также способен уменьшать энтропию и своей высшей деятельностью. Но как справедливо отметили в комментарии выше, человек в значительно степени порождает и хаос вокруг себя. Тут мне ничего больше не остается, как прибегнуть к философским/эзотерическим/религиозным взглядам, которые я как минимум частично разделяю, и переводя которые в текущий контекст, говорят, что человек порождает слишком много энтропии в своей локальной системе, в результате чего неизбежно возникнут компенсационные механизмы, которые могут проявиться в чем угодно. Может, человек сам уничтожит себя. Может, возникнут какие-либо природные катаклизмы, которые сотрут человека с лица Земли. А может появятся какие-то другим биологические виды, типа вирусов, которые сделают эту работу. Не потому даже, что это чей замысел, есть он или нет. А потому что так устроена природа.

> энтропия (закрытой системы) всегда увеличивается

Неправда. Энтропия закрытой (на самом деле замкнутой) системы не убывает.
Да, спасибо, исправил эту неточность.
Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Вот эту часть не понял. С нагреванием газа наше знание о скорости частиц не уменьшается. Мы одинаково не знаем скорость каждой частицы при 0C и при 100C, но можем знать при 0K. То же самое мне непонятно насчёт объёма.
Не одинаково. Мы знаем распределение скоростей частиц — и оно зависит от температуры.
Возможно, это проще понять на кубиках. Чтобы не осложнять понимание большими числами, пусть у нас всего два кубики и у каждого сначала только две грани — 1 и 2, тогда самое вероятное макросостояние — это их сумма равна 3, ему отвечает 2 микросостояния (1-2 и 2-1), то есть энтропия равна log(2). Теперь увеличим число граней до 3 (это эквивалентно нагреву — мы увеличиваем максимально допустимую скорость частиц), тогда самым вероятным макросостоянием станет сумма 4, ей, однако, уже отвечает 3 микросостояния (1-3, 2-2, 3-1), то есть энтропия выросла до log(3).

У вас вообще во всей статье и в этом комментарии в частности содержится куча утверждений, которые предлагается принять на веру (хотя, возможно, под ними есть веские теоретические основания, которые Вы не приводите).
Например, на основании чего самым вероятным макросостоянием станет сумма 4, предполагающая, что на каждом кубике выпадет разная цифра? Мне кажется, тут рекурсия какая-то уже.

Фигня какая-то:
Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

выпадать чаще других

!=
Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии

Энтропия как я понимаю падать не может в принципе, а вот сумма костей чем она больше тем больше вероятность того что в следующем броске выпадет меньше.

Абсолютно лживая и запутывающая аналогия.
Вот вам тогда вопрос. Как известно, температура системы определяется как dU/dS. Внутренняя энергия системы — это, вроде как, величина, определяемая самой системой. Температура, казалось бы, тоже. Ее можно померить термометром, засунув его в систему. А энтропия — величина внешняя, характеризующая наше незнание.

Как же тогда возможна связь между этими тремя величинами, если две из них имеют отношение к объекту, а одна — внешняя?
А температура тоже, что удивительно, зависит от того, как мы рассматриваем систему. Отсюда, например, растут ноги у всяких отрицательных температур.
Это так, но что же тогда показывает термометр?
Среднюю кинетическую энергию частиц рабочего тела термометра. А уж как она связана с характеристиками изучаемой среды — вопрос особый. В простейшем случае равновесных сред, она просто равна средней кинетической энергии частиц среды и термодинамической температуре.
Простите, но ваше объяснение очень, очень наивно. К тому же неверно.

Основной парадокс Второго закона термодинамики таков: из симметричного относительно времени закона движения молекул (зная состояние всех молекул мы можем рассчитать его сколь угодно долго и в прошлое, и в будущее) выводится ассимметричный относительно времени закон термодинамики: энтропия *растёт* вдоль стрелы времени. Мы не можем на основании макрохарактеристик системы в настоящем рассчитать её макрохарактеристики в прошлом.

Это, строго говоря, очень сложная задача, и её нельзя решить просто так в рамках классической физики. У Смолина в «Time Reborn» большой раздел про это.

Что касается вашего «объяснения», то оно не выдерживает никакой критики.
Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

У игральных костей нет памяти. Ход времени никак на них не влияет. Второй закон термодинамики никак не описывает независимые броски игральных костей.
Вы правы по обоим пунктам, но я считаю, приведённое в посте рассмотрение позволяет «почувствовать», почему же в равновесном — то есть наиболее вероятном — состоянии энтропия максимальна.
Мне понравился коментарий к оригинальной статье.

Entropy is the tax you pay to nature for converting one form of energy to another. It is the measure of interference of nature in the human effort to make perfect use of its resources. No system is perfect, says the second law of thermodynamics, there is always some loss of energy when we try to make it useful.
The measure of that loss is what we call entropy.


Энтропия это налог который мы платим природе за преобразование одной формы энергии в другую…

image

Exergy это полезная энергия — выход того что нам нужно. Энтропия это что остается взамен и то что увеличивается в данном процессе.
Я несколько смущен объяснением парадокса демона Максвелла: в оригинале эти молекулы не просто «синие» и «красные», быстрые (горячие ) и медленные (холодные). Вот тогда становится понятно выражение
наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них

Здесь «скорость-температура молекулы» как раз и является характеристикой энергии в системе, в то время как «цвет молекулы» — понятие уж слишком абстрактное и не понятно, как измерять цвет молекулы. Ведь именно на измерение скорости (энергии) молекулы демону нужно привлекать энергию извне, что как раз и объясняет парадокс — система «сосуд» не замкнута, а привлекает энергию от демона. Т.е., энтропия системы «сосуд» действительно уменьшается, если наблюдать только за сосудом, но энтропия системы «сосуд-демон» осталась такой же, т.к. на столько же, на сколько уменьшилась энтропия сосуда, на столько же она увеличилась у демона, измеряя скорости.
Объяснение в статье мне лично нравится больше. Такое объяснение демона Максвелла, как у вас, уже слышал, и не понимаю, как именно демон расходует энергию на получение информации.
Встречный вопрос: а как демон получает информацию о цвете или о скорости молекулы? Как я уже писал выше, цвет молекулы — понятие слишком абстрактное, не отражающее ни одной ее физической характеристики.
А как измерить скорость молекулы? Все макроскопические системы измерение скорости элементарных частиц основаны на взаимодействии этих частиц с другими (читаем «передача энергии этой частицы другим»), и последующим наблюдением за результатом этих взаимодействий (кондесационный след в камерах Вильсона; пузырьковый след в пузырьковых камерах; следы на фотоэмульсии в результате изменения химического состава элементов, взаимодейстовавших с частицей, и т.п.).
Т.е., чтобы измерить скорость молекулы необходимо иметь, например, другую «эталонную» молекулу, привести ее во взаимодействие с «измеряемой» молекулой, и после этого сделать выводы о скорости («цвете») измеряемой молекулы.
Или приведите другой пример, как можно измерить скорость (или «цвет») молекулы без взаимодействия с другими чистицами?
он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему)
А можно ли вообще сколь-нибудь точно измерить одновременно координату и скорость элементарной частицы?
Гейзерберг, например, в этом был неуверен.
А можно ли вообще измерить систему, не изменив ее? Эйнштейн и Ко долго спорили по этому поводу с Бором.
Именно поэтому я считаю, что приведенный в статье пример некорректен в разрезе энтропии, как характеристики термодинамической системы.

Кстати, из моего субъективного опыта (2 года преподавания курсантам теории информации), наиболее понятным «простым обывателям» является объяснение понятия энтропии как меры неупорядоченности системы. Правда, я объяснял это только в разрезе теории информации: текстовый файл имеет имеет определенную структуру -> взаимозависимость символов друг от друга большая -> система достаточно упорядоченна -> энтропия алфавита маленька -> коэффициент сжатия большой. Когда мы сожмем файл -> система разупорядочится -> энтропия алфавита увеличится -> символы алфавита сжатого сообщения будут практически независимыми -> сжатое сообщение «нечитаемо». Поэтому «пересжать» сжатое сообщение (zip-нуть jpeg, например) не получится. Как и не получится сжать зашифрованное сообщени, т.к. одна из целей шифрования — сделать сообщение «неупорядоченным, нечитаемым», и, как результат, энтропия этого алфавита возрастает -> сообщение не сжимается (если ваше зашифрованное сообщение сжимается — значит ваша крипто-система никуда не годна).
Вот я нарисовала ионы с зарядом и вектором движения, канал, катушку и заслонку. Когда ион (или множество ионов) движется с некоторой минимальной скоростью по каналу, то в катушке появляется ток, который зависит от заряда, направления и скорости иона.

Этот ток может или открывать или закрывать заслонку.

Это означает, что пройти по каналу больше имеют шансы одни заряды, а противоположные заряды имеют меньше шансов.



Что эта машина делает?
1. Замедляет ионы и разделяет их на положительные и отрицательные.
2. Нарушает Второй Закон Термодинамики
3. Не нарушает закон сохранения энергии
4. Достаточно логичен

Я не говорю, что это возможно, мне интересно, где понятное объяснение, что это не возможно?
Многие ли по честному понимают почему это невозможно?
Ведь можно сказать, «Блин я не знаю возможно это или нет»

Вот закон сохранения энергии это понятно. А энтропия это как схоластика. «Может ли Бог создать камень, который не сможет поднять»
первый вопрос:
1) а кто будет обратно закрывать заслонку после пролета одной частицы? Пушкин демон?
потом возник второй:
2) а полностью ли учтено правило Ленца, которое будет препятствовать пролету этой частицы через эту катушку? Даже если учесть, что частице все-таки удалось пролететь скозь катушку и заслонку — за заслонкой энергия этой катушки уже будет меньше, т.к. ее скорость уменьшилась из-за противодействия магнитного поля, вызванного собственным же индукционным током.
за заслонкой энергия этой катушки уже будет меньше
обшибся: не катушки, а заряженной частицы.
Ион будет тормазиться преодолевая кулоновские силы, поэтому будет охлаждаться (жидкость или газ)
Я и написала пункте 1, что замедляет ионы. Это и есть охлаждение

Я видела, визуализации процессов в клетках, и белки и настоящие электромеханические машины.


В природе мы вроде не видим нарушения второго закона термодинамики, поэтому и придумали это закон, но это закон ни чем не доказан, так и сказанно в вики

Второе начало термодинамики является постулатом, не доказываемым в рамках классической термодинамики. Оно было создано на основе обобщения опытных фактов и получило многочисленные экспериментальные подтверждения.
ну если так рассуждать, то и закон сохранения энергии не доказан, а выведен эмпирическим путем, что тоже сказано в вики! а на счет рисунка выше — появились еще вопросы:
1) а точно ли электронн, летящий параллельно оси катушки наводит в ней ток? для появления тока в катушке необходимо, чтобы менялся магитный поток, проходящий вдоль оси катушки, но если электрон летит вдоль оси катушки — то вдоль этой оси направлен вектор электрического тока E, в то время как вектор B будет перпендикулярен это оси!
На сколько я помню, нельзя вызвать в катушке ток, пропуская ток вдоль ее оси! Для этого нужно пропускать меняющийся магнитный поток Ф
если в катушке не было иона, и тут он подлетает, ближе, ближе, то это не постоянный ток, Если мы будет смотреть на график тока в катушке, когда подлетает ион положительные или отрицательный, то график тока в катушке будет разный иона хлора или иона натрия.
Я вообще про что? не про то, что именно это устройство можно сделать, а о обратном, что ясных доказательств, того что такое невозможно нет.

Закон сохранения энергии понятен и прост, мы его логику можем проследить до квантового уровня или даже до уровня струн, но статья началась с того, что энтропию мало кто понимает.
Что энтропия это некая величина не подобная другим объективным величинам (как например энергия или скорость), а хар-щая наше знание о системе. И все равно это наше субъективное знание о системе, накладывает ограничения на объективные процессы.

— Вот мы взяли нагрели газ электротоком. (20 градусов в 50 градусов)
теперь мы не можем охладить и получить электроток обратно, так как наше знание о системе уменьшилось и возрос хаус.!!!

А что мы знали и что мы стали знать? Неужели 20 градусов это более информативно, чем 50 градусов? В каких это единицах? В мегабайтах? Вероятностях?

20 градусов это точно так же информативно для меня как и 50 градусов, значит газ нагревшись до 50 градусов может охладиться до 20 энтропия не изменится. По крайней мере для моего знания о системе.

— Эти все размышления, это не физика, это Ватикан 15 век.
чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему)

просто напомнило
image

Привет земляку от 603123 :)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации