Comments 58
Правильно ли я понимаю, что закрытая система перестает быть таковой при наблюдении за ней?
Наблюдатель начинает выяснять микросостояние системы, энтропия при этом (по определению) падает.
Но наблюдение происходит внутри системы, то есть наблюдение не требует обмена энергией.
Как же тогда быть с утверждением:
энтропия (закрытой системы) всегда увеличивается
Другими словами, нельзя определить микросостояние системы, не обменявшись с ней большим количеством энергии и энтропии.
Но, в принципе, вы можете определить энтропию более удобным для вас способом, если обладаете, например, информацией о подсистемах рассматриваемой системы. И для этой энтропии второй закон термодинамики будет тоже справедлив.
В парадоксе же демона Максвелла совершается прыжок от одной энтропии к другой. Мы сначала говорим о термодинамической энтропии, а затем вводим инструмент (демона), который знает о системе намного больше, и говорим уже об энтропии для него. Термодинамически ведь система после разделения не изменилась — у неё остались те же давление, энергия и плотность (по крайней мере, в среднем, а только со средними в термодинамике и работают).
Если вы хотите добавить какие-то дополнительные сведения, которые вам известны о системе, то вам надо переопределить энтропию.
Например, мембрана водяного фильтра пропускает, только воду потому, что мембрана содержит дырки размер, которых не позволяет пропускать молекулы более крупных размеров.
Електрокатушка может определять заряд который проходит сквозь дырку.
Т.е. демон в принципе может пропускать налево быстрые молекулы (горячие), а направо медленные (холодные) и тем самым разделить газ на холодный и горячий, если при этом состояние холодного газа и горячего будет более не определенное?
Если в начале все, что мы знали, что газ слева и права от дырки был 20 градусов, то через час мы будем знать, слева он >20 градусов, а справа <20 градусов?
Но ведь это будет противоречить второму закону термодинамики?
Сначала мы знали, что газ слева и справа от дырки был 20 градусов, а демон находился посередине в состоянии покоя. Через час будем знать, что слева газ >20 градусов, справа <20 градусов — а демон черти-где и непонятно что с ним творится :)
Вот если принять демона за некоторый идеальный объект, не имеющий своего состояния — тогда противоречие и возникает. Но это противоречие означает всего лишь невозможность существования идеального демона.
dI — дельта информации. молекула горячей или холодней 20 градусов, (да-нет) 1 бит,
dЕ — дельта энергии для определения горячей или холодней + энергия открыть или закрыть дверь)
dI = dE/E
E = dE/dI
I = ln|E|
И как это интерпретируется?
Особенно в контексте демона и второго закона. Я смысла не вижу.
I — С = ln |E|
E = e ^ (I — С) — информация показатель энергии ))))
Может учение про энтропию и второй закон термодинамики во все не закон, а просто часто наблюдаемое явление.
Второе начало термодинамики является постулатом, не доказываемым в рамках классической термодинамики. Оно было создано на основе обобщения опытных фактов и получило многочисленные экспериментальные подтверждения.
Т.е. например энтропия закрытой системы растет, да растет, в 99.9999999999%
Но я не вижу ясного доказательства, что это происходит всегда и везде во всех 100%
Случай 1
1. две емкости с температурой 20 градусов,
2. две емкости, первая прохладней 20 градусов, вторая горячей 20 градусов
Случай 2
1. две емкости с температурой 20 градусов,
2. две емкости, первая 19 градусов, вторая 21 градусов
Случай 3
1. две емкости с температурой 20 градусов,
2. две емкости, первая 19 градусов, вторая 22 градусов
Вселенная расширяется и
Вдруг рождается клетка и создаёт из ничего массу информации. Как так?
Появляется человек, который также пытается уменьшить энтропию, познавая мир.
Не изменится ли от этого направление течения времени?
Во-вторых, насколько я понимаю, второй закон имеет вероятностную природу. Т. е., спонтанные падения энтропии возможны, просто они маловероятны. А дальше работает уже закон больших чисел и антропный принцип: энтропия упала на уровень, достаточный для возникновения наблюдателей.
Рождение клетки — это уменьшение энтропии (и, соответственно, уменьшение количества информации) — чем более упорядочена система, тем меньше информации.
Кстати, из различных мысленных экспериментов по мотивам демона Максвелла был получен интересный вывод: для записи информации дополнительная энергия не требуется, но энергия необходима для стирания записанной информации.
Тут стоит отметить, что это два компенсирующих друг друга процесса в природе: возрастающая энтропия и эволюция в широком смысле, упорядочивающая хаос посредством образования более стабильных структур. Одновременно с этим, стоит также говорить об иерархической сути энтропии, или по крайней мере об ее относительности (субъективности). Говоря о примере с костями, количество неизвестной нам информации относительно: если нам важен только результат броска, нам и не нужно знать, как выпала каждая отдельная кость. У нас уже есть готовый результат, таким образом, у нас нет неизвестной для нас информации с точки зрения цели нашего наблюдения. Более того - если нам нужен лишь результат, а нам говорят про каждую из 10 костей по отдельности - это избыточная информация, которая, при этом, не содержит нужной нам информации напрямую - нам ее еще предстоит вычислить. Другими словами - здесь содержится неизвестность. Более того. Что, если нам скажут даже не результат броска каждой кости, а выдадут все внутренние микросостояния - это еще больше усложнит нам задачу получения нужной нам информации, а именно - конечной суммы всех бросков.
То, что я описываю - это как раз тот противовес возрастающей энтропии, заключающийся в организации более стабильных структур, которыми можно оперировать на более высоком уровне, снижая энтропию. Хотим мы бросить кости - мы их бросаем без размышлений о том, что бросаем мы какие-то там атомы и молекула, а равно как и лежащие в их основе более элементарные частицы.
Говоря о человеке, изначально он, как представитель жизни - энтропию уменьшает. Он также способен уменьшать энтропию и своей высшей деятельностью. Но как справедливо отметили в комментарии выше, человек в значительно степени порождает и хаос вокруг себя. Тут мне ничего больше не остается, как прибегнуть к философским/эзотерическим/религиозным взглядам, которые я как минимум частично разделяю, и переводя которые в текущий контекст, говорят, что человек порождает слишком много энтропии в своей локальной системе, в результате чего неизбежно возникнут компенсационные механизмы, которые могут проявиться в чем угодно. Может, человек сам уничтожит себя. Может, возникнут какие-либо природные катаклизмы, которые сотрут человека с лица Земли. А может появятся какие-то другим биологические виды, типа вирусов, которые сделают эту работу. Не потому даже, что это чей замысел, есть он или нет. А потому что так устроена природа.
Неправда. Энтропия закрытой (на самом деле замкнутой) системы не убывает.
Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.
Вот эту часть не понял. С нагреванием газа наше знание о скорости частиц не уменьшается. Мы одинаково не знаем скорость каждой частицы при 0C и при 100C, но можем знать при 0K. То же самое мне непонятно насчёт объёма.
У вас вообще во всей статье и в этом комментарии в частности содержится куча утверждений, которые предлагается принять на веру (хотя, возможно, под ними есть веские теоретические основания, которые Вы не приводите).
Например, на основании чего самым вероятным макросостоянием станет сумма 4, предполагающая, что на каждом кубике выпадет разная цифра? Мне кажется, тут рекурсия какая-то уже.
Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.
выпадать чаще других
!=
Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии
Энтропия как я понимаю падать не может в принципе, а вот сумма костей чем она больше тем больше вероятность того что в следующем броске выпадет меньше.
Абсолютно лживая и запутывающая аналогия.
Как же тогда возможна связь между этими тремя величинами, если две из них имеют отношение к объекту, а одна — внешняя?
Основной парадокс Второго закона термодинамики таков: из симметричного относительно времени закона движения молекул (зная состояние всех молекул мы можем рассчитать его сколь угодно долго и в прошлое, и в будущее) выводится ассимметричный относительно времени закон термодинамики: энтропия *растёт* вдоль стрелы времени. Мы не можем на основании макрохарактеристик системы в настоящем рассчитать её макрохарактеристики в прошлом.
Это, строго говоря, очень сложная задача, и её нельзя решить просто так в рамках классической физики. У Смолина в «Time Reborn» большой раздел про это.
Что касается вашего «объяснения», то оно не выдерживает никакой критики.
Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.
У игральных костей нет памяти. Ход времени никак на них не влияет. Второй закон термодинамики никак не описывает независимые броски игральных костей.
Entropy is the tax you pay to nature for converting one form of energy to another. It is the measure of interference of nature in the human effort to make perfect use of its resources. No system is perfect, says the second law of thermodynamics, there is always some loss of energy when we try to make it useful.
The measure of that loss is what we call entropy.
Энтропия это налог который мы платим природе за преобразование одной формы энергии в другую…
Exergy это полезная энергия — выход того что нам нужно. Энтропия это что остается взамен и то что увеличивается в данном процессе.
наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них
Здесь «скорость-температура молекулы» как раз и является характеристикой энергии в системе, в то время как «цвет молекулы» — понятие уж слишком абстрактное и не понятно, как измерять цвет молекулы. Ведь именно на измерение скорости (энергии) молекулы демону нужно привлекать энергию извне, что как раз и объясняет парадокс — система «сосуд» не замкнута, а привлекает энергию от демона. Т.е., энтропия системы «сосуд» действительно уменьшается, если наблюдать только за сосудом, но энтропия системы «сосуд-демон» осталась такой же, т.к. на столько же, на сколько уменьшилась энтропия сосуда, на столько же она увеличилась у демона, измеряя скорости.
А как измерить скорость молекулы? Все макроскопические системы измерение скорости элементарных частиц основаны на взаимодействии этих частиц с другими (читаем «передача энергии этой частицы другим»), и последующим наблюдением за результатом этих взаимодействий (кондесационный след в камерах Вильсона; пузырьковый след в пузырьковых камерах; следы на фотоэмульсии в результате изменения химического состава элементов, взаимодейстовавших с частицей, и т.п.).
Т.е., чтобы измерить скорость молекулы необходимо иметь, например, другую «эталонную» молекулу, привести ее во взаимодействие с «измеряемой» молекулой, и после этого сделать выводы о скорости («цвете») измеряемой молекулы.
Или приведите другой пример, как можно измерить скорость (или «цвет») молекулы без взаимодействия с другими чистицами?
он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему)А можно ли вообще сколь-нибудь точно измерить одновременно координату и скорость элементарной частицы?
Гейзерберг, например, в этом был неуверен.
А можно ли вообще измерить систему, не изменив ее? Эйнштейн и Ко долго спорили по этому поводу с Бором.
Именно поэтому я считаю, что приведенный в статье пример некорректен в разрезе энтропии, как характеристики термодинамической системы.
Кстати, из моего субъективного опыта (2 года преподавания курсантам теории информации), наиболее понятным «простым обывателям» является объяснение понятия энтропии как меры неупорядоченности системы. Правда, я объяснял это только в разрезе теории информации: текстовый файл имеет имеет определенную структуру -> взаимозависимость символов друг от друга большая -> система достаточно упорядоченна -> энтропия алфавита маленька -> коэффициент сжатия большой. Когда мы сожмем файл -> система разупорядочится -> энтропия алфавита увеличится -> символы алфавита сжатого сообщения будут практически независимыми -> сжатое сообщение «нечитаемо». Поэтому «пересжать» сжатое сообщение (zip-нуть jpeg, например) не получится. Как и не получится сжать зашифрованное сообщени, т.к. одна из целей шифрования — сделать сообщение «неупорядоченным, нечитаемым», и, как результат, энтропия этого алфавита возрастает -> сообщение не сжимается (если ваше зашифрованное сообщение сжимается — значит ваша крипто-система никуда не годна).
Этот ток может или открывать или закрывать заслонку.
Это означает, что пройти по каналу больше имеют шансы одни заряды, а противоположные заряды имеют меньше шансов.
Что эта машина делает?
1. Замедляет ионы и разделяет их на положительные и отрицательные.
2. Нарушает Второй Закон Термодинамики
3. Не нарушает закон сохранения энергии
4. Достаточно логичен
Я не говорю, что это возможно, мне интересно, где понятное объяснение, что это не возможно?
Многие ли по честному понимают почему это невозможно?
Ведь можно сказать, «Блин я не знаю возможно это или нет»
Вот закон сохранения энергии это понятно. А энтропия это как схоластика. «Может ли Бог создать камень, который не сможет поднять»
1) а кто будет обратно закрывать заслонку после пролета одной частицы?
потом возник второй:
2) а полностью ли учтено правило Ленца, которое будет препятствовать пролету этой частицы через эту катушку? Даже если учесть, что частице все-таки удалось пролететь скозь катушку и заслонку — за заслонкой энергия этой катушки уже будет меньше, т.к. ее скорость уменьшилась из-за противодействия магнитного поля, вызванного собственным же индукционным током.
за заслонкой энергия этой катушки уже будет меньшеобшибся: не катушки, а заряженной частицы.
Я и написала пункте 1, что замедляет ионы. Это и есть охлаждение
Я видела, визуализации процессов в клетках, и белки и настоящие электромеханические машины.
В природе мы вроде не видим нарушения второго закона термодинамики, поэтому и придумали это закон, но это закон ни чем не доказан, так и сказанно в вики
Второе начало термодинамики является постулатом, не доказываемым в рамках классической термодинамики. Оно было создано на основе обобщения опытных фактов и получило многочисленные экспериментальные подтверждения.
1) а точно ли электронн, летящий параллельно оси катушки наводит в ней ток? для появления тока в катушке необходимо, чтобы менялся магитный поток, проходящий вдоль оси катушки, но если электрон летит вдоль оси катушки — то вдоль этой оси направлен вектор электрического тока E, в то время как вектор B будет перпендикулярен это оси!
На сколько я помню, нельзя вызвать в катушке ток, пропуская ток вдоль ее оси! Для этого нужно пропускать меняющийся магнитный поток Ф
Закон сохранения энергии понятен и прост, мы его логику можем проследить до квантового уровня или даже до уровня струн, но статья началась с того, что энтропию мало кто понимает.
Что энтропия это некая величина не подобная другим объективным величинам (как например энергия или скорость), а хар-щая наше знание о системе. И все равно это наше субъективное знание о системе, накладывает ограничения на объективные процессы.
— Вот мы взяли нагрели газ электротоком. (20 градусов в 50 градусов)
теперь мы не можем охладить и получить электроток обратно, так как наше знание о системе уменьшилось и возрос хаус.!!!
А что мы знали и что мы стали знать? Неужели 20 градусов это более информативно, чем 50 градусов? В каких это единицах? В мегабайтах? Вероятностях?
20 градусов это точно так же информативно для меня как и 50 градусов, значит газ нагревшись до 50 градусов может охладиться до 20 энтропия не изменится. По крайней мере для моего знания о системе.
— Эти все размышления, это не физика, это Ватикан 15 век.
чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему)
просто напомнило
Привет земляку от 603123 :)
Энтропия? Это просто!