С одной стороны, существование «закона сохранения информации» выглядит вполне элегантным — ну есть вот квантовая система, кипит и булькает сама в себе, а кол-во параметров остается постоянным.
А в системах элементарных частиц разве нет необратимых потерь энергии при взаимодействии? Я слабоват в квантовой физике, поэтому хотел бы про это узнать. И кстати, прочитать простое объяснение квантовой энтропии фон Неймана.
*** (можно гипотетически откатить время назад и вернуться в исходную точку) ***
Это так называемый парадокс Лошмидта. Но он применим только к идеальной системе, в которой частицы взаимодействуют жестко. В реальных системах всегда есть вероятность «другого», непредусмотренного данным соотношением сил взаимодействия. Поэтому парадокс Лошмидта в реальности недостижим.
Над этим я тоже размышлял, не сказать, чтобы очень продуктивно, но все же кое-что выложу, о чем думал. Вот предположим, картина масляными красками. Художник заполняет ее мазками так, чтобы краски легли определенным образом. То есть придает системе «холст-краски» определенное состояние, которое даст при отражении света от картины у зрителя восприятие определенного образа (оптической иллюзии). То есть в принципе переход от энтропийной трактовки к содержательной — количественный. Если в теории информации нас интересует некоторый спектр возможных состояний системы, то при содержательной трактовке — только те состояния, которые обладают некоторым уникальным свойством. Их можно называть «состояниями-целями», Они и только они увеличивают вероятность некоторого состояния системы — приемника информации, в идеале — до величины близкой к 1, которое без них практически недостижимо, то есть вероятность его достижения без данной комбинации исчезающе мала (оптическую иллюзию картины могут дать только некоторые уникальные комбинации мазков). Ну вот как-то так.
Вопрос, который интересует и меня. В общем, если связывать с энтропией — энтропия термодинамическая и информационная по сути является мерой вероятности состояния системы. Информация, как величина противоположная информационной энтропии, получается, будет мерой НЕвероятности состояния системы. Чем невероятнее расклад в системе, тем больше требуется бит для ее описания.
Добавление информации в систему — это приведение ее в менее вероятное состояние. Для этого нужны затраты свободной энергии, получаемой извне системы. Связь количества информации со свободной энергией я в учебнике Стратоновича видел. Если система замкнута, то увеличения информации в ней не может происходить, а потери обусловлены неравенством Шеннона.
Необходимо сделать оговорку, что не всегда при наличии изменений информационной энтропии можно увидеть какие-то изменения энтропии термодинамической, и это связано с количеством затраченных на хранение одного бита информации частиц в данной системе. Если это количество измеряется в единицах молекул — то тогда термодинамика очень сильно влияет на хранение и обработку информации (перегрев жесткого диска или процессора, например), если количество сравнимо с числом Авогадро — то тогда термодинамические влияния почти незаметны.
А в системах элементарных частиц разве нет необратимых потерь энергии при взаимодействии? Я слабоват в квантовой физике, поэтому хотел бы про это узнать. И кстати, прочитать простое объяснение квантовой энтропии фон Неймана.
Это так называемый парадокс Лошмидта. Но он применим только к идеальной системе, в которой частицы взаимодействуют жестко. В реальных системах всегда есть вероятность «другого», непредусмотренного данным соотношением сил взаимодействия. Поэтому парадокс Лошмидта в реальности недостижим.
Добавление информации в систему — это приведение ее в менее вероятное состояние. Для этого нужны затраты свободной энергии, получаемой извне системы. Связь количества информации со свободной энергией я в учебнике Стратоновича видел. Если система замкнута, то увеличения информации в ней не может происходить, а потери обусловлены неравенством Шеннона.
Необходимо сделать оговорку, что не всегда при наличии изменений информационной энтропии можно увидеть какие-то изменения энтропии термодинамической, и это связано с количеством затраченных на хранение одного бита информации частиц в данной системе. Если это количество измеряется в единицах молекул — то тогда термодинамика очень сильно влияет на хранение и обработку информации (перегрев жесткого диска или процессора, например), если количество сравнимо с числом Авогадро — то тогда термодинамические влияния почти незаметны.