Состояние повышенной энтропии 4 буквы



Энтропия — на самом деле всё просто!

Термином «энтропия» можно охарактеризовать практически все процессы, происходящие в жизни человека, причем не только физические и химические, но и социальные.

Многие не совсем четко понимают значение данного термина, учитывая то обстоятельство, что теория является достаточно сложной для восприятия, однако если в качестве примеров привести некоторые жизненные ситуации, то многогранное понятие «энтропия», являющееся достаточно многогранным, становится уже не таким сложным.

История появления термина

Энтропия была введена в качестве определения состояния системы в 1965 году, немецким физиком Рудольфом Клаузисом, и применялась, прежде всего, с целью описания способности превращения тепла в иные формы энергии. В термодинамике при помощи понятия «энтропия» описывают состояние термодинамических систем. В течение достаточно длительного времени термин использовался исключительно в термодинамике, для которой изначально и вводился, однако со временем энтропия стала перетекать и в другие сферы и теории.


Само понятие «энтропия» происходит от греческого «поворот» или «превращение», часто употребляясь в естественных и точных науках, в то время как в статистической физике данный термин характеризует степень вероятности осуществления того или иного макроскопического состояния. Достаточно широко понятие энтропии используется применительно к теории информации и математической статистике.

Виды энтропий

В термодинамике

Основной постулат физической химии о равновесии заключается в том, что любая термодинамическая система, находящаяся в изолированном состоянии, через определенный промежуток времени приходит в равновесное состояние, причем самопроизвольно выйти из него не может. Если проще, то под энтропией, в данном случае, следует понимать своеобразную меру беспорядка, определить который можно при помощи приписывания каждому состоянию определенного количества вариантов, используя которые данное состояние можно реализовать.

Стоит отметить, что чем больше подобных способов реализации, тем большее значение получает энтропия, в то время как чем более организованным является вещество, тем меньшей является его хаотичность. Абсолютное значение энтропии равняется изменению энергии, имеющейся у вещества или системы, во время теплопередачи при данной температуре.


В экономике

В данном случае имеет место коэффициент энтропии, с помощью которого проводится анализ изменения концентрации рынка и уровень данной концентрации. Высокое значение коэффициента говорит о высоком уровне экономической неопределенности, в связи с чем вероятность появления монополии минимизируется. Подобный коэффициент дает возможность оценить выгоды, приобретенные фирмой в результате осуществления вероятной монопольной деятельности, либо при изменении степени концентрации рынка.

В теории информации

Под информационной энтропией подразумевается своеобразная мера непредсказуемости, либо неопределенности некоторой системы, что дает возможность определить степень беспорядочности события. В данном случае процессы упорядочивания системы вызывают появление новых данных, что автоматически приводит к снижению информационной неопределенности. Информационная непредсказуемость позволяет определить именно ту пропускную способность канала, которая обеспечит передачу информации самым надежным образом, в системе закодированных символов.

Кроме того, можно осуществить частичное предсказание хода события, деля его на составные части и вычисляя значение неопределенности для каждой из них. С помощью подобного метода, позволяющего выявить вероятность события, можно провести дешифровку закодированного текста, при этом уделяя особое внимание анализу показателя энтропии символов. Выделяется такое понятие, как абсолютная энтропия языка, что означает максимальное количество информации, возможное к передаче в единице данного языка, причем за единицу берется символ алфавита языка – бит.


В социологии

В данном случае под энтропией, или информационной неопределенностью, подразумевается характеристика отклонения социума, либо его отдельных звеньев, от состояния, которое принято считать эталонным, что проявляется в снижении эффективности функционирования системы и падении уровня самоорганизации.

В качестве примера можно привести предприятие, сотрудники которого загружены выполнением отчетов до такой степени, что им просто некогда заниматься своей основной деятельностью, связанной с проведением проверок. В данном случае, именно информационная неопределенность является своеобразной мерой нецелесообразного использования рабочих ресурсов.

Энтропия в тезисах и примерах

Увеличение способов реализации приводит к возрастанию информационной неопределенности.

  1. Программа Т9 действует таким образом, что если в слове будет достаточно небольшое количество опечаток, то оно будет распознано, после чего программа предложит замену. Увеличение ошибок, а значит беспорядка, приведет к тому, что резко возрастет уровень информационной неопределенности, в результате чего программа получить меньше информации о вводимом слове.
  2. Выкинуть при помощи игральных костей комбинацию 2 или 12 можно только одним способом, 1+1 и 6+6, в то время как максимальное число способов получается для числа семь, когда имеет место шесть возможных комбинаций. В данном случае, наибольшей непредсказуемостью реализации обладает число семь.

  3. В жидком состоянии вода обладает большей энтропией, чем в твердом, так как в жидком состоянии атомы находятся в состоянии беспорядка, в то время как в кристаллическом твердом теле каждый атом находится на своем месте, занимая определенный порядковый номер в кристаллической решетке. Минимальным значением энтропии, по сравнению с другими кристаллами, обладает белый алмаз без каких-либо примесей.

Взаимосвязь информации и неопределенности

  • В сосуде, который имеет как левую, так и правую часть, располагается молекула, причем если изначально неизвестно, где именно она находится, то для определения энтропии потребуется число способов реализации умножить на количество частей сосуда, причем в данном случае информация будет равняться нулю. Таким образом, при повышении количества информации, уровень информационной неопределенности снижается.
  • Порядок на рабочем столе позволяет максимально оперативно получить информацию о вещах, которые на нем находятся, причем упорядоченность предметов, в данном случае, способствует снижению энтропии системы.
  • Во время урока информация о классе повышается, в то время как во время перемены наступает снижение, причиной чего является тот факт, что хаотичное перемещение учащихся во время перемены резко повышает их энтропию, в то время как во время урока школьники сидят упорядоченно.

  • В момент реакции щелочного металла с водой начинает выделяться водород, причем учитывая то обстоятельство, что данный элемент является газом, а молекулы газа, движущиеся хаотично, обладают высокой степенью энтропии, реакция будет протекать с увеличением значения, что приведет к повышению энтропии химической системы.

Демон Максвела

Для того, чтобы подвести окончательный итог, уделим немного внимания решению парадигмы парадокса демона Максвела. Суть данного парадокса заключается в том, чтобы, имея перемешанные газы, состоящие из красных и синих молекул, поставить перегородку и, проделав в ней отверстие, посадить возле него воображаемого демона, задача которого заключается в пропуске слева направо исключительно красных молекул, в то время как в обратном направлении могут двигаться только синие. Естественно, что спустя некоторое время, газы вновь окажутся разделенными, что является показателем снижения энтропии, при этом с демоном ничего не произошло, его энтропия осталась на прежнем уровне, в то время как система носила закрытый характер.

Таким образом, можно подумать, что в данном примере не выполняется второй закон термодинамики, однако подобный парадокс решается достаточно просто, учитывая то обстоятельство, что энтропия является свойством нашего знания непосредственно о системе, а не выступает свойством самой системы. Мы знаем о системе слишком мало, в связи с чем может показаться, что энтропия уменьшается, в то время как демон обладает совсем иным уровнем информации. Он знает о системе практически все, так как для того, чтобы разделять молекулы, он должен, как минимум, обладать информацией относительно скорости каждой из них, равно как и местоположении, а раз он знает о молекулах достаточно много, энтропия системы, с точки зрения демона, равна нулю.


Энтропия системы, изначально равная нулю, осталась на прежнем уровне, в результате чего нарушения второго закона термодинамики не произошло. Но даже в том случае, если демон не обладает информацией и микросостоянии системы, цвет молекулы он знать должен, чтобы иметь четкое представление о том, стоит ее пропускать, или нет. Таким образом, если взять общее число молекул за X, то демон должен обладать X бит информации о системе, а именно это количество информации было потеряно в момент открытия перегородки. Количество потерянной информации, в данном случае, равняется количеству информации, которую требуется получить, с целью возвращения в исходное состояние, что вполне логично.

Заключение

Можно сказать, что энтропия представляет собой своеобразную меру беспорядка, либо неопределенности, причем как системы в целом, так и ее частей. Наибольший интерес представляет тот факт, что в то время, как в природе превалирует стремление к максимальной энтропии, человек настроен на максимум информации. Представленные теории направлены на установление четкого баланса между устремлениями человека и природными процессами, носящими естественный характер.

Источник: promdevelop.ru


  • камень, блестящий, как черные глаза
  • любимый камень великого античного резчика Дексамена Хиосского
  • минерал, полудрагоценный поделочный камень
  • полосатый халцедон
  • полудрагоценный камень, который, как считается, спасает от сглаза, ядов, дает долголетие и здоровья
  • твердый слоистый минерал, разновидность халцедона
  • халцедон, самоцвет
  • оникс
  • природный сплав кварца и яшмы
  • минерал, вид кварца
  • разновидность халцедона
  • минерал, способный раскалываться по ровным плоскостям
  • этому камню А. С. Пушкин посвятил стихотворения «Талисман», «Сожженное письмо», «Храни меня мой талисман»
  • этот камень Шота Руставели в «Витязе в тигровой шкуре» упомянул аж 30 раз, видимо сравнивая его с самой тигровой шкурой
  • этот минерал первоначально был обнаружен на берегу реки на Сицилии (по-гречески «Achates»), откуда и получил свое название
  • исполосованный халцедон
  • какой камень покровительствует родившимся под знаком Близнецов?
  • какой камень символизирует здоровье и долголетие?
  • минерал, полудрагоценный поделочный камень, халцедон, самоцвет
  • камень для поделок

  • оникс, халцедон
  • оникс и халцедон
  • халцедон или сардоникс
  • ценный камень
  • камень-противоядие
  • полудрагоценный камень
  • халцедон
  • поделочный камень
  • камень против вампиров
  • самоцвет, камень
  • камень, символ долголетия
  • камень, символ здоровья
  • камень благоразумия
  • самоцвет
  • халцедон и сардоникс
  • шрифт с кеглем 5,5 пунктов
  • моховой или бастионный камень
  • голубовато-серый камень
  • самоцвет имени писательницы Кристи
  • камень для украшений
  • минерал
  • поделочный камень для украшений
  • голубоватосерый камень
  • вид самоцвета
  • ювелирный слоистый минерал
  • «детективный» поделочный камень
  • камень, годящийся Близнецам
  • ювелирный минерал с красивыми разводами
  • минерал, самоцвет
  • ценный твердый минерал
  • ювелирный камень, талисман Близнецов
  • первая серийная ЭВМ в СССР
  • ювелирный камень для Близнецов
  • какой камень дарует долголетие?
  • самоцвет для писательницы Кристи
  • камень, покровитель Близнецов
  • халцедон-«зебра»
  • самоцвет от сглаза
  • советский фотоаппарат
  • камень в имени Кристи
  • слоистый минерал
  • ювелирный камень
  • камень, бусы из которого найдены близ Алушты в гробницах 5 века до н. э.
  • какой камень в перстне Плиния старшего даровал ему красноречие?

  • ювелирный минерал
  • драгоценный камень
  • самоцветный камень
  • камень для тельцов
  • самоцвет благоразумия
  • старший брат оникса
  • самоцвет Тельца
  • камень, оникс
  • ювелирн. камень, талисман Близнецов
  • разноцвет. слоистый ювелирный минерал
  • камень, что есть в женском имени
  • Полосатый полудрагоценный камень
  • Минерал, разновидность халцедона, полудрагоценный камень
  • «Детективный» поделочный камень
  • какой камень в перстне Плиния старшего даровал ему красноречие
  • какой камень дарует долголетие
  • какой камень покровительствует родившимся под знаком Близнецов
  • какой камень символизирует здоровье и долголетие
  • камень, бусы из которого найдены близ Алушты в гробницах 5 века до н. э
  • м. камень разных цветов и оттенков, природный сплав кварца и яшмы, сердолика, халцедона и пр.; агатный, более употреб. агатовый, из него сделанный, к нему относящийся
  • халцедон и оникс
  • халцедон-«зебра»
  • этому камню А. С. Пушкин посвятил стихотворения «Талисман», «Сожженное письмо», «Храни меня мой талисман»
  • этот камень Шота Руставели в «Витязе в тигровой шкуре» упомянул аж 30 раз, видимо сравнивая его с самой тигровой шкурой
  • этот минерал первоначально был обнаружен на берегу реки на Сицилии (по-гречески «Achates»), откуда и получил свое название

Источник: loopy.ru

Многие из нас наверняка слышали слово «энтропия», а некоторые из этих многих наверняка знают, что оно как-то связано с хаотичностью, беспорядком. Тем не менее, физический смысл этого понятия довольно сложен для понимания обывателем, так как плотно связан с термодинамикой.

Объяснять, что такое энтропия на пальцах – занятие неблагодарное. Обязательно найдутся те, кто усмотрит в этом объяснении неточности и натяжки. Получается, что значение этого слова может быть понятно только физикам, изучившим труды Рудольфа Клаузиуса и Людвига Больцмана? Пусть так, но попытка – не пытка, обычные люди, интересующиеся наукой, тоже имеют право понимать хотя бы в общих чертах значение этого слова.

Если объяснять на пальцах, без всяких заумностей, с бытовыми примерами, то можно сказать, что энтропия – это мера хаотичности в замкнутой системе. Чем более равномерно распределены вещи в пространстве, тем больше энтропия.

Мы бросаем в стакан с кипятком кусок сахара – и энтропия этого состояния предельно мала. Но вот сахар растворился в воде, и его молекулы равномерно распределились по всему замкнутому объему стакана – и энтропия стала огромной.

Так как энтропия – эта мера хаоса, то ее можно измерить. Скажем, жена ругает мужа за разбросанные по комнате носки. Муж каждый раз разбрасывает свои носки по-разному, и не бывает такого, чтобы носок лежал на том же месте, что и вчера – по сути, абсолютно точное местоположение носка вообще никогда в жизни не повторяется.

Если мы попробуем подсчитать количество возможных состояний носков, то выясним, что это число (энтропия) стремится к бесконечности. В то же время, носки, лежащие стопкой на своем месте в шкафу, имеют небольшую энтропию, определяемую только порядком следования носков в стопке. То есть, энтропия, по сути, является количеством пронумерованных состояний системы.

Любая изолированная система, будь то колба с газом или наша Вселенная, стремится к большой энтропии. Второе начало термодинамики гласит, что в изолированной системе самопроизвольно могут протекать только такие процессы, которые ведут к увеличению энтропии, то есть, к неупорядоченности системы.

Например, если мы в пустую колбу внесем некоторое количество газа, то вряд ли все молекулы газа соберутся у одной стенки или в центре (хотя чисто теоретически это возможно). Газ будет равномерно распределен по всему объему системы. Кстати, у братьев Стругацких в повести «Стажеры» есть прекрасная иллюстрация этого понятия в главе «Рассказ о гигантской флуктуации».

Обычно энтропия растет до больших значений – таким образом замкнутая система ищет состояние своего равновесия. И это можно наблюдать на всех уровнях – от микроскопических до макроскопических. В общем смысле всё вокруг нас стремится к хаосу – здания рушатся, люди умирают, горы разрушаются, умирают звезды и планетные системы. И эта энтропия самопроизвольно уменьшиться не может. Для уменьшения ее необходимо приложить энергию, которая будет потрачена на приведение системы в порядок. Но как только мы перестанем прикладывать энергию, энтропия начнет расти и хаос снова увеличится.

Из закона увеличения энтропии следует вывод и о неизбежной тепловой смерти Вселенной – со временем все звезды потухнут, и вся Вселенная станет темной и холодной. Но это не точно, ибо о Вселенной известно пока слишком мало.

Источник: zen.yandex.ru

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What’s an intuitive way to understand entropy?, заданный на сайте Quora

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.
энтропия

Если в двух словах, то

Энтропия — это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.
почтовый индекс
Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые — меньшему, но мы этим пренебрежём).
игральные кости
Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей — вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) — макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).

А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти — 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 — 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

S = log Ω

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.
больцман
Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия — это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа — это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.
газ в сосуде под поршнем
Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

p = ρT

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона — Менделеева pV = νRT — это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации — мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.
кристаллическая стурктура
Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.
нельзя просто так взять и объяснить второй закон термодинамики
Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого — красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача — пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные — справа.
демон максвелла
Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия — это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю — у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе — но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние — и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Источник: habr.com


You May Also Like

About the Author: admind

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.