Как найти энтропию


Понятие Энтропи́и впервые введено в 1865 Р. Клаузиусом в термодинамике для определения меры необратимого рассеяния энергии. Энтропия применяется в разных отраслях науки, в том числе и в теории информации как мера неопределенности какого-либо опыта, испытания, который может иметь разные исходы. Эти определения энтропии имеют глубокую внутреннюю связь. Так на основе представлений об информации можно вывести все важнейшие положения статистической физики. [БЭС. Физика. М: Большая российская энциклопедия, 1998].
Информационная двоичная энтропия для независимых (неравновероятных) случайных событий x с n возможными состояниями (от 1 до n, p — функция вероятности) рассчитывается по формуле Шеннона:

shannon

Эта величина также называется средней энтропией сообщения. Энтр.


дход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки теории информации, которая использует понятие вероятности. Понятие энтропии, как меры случайности, введено Шенноном в его статье «A Mathematical Theory of Communication», опубликованной в двух частях в Bell System Technical Journal в 1948 году.

В случае равновероятных событий (частный случай), когда все варианты равновероятны, остается зависимость только от количества рассматриваемых вариантов и формула Шеннона значительно упрощается и совпадает с формулой Хартли, которая впервые была предложена американским инженером Ральфом Хартли в 1928 году, как один из научных подходов к оценке сообщений:

, где I – количество передаваемой информации, p – вероятность события, N – возможное количество различных (равновероятных) сообщений.

Задание 1. На равновероятные события.
В колоде 36 карт. Какое количество информации содержится в сообщении, что из колоды взята карта с портретом “туз”; “туз пик”?


Вероятность p1 = 4/36 = 1/9, а p2 = 1/36. Используя формулу Хартли имеем:

Ответ: 3.17; 5.17 бит
Заметим (из второго результата), что для кодирования всех карт, необходимо 6 бит.
Из результатов также ясно, что чем меньше вероятность события, тем больше информации оно содержит. (Данное свойство называется монотонностью)

Задание 2. На неравновероятные события
В колоде 36 карт. Из них 12 карт с “портретами”. Поочередно из колоды достается и показывается одна из карт для определения изображен ли на ней портрет. Карта возвращается в колоду. Определить количество информации, передаваемой каждый раз, при показе одной карты.

Ответ: I = 0.91 бита.

Свойство аддитивности информации.
Для независимых справедливо:

Задание 3. На аддитивность.
Документация некоторого учреждения размещена в 4-х комнатах. В каждой комнате находится 16 шкафов. Каждый шкаф имеет 8 полок. Определить количество информации, которое несет сообщение о том, что нужный документ находится в третьей комнате, в тринадцатом шкафу на пятой полке.

Ответ: I = 9 бит.

Источник: inf-w.ru

§ 107. Примеры на вычисление энтропии

Энтропия является функцией состояния. Поэтому она должна зависеть от параметров, определяющих состояние системы. Например, она может быть представлена как функция
Как найти энтропию и Т, либо как функция V и Т и т. д. Допустим, что какое-то тело нагревается при постоянном давлении Как найти энтропию от абсолютного нуля до температуры Т, причем процесс нагрева происходит обратимо. Тогда согласно (103.20) и (87.2) энтропия тела при давлении Как найти энтропию и температуре Т определяется выражением

Как найти энтропию (107.1)

где Как найти энтропию — теплоемкость тела при постоянном давлении, которая является функцией температуры. Аналогично энтропия как функция объема V и температуры Т может быть представлена в виде

Как найти энтропию

где Как найти энтропию — теплоемкость тела при постоянном объеме.

Из формул (107.1) и (107.2) следует, что теплоемкости


Как найти энтропию (а также и теплоемкость при любом другом процессе) обращаются в нуль при абсолютном нуле. Действительно, если бы теплоемкость не стремилась к нулю, то подынтегральная функция при Как найти энтропию неограниченно возрастала бы, вследствие чего интеграл был бы расходящимся (т. е. обращался бы в бесконечность).

1. Энтропия идеального газа. В § 103 было найдено выражение для энтропии одноатомного идеального газа (т. е. газа, у которого Как найти энтропию). Теперь, используя соотношение (103.20), получим выражение для энтропии идеального газа с любыми молекулами. Поскольку энтропия аддитивна, достаточно найти ее значение для моля газа Как найти энтропию. Энтропия произвольного количества газа будет равна Как найти энтропию

Будем характеризовать состояние вещества параметрами V и Т, однако рассматриваемый процесс не будем считать изохорическим. Согласно теореме Нернста и формуле (103.20)

Как найти энтропию (107.3)

где символом (V, Т) обозначено состояние газа (имеется в виду V моля).

Источник: scask.ru


  1. ↑ Наглядность, понятность, очевидность и простота есть суждения относительные, зависящее как от обыденности понятия, так и от уровня знаний человека. Крестьяне с детства знали лошадь, и она для них наглядна и понятна. Для теплотехников наглядна и понятна тепловая машина, а не лошадь. В. Томсон как-то на лекции спросил студентов: «Знаете ли вы, кто такой математик?» Написав на аудиторной доске:
    +   e x 2 d x = π {displaystyle int limits _{-infty }^{+infty } e^{-x^{2}}{mathrm {d} x}={sqrt {pi }}}


    , Томсон повернулся к студентам и, указывая на эту формулу, сказал: «Математик — тот, для кого это так же очевидно, как для вас то, что дважды два — четыре»[104].

  2. ↑ Описательная характеристика энтропии как термической (тепловой) координаты состояния не отменяет того факта, что в системе Гухмана энтропия входит в число основных неопределяемых понятий теории.
  3. ↑ Вот цитата из статьи К. Трусделла, демонстрирующая совпадение его взглядов с подходом П. А. Жилина: «Я повторяю в течение уже многих лет, пренебрегая насмешками людей, наделённых физической интуицией, что температура и энтропия являются наряду с массой, положением и временем первоначальными неопределяемыми переменными. Они описываются только такими свойствами, которые можно выразить языком математики[111]». Эти воззрения на температуру и энтропию отличаются от тех, которые сейчас принято рассматривать как отличительную особенность «рациональной термодинамике в трактовке школы Трусделла».

  4. ↑ Чтобы дать содержательную дефиницию какому-либо понятию, нужно указать, частным случаем какого более общего понятия оно является. Если более фундаментального понятия не существует, то понятие в конце цепочки дефиниций является неопределяемым — базовым (первичным, исходным, начальным) понятием аксиоматической системы, несводимым к более простым. В любой науке имеются такие первичные понятия, те элементарные кирпичики, из которых строятся все остальные, производные понятия, и которым не даются содержательные дефиниции в самой научной дисциплине. Примерами неопределяемых базовых понятий служат: в математике — множество, в физике — пространство, время, масса, энергия и др. Невозможность дать понятию или переменной содержательной дефиниции без выхода за границы изучаемой дисциплины, во-первых, не означает запрета на использование для базового понятия/переменной описательных дефиниций, и, во-вторых, свойства базовых понятий/переменных описываются аксиомами рассматриваемой теории. Иными словами, набор базовых понятий/переменных научной дисциплины зависит от выбора системы изложения/построения этой дисциплины, а полный набор её аксиом образует систему содержательных дефиниций базовых понятий/переменных теории.

  5. ↑ Слово «почти» служит напоминанием о том, что любую систему построения/изложения термодинамики, в которой энтропия есть понятие вторичное (выводимое из понятий более общих), можно в принципе преобразовать в другую систему — «безэнтропийную термодинамику», — в которой энтропию как понятие необязательное уже не используют.
  6. ↑ В связи со сказанным представляют интерес воспоминания И. К. Кикоина, посещавшего в студенческие годы семинар В. А. Фока и рассказавшего историю про поиск решения сложной задачи по электростатике: «…в конце концов, получили длиннющее дифференциальное уравнение. Оно занимало всю доску. За математическими выкладками мы следили очень внимательно, так что с математикой всё было в порядке, а вот усмотреть физический смысл, скрытый за этой длинной формулой, мы не могли. Кто-то из студентов спросил Владимира Александровича: “А какой физический смысл имеет это уравнение?”. — Он на нас посмотрел с укором и сказал: “А физический смысл этого уравнения заключается в том, что оно имеет решение”»[115].

Источник: ru.wikipedia.org


Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What’s an intuitive way to understand entropy?, заданный на сайте Quora

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.
энтропия

Если в двух словах, то

Энтропия — это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.
почтовый индекс
Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые — меньшему, но мы этим пренебрежём).

игральные кости
Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей — вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) — макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).

А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти — 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 — 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

S = log Ω

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.
больцман
Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия — это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа — это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.
газ в сосуде под поршнем
Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

p = ρT

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона — Менделеева pV = νRT — это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации — мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.
кристаллическая стурктура
Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.
нельзя просто так взять и объяснить второй закон термодинамики
Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого — красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача — пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные — справа.
демон максвелла
Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия — это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю — у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе — но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние — и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Источник: habr.com

Энтропией реакции называется изменение энтропии ΔS, сопутствующее превращению реа­гентов в продукты реакции. Энтропию реакции аА + ЬВ = сС + dD рассчитывают по формуле:

ΔS = (cSС + dSD) — (aSA + bSB) (3.1)

где ΔS — энтропия реакции ; S — абсолютные значения энтропий продуктов реакции С и D и реагентов А и В; с, d, a, b — стехиометрические коэффициенты.

Энтропия S — единственная функция состояния, абсолютное значение которой можно оп­ределить для любого состояния системы. Для 1 моля вещества абсолютное значение энтропии опре­деляется по формуле: S = RlnW (3.2) где R = 8,314 Дж/(мольК) — универсальная газовая постоянная; W — термодинамическая вероятность рас­сматриваемого состояния — безразмерная величина.

В термодинамических расчётах обычно определяют стандартные энтропии реакций ΔS0298. Для реакции аА + bВ = сС + dD значение стандартной энтропии рассчитывают по формуле:

ΔS°298 = (cS°298.C + dS°298,D) — (aS0298.А + bS°298,B) (3.3)

где S°298 — табличные значения абсолютных стандартных энтропий соединений в Дж/(моль К) — см. таб­лицу приложения, a ΔS°298 — стандартная энтропия реакции в Дж/К.

Если условия отличаются от стандартных, в практических термодинамических расчётах допуска­ется использование приближения: ΔS ≈ ΔS°298 (3.4) Выражение (3.4) отражает слабую зависимость величины энтропии реакции от условий её проведения.

Пример 3.1. Расчёт энтропии реакции, выраженной уравнением

4NH 3(г) + 5O2 (г) = 4NO(г) + + 6Н2O(г), при давлении 202.6 кПа и температуре 500°С (773К).

Согласно условию, реакция протекает при практически реальных значениях давления и темпе­ратуры, при которых допустимо приближение (3.4), т.е ΔS773 ≈ ΔS0298 . Значение стандартной энтро­пии реакции, рассчитанной по формуле (3.3), равно:

ΔS773 ≈ ΔS0 298 = (4S0298.no + 6S°298.H2O) — (4S0298.nh3 + 5S0298.02) = (4*210,62 + 6*188.74) — (4*192,5 + 5*205,03) = 179,77Дж/К

1* Состояния веществ в уравнениях реакций указываются с помощью буквенных индексов: (к) — кристаллическое, (т) — твёр­дое, (ж) — жидкое, (г) — газообразное, (р) — растворённое.

2* По определению, ΔН0298обр простых веществ равны нулю.

3* ΔH0298обрО2. в формуле не фигурирует ввиду её равенства нулю.

Поскольку энтропия характеризует степень неупорядоченности системы (её хаотичность) знак изменения энтропии (знак ΔS) можно оценить по уравнению реакции. В рассмотренном примере 3.1 увеличение энтропии (ΔS>0) происходит в связи с увеличением числа молей газа: согласно уравне­нию реакции из 9 молей реагирующих газов образуется 10 молей газообразных продуктов.

Источник: studopedia.ru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.