Формула нахождения энтропии


  1. ↑ Наглядность, понятность, очевидность и простота есть суждения относительные, зависящее как от обыденности понятия, так и от уровня знаний человека. Крестьяне с детства знали лошадь, и она для них наглядна и понятна. Для теплотехников наглядна и понятна тепловая машина, а не лошадь. В. Томсон как-то на лекции спросил студентов: «Знаете ли вы, кто такой математик?» Написав на аудиторной доске:
    +   e &#x.

    s>

    , Томсон повернулся к студентам и, указывая на эту формулу, сказал: «Математик — тот, для кого это так же очевидно, как для вас то, что дважды два — четыре»[104].

  2. ↑ Описательная характеристика энтропии как термической (тепловой) координаты состояния не отменяет того факта, что в системе Гухмана энтропия входит в число основных неопределяемых понятий теории.
  3. ↑ Вот цитата из статьи К. Трусделла, демонстрирующая совпадение его взглядов с подходом П. А. Жилина: «Я повторяю в течение уже многих лет, пренебрегая насмешками людей, наделённых физической интуицией, что температура и энтропия являются наряду с массой, положением и временем первоначальными неопределяемыми переменными. Они описываются только такими свойствами, которые можно выразить языком математики[111]». Эти воззрения на температуру и энтропию отличаются от тех, которые сейчас принято рассматривать как отличительную особенность «рациональной термодинамике в трактовке школы Трусделла».

  4. ↑ Чтобы дать содержательную дефиницию какому-либо понятию, нужно указать, частным случаем какого более общего понятия оно является. Если более фундаментального понятия не существует, то понятие в конце цепочки дефиниций является неопределяемым — базовым (первичным, исходным, начальным) понятием аксиоматической системы, несводимым к более простым. В любой науке имеются такие первичные понятия, те элементарные кирпичики, из которых строятся все остальные, производные понятия, и которым не даются содержательные дефиниции в самой научной дисциплине. Примерами неопределяемых базовых понятий служат: в математике — множество, в физике — пространство, время, масса, энергия и др. Невозможность дать понятию или переменной содержательной дефиниции без выхода за границы изучаемой дисциплины, во-первых, не означает запрета на использование для базового понятия/переменной описательных дефиниций, и, во-вторых, свойства базовых понятий/переменных описываются аксиомами рассматриваемой теории. Иными словами, набор базовых понятий/переменных научной дисциплины зависит от выбора системы изложения/построения этой дисциплины, а полный набор её аксиом образует систему содержательных дефиниций базовых понятий/переменных теории.

  5. ↑ Слово «почти» служит напоминанием о том, что любую систему построения/изложения термодинамики, в которой энтропия есть понятие вторичное (выводимое из понятий более общих), можно в принципе преобразовать в другую систему — «безэнтропийную термодинамику», — в которой энтропию как понятие необязательное уже не используют.
  6. ↑ В связи со сказанным представляют интерес воспоминания И. К. Кикоина, посещавшего в студенческие годы семинар В. А. Фока и рассказавшего историю про поиск решения сложной задачи по электростатике: «…в конце концов, получили длиннющее дифференциальное уравнение. Оно занимало всю доску. За математическими выкладками мы следили очень внимательно, так что с математикой всё было в порядке, а вот усмотреть физический смысл, скрытый за этой длинной формулой, мы не могли. Кто-то из студентов спросил Владимира Александровича: “А какой физический смысл имеет это уравнение?”. — Он на нас посмотрел с укором и сказал: “А физический смысл этого уравнения заключается в том, что оно имеет решение”»[115].

Источник: ru.wikipedia.org

Энтропия – функция состояния


Для того чтобы выяснить в чем состоит физический смысл энтропии, рассмотрим изотермический процесс и приведенное количество теплоты в этом процессе на очень малом участке этого процесса -$frac{delta Q}{T}$, где $delta Q$ – количество теплоты, которое получает тело, $T$ – температура тела.


Приведенное количество теплоты, которое сообщается телу в любом обратимом круговом процессе:

$oint {frac{delta Q}{T}=0left( 1 right).}$

Равенство нулю левой части выражения (1), который берут по замкн.
80;и состояния системы, которая не зависит от формы пути перехода системы из начального состояния в конечное.

Введем следующее обозначение:

$frac{delta Q}{T}=dSleft( 2 right)$.

Для обратимых процессов изменение энтропии равно нулю:


$Delta S=0left( 3 right)$.

Если выполняется необратимый процесс, то энтропия системы увеличивается:

$Delta S$>$0, left( 4 right)$.

Все реальные процессы являются необратимыми, поэтому в реальности энтропия изолированной системы способна только расти. Она становится максимальной в состоянии термодинамического равновесия.


Неравенство Клаузиуса

Выражения (3) и (4) объединяются в неравенство, которое называется неравенством Клаузиуса:

$Delta Sge left( 5 right)$.

Неравенство Клаузиуса означает, что для замкнутой сист.
086;цесс обратим).

Неравенство Клаузиуса является математической записью второго начала термодинамики.

Знак изменения энтропии указывает направление течения процесса в обратимом процессе.

Во всех ординарных термодинамических системах при стремлении температуры к бесконечности, внутренняя энергия системы безгранично растет. Абсолютная температура при равновесных процессах может только большей нуля, следовательно, если система подвергается нагреву, то:

$dS$>$0.$

При уменьшении температуры системы имеем:

$dS$

Изменение энтропии в равновесном процессе

Допустим, что термодинамическая система совершает равновесный переход из состояния 1 в состояние 2, тогда изменение энтропии найдем как:

$Delta S=S_{2}-S_{1}=intlimits_1^2 {frac{delta Q}{T}=intlimits_1^2{frac{dU+delta A}{T}left( 6 right),} }$

где $dU$ – изменение внутренней энергии в рассматриваемом процессе; $delta A$ – работа, выполняемая в этом процессе.

Выражение (6) способно определить энтропию с точностью до аддитивной константы. Это означает то, что физическим смыслом обладает не энтропия, а ее разность.

$S=intlimits_{обр} {frac{delta Q}{T}+const, left( 7 right).}$

Свойства энтропии

Свойство аддитивности имеют:

  • масса;
  • внутренняя энергия;
  • количество теплоты.

Аддитивными не являются:

  • объем,
  • температура,
  • давление.

Так, при обратимом адиабатном процессе мы имеем:

$delta Q=0to S=const.$

Энтропия однородной термодинамической системы – это функция пары независимых параметров, характеризующих ее состояние, например, $ p,V$ или $ T,V$ при $ m=const$.

В этой связи можно записать, что:

$left( V,T right)=intlimits_0^T {C_{V}frac{dT}{T}+S_{01, }left( 8right).}$

или

$Sleft( p,T right)=intlimits_0^T {C_{p}frac{dT}{T}+S_{02, }left( 9right),}$

где $intlimits_0^T {C_{V}frac{dT}{T},}$ – находят для обратимого изобарного процесса; $intlimits_0^T {C_{p}frac{dT}{T}}$ – вычисляют для обратимого изохорного процесса, при изменении температуры от 0К до $T$; $C_V$ – теплоемкость изохорного процесса; $C_p$ – теплоемкость при изобарном процессе; $S_{01 }=S(V,0)$ ; $S_{02 }=S(p,0).$

Статистический смысл энтропии

Допустим, что энтропия в обратимом процессе претерпевает изменения под воздействием внешних условий, которые оказывают влияние на систему. Механизм действия этих условий на энтропию можно сформулировать так:

  1. Внешние условия определяют микросостояния, которые доступны системе, а также их количество.
  2. В рамках доступных для системы микросостояний, она приходит в состояние равновесия.
  3. Энтропия получает соответствующее значение. Получается, что величина энтропии идет за изменением внешних условий, принимая наибольшую величину, совместимую с внешними условиями.

Глубокий смысл энтропии раскрывается в статистической физике. Энтропия связана с термодинамической вероятностью состояния системы.

Термодинамическая вероятность всегда больше или равна единице.

Энтропия системы и термодинамическая вероятность связаны между собой формулой Больцмана:

$S=k ln⁡(W) (10),$

где $k$ – постоянная Больцмана.

  1. Формула (10) означает, что энтропия определена натуральным логарифмом количества микросостояний, которые реализуют рассматриваемое макросостояние.
  2. Согласно формуле Больцмана, энтропия – это мера вероятности состояния термодинамической системы.
  3. Говорят, что энтропия – мера беспорядка системы. Это статистическая интерпретация энтропии. Большее количество микросостояний, которое осуществляет макросостояние, соответствует большей энтропии.
  4. Если система находится в состоянии термодинамического равновесия, что соответствует наиболее вероятному состоянию системы, количество микросостояний наибольшее, энтропия в этом случае максимальна.
  5. Поскольку при необратимых процессах энтропия увеличивается, при статистическом толковании это значит, процессы в замкнутой системе проходят в направлении роста количества микросостояний. Это означает, что процессы идут от менее вероятных к более вероятным, до достижения вероятностью максимальной величины.

Источник: spravochnick.ru

Изображение взято из открытых источников

Предыдущий урок: Физика для чайников. Урок 14. Уравнение состояния идеального газа

Понятие энтропии я кратко упомянул на уроке Физика для чайников. Урок 13. Что такое температура. Напомню, что энтропия – это мера хаоса. С температурой ее связывает вот эта формула:

Напомню, что dE – это бесконечно малое приращение энергии, а dS – это бесконечно малое приращение энтропии. Таким образом, температура – это скорость изменения энергии в зависимости от энтропии.

Тогда

Что следует из этой формулы? Увеличивая энергию, мы увеличиваем и энтропию. Но увеличение энергии при большой температуре практически не влечет увеличение энтропии, а вот при малой резко увеличивает энтропию. На самом деле не очень понятно. Потому рассмотрим другое определение энтропии, так называемую энтропию Больцмана:

Здесь k – это постоянная Больцмана, равная примерно 1.38*10^-23 Дж/К, ln – так называемый натуральный логарифм (в какую степень надо возвести e, которое примерно равно 2.72, чтобы получить заданное значение). А закорючка – это буква омега, которая обозначает количество возможных микросостояний, которыми можно составить данное макросостояние.

Давайте разберемся, а что такое микросостояние и макросостояние. Давайте представим, что все атомы (молекулы) пронумерованы и помещены в разные виртуальные (воображаемые) ячейки, причем, в одной ячейке может быть несколько частиц (атомов, молекул). Эта воображаемая ячейка – некоторое состояние, которое может принимать частица. Тогда конкретное распределение частиц по ячейкам называется микросостоянием. А вот вся совокупность численных распределений – это макросостояние. Например, ячейки всего лишь две. Частиц – три, с номерами 1,2,3. В одной ячейке одна частица, в другой – две. Сколькими способами они могут быть «перетасованы»? Давайте почитаем: ((1),(2,3)); ((2),(1,3)); ((3),(2,1)) – тремя различными способами. А если частиц четыре, и они поровну распределяться по двум ячейкам? То тут будет уже шесть вариантов (можете посчитать сами).

В реальных системах количество микросостояний может быть очень большим – частиц то много, а еще больше вариантов распределения по состояниям.

Теперь о том, что такое логарифмы. Логарифм – это степень, в которую надо возвести основание, чтобы получить заданное число. Например, логарифм от 1000 по основанию 10 равен 3, пишется это так:

По сути, это означает, что надо число десять три раза умножить на самое себя, чтобы получить тысячу.

Далее, если все равно не понятно, что такое энтропия, давайте разберёмся не с термодинамической, а с информационной энтропией. Суть одно и тоже, мера хаоса, но только в информации. И считается чуть-чуть по-другому:

Кажется, тут формула страшнее? Ничего подобного, это только на первый взгляд. Знак с острыми краями – это сумму. Буквой p – обозначена вероятность того, что система примет состояние с номером i. Знак минус перед суммой потому, что логарифм по основании два от числа меньше единицы отрицательный (а вероятность это значение от 0 до 1).

Давайте разберем несколько примеров. Пусть у нас система может принимать только одно состояние. Тогда:

Логарифм от единицы равен нулю, потому что если любое число возвести в нулевую степень, то получиться единица. В результате у нас получается, что энтропия равна нулю – система абсолютно детерминированная, никакого хаоса нет.

Другой пример. Бросание монеты. Может выпасть или «орел», или «решка». То есть, тут у нас два равновероятных состояний. Посчитаем энтропию:

Теперь допустим, что некий мошенник играет этой монетой на деньги, и немного подпилил ее в целях жульничества. Теперь вероятность выпадения «решки» 0.75, а «орла» 0.25. Посмотрим, как изменилась энтропия:

Как видим, энтропия стала меньше. Мошенник, подпилив монету, уменьшил неопределенность.

Ну, и напоследок, чтобы было более понятно. Посчитаем энтропию у игрового кубика. У него может быть шесть равновероятных состояний, по сути, тут неопределённости больше, чем в случае с монетой. Давайте проверим, так ли это:

Да, энтропия у игральной кости действительно больше

Следующий урок: Физика для чайников. Урок 16. О вечном двигателе, или законы термодинамики

Источник: zen.yandex.ru


You May Also Like

About the Author: admind

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.