Энтропия это функция состояния


Энтропия (от др. греч. entropia — «поворот к» / «трансформация») — это мера хаоса, беспорядка или неопределённости в какой-то системе. Существует теория, что всё в мире идёт от порядка в сторону беспорядка, и энтропия измеряет эти изменения.

Пример энтропии — таяние льда в воде. В это время будет увеличиваться энтропия — это происходит когда идёт изменение от сформированного состояния к свободному, т. е. от упорядоченного к неупорядоченному.

Единица измерения энтропии называется энтропийной единицей — Дж/К, ккал/К.

Формула энтропии

Существует несколько вариантов формулы энтропии. Одна из них:

Формула Энтропия
«S» — мера энтропии;
«Q» — мера тепла;
«Т» — температура системы (в градусах Кельвина).

Энтропия в физике


Простыми словами энтропия — это мера распределения энергии. Когда энтропия высокая — энергия распределена, когда низкая — энергия сконцентрирована.

Энтропия в термодинамике

Энтропия — это термодинамическое количество, которое показывает сколько энергии в системе, которая уже не доступна для выполнения механической работы.

Энтропия Вселенной

Во втором законе термодинамики говорится, что в спонтанном процессе общая энтропия Вселенной постоянно увеличивается; это означает, что она становится более неупорядоченной, хаотичной.

Энтропия идеального газа

Энтропия идеального газа

Энтропия идеального газа

Энтропия идеального газа

Энтропия идеального газа

Энтропия системы

Энтропия — это мера случайной активности в системе, мера тепловой энергии системы на единицу температуры, которая недоступна для выполнения полезной работы.

Количество энтропии — это ещё и мера молекулярного беспорядка или случайности системы.

Эту концепцию открыл немецкий физик Рудольф Юлиус Эмануэль Клаузиус в 1850 году.

Энтропия в химии


Энтропия — функция состояния каждого вещества. Энтропия веществ меняется когда происходит химическая реакция. Это изменение энтропии веществ (ΔS) называется «энтропия реакции» или «изменение энтропии в процессе».

Это включает все вещества в реакции, и указывает на состояние системы, а то, как это состояние было достигнуто игнорируется.

Чем выше степень неупорядоченности системы, тем выше энтропия системы.

Разница между энтальпией и энтропией

Простыми словами, энтропия — это мера количества случайности или беспорядка в системе, т. е. мера случайной активности в системе. В то время как энтальпия — это мера общего количества энергии в системе.

Смотрите также, что такое Полимер.

Источник: www.uznaychtotakoe.ru

Термодинамика, основы которой должны быть известны каждому ученику, наука занятная. Самым занятным для многих был вопрос — почему у термодинамики есть целых 2 начала и ни одного конца? Если с первыми 2 началами термодинамики особых непонятностей нет, то 3 вызывает немало споров даже в кругу ученых.

Источник изображения: coco02.net

Для 3 начала термодинамики имеется множество формулировок — автору статьи известно 9, и он полагает наиболее доступной формулировку в виде тепловой теоремы Нернста. Она гласит — "Абсолютный нуль недостижим". Однако в большинство учебников общей физики вошла иная формулировка — "Энтропия замкнутой системы нарастает".

Здесь сразу начинаются проблемы — понять, что есть энтропия реально сложно. Впервые понятие энтропии ввел германский физик Рудольф Клаузиус. С помощью этой функции он описывал возможность тепла преобразовываться в иные виды энергии. Длительное время термин «энтропия» применялся исключительно в физике, позднее он перешел и в прочие науки.

Энтропия в физике

Согласно термодинамике, всякая замкнутая система стремится достичь равновесного состояния — это значит перейти в положение, когда нет никакого излучения энергии или ее перехода из одного состояния в другое. Выйти из такого состояния невозможно и она характеризуется максимальным уровнем беспорядка. Таким образом — энтропия мера беспорядка. Чем он выше, тем больше и значение энтропии. Чем сложнее организована структура вещества, тем меньше уровень энтропии и выше вероятность ее распада.


Источник изображения: gutuka.co.ke

Например, Останкинская телевышка весьма сложная структура, она стремится к упрощению. Если за ней не смотреть и не ремонтировать, то через определенный промежуток времени конструкция телевышки развалится на составляющие части. Беспорядок сооружения, а следовательно и энтропия, увеличатся.

Еще одним способом подачи энтропии в физике является ее определение, как разность между идеальным процессом, описываемым формулами, и процессом реальным. Чтобы не усложнять статью рассмотрим это явление на простом примере.

Человек ставит свой мобильный телефон на зарядку. Идеальным будет вариант, когда вся полученная электрическая энергия перейдет в химическую энергию аккумулятора, который затем снова будет преобразовывать ее в электроэнергию необходимую для питания сотового. На самом деле, все далеко не так — часть энергии полученной из электросети необратимо тратится на нагрев блока питания, проводов и самого аккумулятора. В этом несложно убедиться, прикоснувшись к блоку питания или телефону в процессе подзарядки — они будут теплые. Энергия, преобразовавшаяся в тепло, и есть в данной ситуации энтропия.


Самые распространенные формулировки энтропии в физике

Многие известные физики пытались доступным для простых людей объяснить понятие энтропии. Выделим 3 наиболее известные формулировки объяснения.

Утверждение Клаузиуса

Нагрев тела с более высокой температурой невозможен посредством тела с более низкой температурой.

Источник изображения:pixabay.com

На примере это выглядит так — поставить чайник с водой на кусок льда можно (априори температура воды выше температуры льда), но дождаться, что вода закипит не получится. Хотя первые 2 начала термодинамики не отрицают подобной возможности.

Формулировка Томсона

В замкнутой системе невозможен процесс, единственным результатом которого была бы работа, совершаемая за счет тепловой энергии полученной от какого-либо тела.


Подобный вариант формулировки означает, что вечный двигатель построить в принципе невозможно.

Утверждение Больцмана

Уменьшение энтропии в замкнутой системе невозможно.

Эта формулировка вызывает множество споров, хотя интуитивно все понятно. В заброшенном жилище будет нарастать хаос — осядет пыль, некоторые вещи развалятся. Навести порядок можно, но только приложив внешнюю энергию, то есть работу уборщика.

Проблема в том, что Вселенная в современных представлениях является замкнутой системой. Образовалась она где-то 14-15 миллиардов лет назад. За это время ее энтропия привела бы к тому, что галактики распались, звезды погасли и никаких новых звезд не появилось бы в принципе. А ведь нашему Солнцу не больше 5 миллиардов лет, да и Вселенная в целом не пришла в состояние хаоса.

Источник изображения: pikby.com

Следовательно, Вселенная получает подпитку энергией извне. Вот только откуда?


Энтропия в химии

Источник изображения: freepng.com

Многие химические процессы являются необратимыми и происходят с выбросом энергии. Например взрыв при сотрясении нитроглицерина никого не удивляет — это и есть химическая реакция сопровождаемая резким увеличением энтропии.

Экономика и энтропия

Специалистам в экономике известно понятие коэффициент энтропии. Этот коэффициент показывает изменение уровня концентрации рынка и возможность появления монополий. С ростом этого показателя вероятность захвата рынка монополистами снижается. Этот коэффициент помогает определить выгоды монопольной деятельности в том или ином сегменте рынка.

Энтропия и социология

Под энтропией в социологии полагают информационную неопределенность, которая характеризуется отклонением системы (социума), или ее частей (звеньев), от идеального (эталонного) состояния.

Источник изображения: istockphoto.com

Пример можно взять следующий — некая организация занимается проверкой деятельности других организаций. За проверкой следует составление отчета. Если руководство требует очень подробные отчеты, то наступает момент, когда почти все время сотрудников уходит на составление этих самых отчетов. Время расходуемое на основную деятельность сотрудников (собственно проверки) становится недопустимо малым. Это положение характеризуется высоким состоянием информационной неопределенности (энтропии). Руководство в такой ситуации обязано принять меры по упрощению отчетности.

Если вам понравилась статья, то поставьте лайк и подпишитесь на канал Научпоп. Наука для всех. Оставайтесь с нами, друзья! Впереди ждёт много интересного!

Источник: zen.yandex.ru


Рассмотрим равенство Клаузиуса (138). Ему можно дать следующую словесную формулировку: приведенное количество тепла, полученное системой при любом обратимом круговом процессе, равно нулю.Это означает, чтоприведенное количество тепла, полученное системой при обратимом не круговом процессе, не зависит от пути перехода от одного состояния к другому, а определяется лишь начальным и конечным состояниями.

Это означает, что можно определить некоторую величину, которая является функцией состояния и изменение которой при некотором обратимом процессе равна сумме приведенных теплот. Обозначим эту величину буквой S. Пусть SA – значение этой величины в состоянии A, SB – значение этой величины в состоянии B. Тогда:

Энтропия это функция состояния . (141)

Равенство (141) позволяет определить не абсолютное значение функции, соответствующее данному состоянию, а лишь ее изменение при переходе от одного состояния к другому. Но, как всегда в таких случаях делается, можно выбрать некоторое состояние, которому приписывается значение S, равное нулю, и сравнивать с ним все прочие состояния. Поэтому в дальнейшем будем считать, что именно функция S равна интегралу (139):

Энтропия это функция состояния . (142)

Определенная таким образом величина S называется энтропией.На практике всегда требуется знать не саму величину S, а только ее изменение при изменении состояния системы. Поэтому безразлично, какому именно состоянию приписать нулевую энтропию. Принято, что энтропия равна нулю при абсолютном нуле температуры.


Значит, для нахождения энтропии системы в данном состоянии надо перевести систему (это можно сделать мысленно) из этого состояния в нулевое состояние каким-либо обратимым путем (безразлично, каким именно) и найти значение Энтропия это функция состояния вдоль этого пути. Разумеется, сама энтропия системы совершенно не зависит от того, будет ли в действительности совершен этот обратимый процесс или нет.

То же касается изменения энтропии. Чтобы определить разность значений энтропии системы в двух ее состояниях (равновесных) А и В, нужно перевести систему каким-нибудьобратимым процессом из состояния А в состояние В и вычислить изменение энтропии согласно формуле (141).

Изменение энтропии системы, которой сообщено бесконечно малое количество тепла δQ, равно

Энтропия это функция состояния . (143)

Величина δQ не является дифференциалом какой бы то ни было функции. Однако согласно формуле (143) если δQ есть элементарное количество тепла, квазистатически полученное системой, то после деления на Т оно переходит в полный дифференциал функции состояния – энтропии. Величина, обратная температуре, здесь играет роль интегрирующего множителя.

Таким образом, энтропию можно определить как функцию, полным дифференциалом которой является приведенная теплота при элементарном процессе.

Энтропия (S)скалярная физическая величина, являющаяся функцией состояния системы, элементарное изменение которой при обратимом переходе системы из одного состояния в другое определяется соотношением (143).

Используя понятие энтропии, первое начало термодинамики δQ = dU + δA можно переписать в виде:

TdS = dU + δA (144)

Это уравнение носит название термодинамического тождества. Его часто называют вторым началом термодинамики для обратимых процессов.

Собственно, второе начало термодинамики для обратимых процессов заключается в том, что система может быть охарактеризована функцией состояния — энтропией, определяемой уравнениями (143) или (144).

Источник: studopedia.ru

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What’s an intuitive way to understand entropy?, заданный на сайте Quora

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.
энтропия

Если в двух словах, то

Энтропия — это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.
почтовый индекс
Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые — меньшему, но мы этим пренебрежём).
игральные кости
Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей — вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) — макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).

А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти — 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 — 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

S = log Ω

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.
больцман
Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия — это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа — это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.
газ в сосуде под поршнем
Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

p = ρT

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона — Менделеева pV = νRT — это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации — мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.
кристаллическая стурктура
Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.
нельзя просто так взять и объяснить второй закон термодинамики
Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого — красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача — пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные — справа.
демон максвелла
Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия — это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю — у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе — но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние — и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Источник: habr.com


You May Also Like

About the Author: admind

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.