Начала термодинамики, энтропия и информация
Статистическая интерпретация энтропии. Развитие теории информации и изучение энтропии. Использование меры количества информации и анализ общих механизмов информационно-энтропийных взаимодействий. Метод Шеннона для измерения количества информации.
Рубрика | Физика и энергетика |
Вид | реферат |
Язык | русский |
Дата добавления | 08.08.2009 |
Размер файла | 85,9 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
2
Содержание
Введение
1. Начала термодинамики
1.1. Основы термодинамики
1.2. Статистическая интерпретация энтропии
2. Энтропия и информация
1.3. Развитие теории информации и изучение энтропии
1.4. Что измерил Клод Шеннон
Заключение
Введение
Понятие энтропии было введено Р. Клаузиусом, сформулировавшим второе начало термодинамики, согласно которому переход теплоты от более холодного тела к более теплому не может происходить без затраты внешней работы.
Позднее Р. Больцман дал статистическую трактовку энтропии через вероятность нахождения молекул идеального газа в некоторой фиксированной ячейке фазового пространства. В этой трактовке, ставшей для нас привычной, понятие энтропии играет существенную роль как своеобразная мера упорядоченности физической системы.
Сам факт, что изучение порядка оказывается возможным в терминах случайных событий, весьма любопытен с методологической точки зрения.
В самом деле, с понятием порядка, упорядоченности связывают обычно наличие строгой закономерности в расположении элементов системы, жесткой детерминации отношений и связей между ними. Порядок исключает хаос.
Но вот оказывается, что упорядоченность можно оценить и измерить лишь при условии, что система будет описываться как статистический объект, в котором допускаются хаос и неразбериха. Другими словами, порядок предполагает хаос.
Глубокая связь между понятиями порядка и хаоса, организации и дезорганизации послужила сильнейшим стимулом к проведению целого ряда серьезных исследований понятия энтропии и ее роли как в области физических явлений, так и в мире живой природы.
Энтропия характеризует определенную направленность процесса в замкнутой системе. В соответствии со вторым началом термодинамики возрастанию энтропии соответствует направление теплового потока от более горячего тела к менее горячему.
Непрерывное возрастание энтропии в замкнутой системе происходит до тех пор, пока температура не выровняется по всему объему системы. Наступает, как говорят, термодинамическое равновесие системы, при котором исчезают направленные тепловые потоки и система становится однородной.
1. Начала термодинамики
Первое начало термодинамики утверждает, что при превращении одной формы энергии в другую полная энергия системы не изменяется, однако не указывает никаких ограничений относительно возможности этого процесса. Поэтому первое начало термодинамики позволяет рассчитать энергетический эффект процесса, однако не дает ответа на вопросы о том, будет ли процесс протекать самопроизвольно, о направлении и глубине протекания процесса.
Самопроизвольный процесс - процесс, который может протекать без затраты работы извне, причем в результате может быть получена работа в количестве, пропорциональном произошедшему изменению состояния системы. Самопроизвольный процесс может протекать или обратимо, или необратимо. Хотя определение обратимого процесса уже приводилось, следует подробнее рассмотреть это понятие. Чтобы самопроизвольный процесс протекал обратимо, необходимо приложить извне такое сопротивление, чтобы переход был очень медленным и при бесконечно малом изменении противодействующей силы процесс мог пойти в обратном направлении. В случае обратимо происходящего изменения состояния системы производится максимальное количество работы. Всякий реальный процесс в какой-то степени является необратимым, и получаемая работа меньше максимально возможного теоретического количества.
Вынужденный процесс - процесс, для протекания которого требуется затрата работы извне в количестве, пропорциональном производимому изменению состояния системы.
Второе начало термодинамики дает возможность определить, какой из процессов будет протекать самопроизвольно, какое количество работы может быть при этом получено, каков предел самопроизвольного течения процесса. Далее, второе начало термодинамики дает возможность определить, какими должны быть условия, чтобы нужный процесс протекал в необходимом направлении и в требуемой степени, что особенно важно для решения различных задач прикладного характера. Подобно первому, второе начало термодинамики выведено непосредственно из опыта. В то же время второе начало термодинамики имеет ограниченную область применения: оно применимо лишь к макроскопическим системам. Формулировки второго начала термодинамики:
Теплота не может самопроизвольно переходить от менее нагретого тела к более нагретому. Невозможен процесс, единственным результатом которого является превращение теплоты в работу.
Невозможно построить машину, все действия которой сводились бы к производству работы за счет охлаждения теплового источника (вечный двигатель второго рода). Рассмотрим работу тепловой машины, т.е. машины, производящей работу за счет теплоты, поглощаемой от какого-либо тела, называемого нагревателем. Нагреватель с температурой Т1 передает теплоту Q1 рабочему телу, например, идеальному газу, совершающему работу расширения А; чтобы вернуться в исходное состояние, рабочее тело должно передать телу, имеющему более низкую температуру Т2 (холодильнику), некоторое количество теплоты Q2, причем
(1.1)
Отношение работы А, совершенной тепловой машиной, к количеству теплоты Q1, полученному от нагревателя, называется термодинамическим коэффициентом полезного действия (КПД) машины з:
(1.2)
Рис 1.1. Схема тепловой машины
Для получения математического выражения второго начала термодинамики рассмотрим работу идеальной тепловой машины (машины, обратимо работающей без трения и потерь тепла; рабочее тело - идеальный газ). Работа машины основана на принципе обратимого циклического процесса - термодинамического цикла Карно (рис. 1.2).
Рис. 1.2. Цикл Карно.
Запишем выражения для работы на всех участках цикла:
Участок 1 - 2: Изотермическое расширение.
(1.3)
Участок 2 - 3: Адиабатическое расширение.
(1.4)
Участок 3 - 4: Изотермическое сжатие.
(1.5)
Участок 4 - 1: Адиабатическое сжатие.
(1.6)
Общая работа в цикле равна сумме работ на всех участках:
(1.7)
Проведя ряд несложных преобразований, получим для КПД идеальной тепловой машины, работающей по циклу Карно:
(1.8)
Т.о., максимальный КПД тепловой машины не зависит от природы рабочего тела, а определяется только разностью температур нагревателя и холодильника. Очевидно, что без перепада температур превращение теплоты в работу невозможно. Полученное выражение справедливо для тепловой машины, обратимо работающей по любому циклу, поскольку любой цикл можно разбить на множество бесконечно малых циклов Карно.
Для необратимо работающей тепловой машины уравнение (1.8) преобразуется в неравенство:
(1.9)
Для общего случая можем записать:
(1.10)
На основе анализа работы идеальной тепловой машины Карно можно сделать следующий вывод, являющийся также одной из формулировок второго начала термодинамики:
Любая форма энергии может полностью перейти в теплоту, но теплота преобразуется в другие формы энергии лишь частично.
Т.о., можно условно принять, что внутренняя энергии системы состоит из двух составляющих: "свободной" X и "связанной" Y энергий, причем "свободная" энергия может быть переведена в работу, а "связанная" энергия может перейти только в теплоту.
(1.11)
Величина связанной энергии тем больше, чем меньше разность температур, и при T = const тепловая машина не может производить работу. Мерой связанной энергии является новая термодинамическая функция состояния, называемая энтропией.
Введем определение энтропии, основываясь на цикле Карно. Преобразуем выражение (I.41) к следующему виду:
(1.12)
Отсюда получаем, что для обратимого цикла Карно отношение количества теплоты к температуре, при которой теплота передана системе (т.н. приведенная теплота) есть величина постоянная:
(1.13) (1.14)
Это верно для любого обратимого циклического процесса, т.к. его можно представить в виде суммы элементарных циклов Карно, для каждого из которых
(1.15)
Т.о., алгебраическая сумма приведённых теплот для произвольного обратимого цикла равна нулю:
(1.16)
Выражение (I.49) для любого цикла может быть заменено интегралом по замкнутому контуру:
(1.17)
Если интеграл по замкнутому контуру равен нулю, то подынтегральное выражение есть полный дифференциал некоторой функции состояния; эта функция состояния есть энтропия S:
(1.18)
Выражение (1.18) является определением новой функции состояния - энтропии и математической записью второго начала термодинамики для обратимых процессов. Если система обратимо переходит из состояния 1 в состояние 2, изменение энтропии будет равно:
(1.19)
Подставляя (I.51, I.52) в выражения для первого начала термодинамики (I.1, I.2) получим совместное аналитическое выражение двух начал термодинамики для обратимых процессов:
(1.20)
(1.21)
Для необратимых процессов можно записать неравенства:
(1.22)
(1.23)
(1.24)
Т.о., как следует из (1.24), работа обратимого процесса всегда больше, чем того же процесса, проводимого необратимо. Если рассматривать изолированную систему (дQ = 0), то легко показать, что для обратимого процесса dS = 0, а для самопроизвольного необратимого процесса dS > 0.
В изолированных системах самопроизвольно могут протекать только процессы, сопровождающиеся увеличением энтропии.
Энтропия изолированной системы не может самопроизвольно убывать.
Oба этих вывода также являются формулировками второго начала термодинамики.
Статистическая интерпретация энтропии. Классическая термодинамика рассматривает происходящие процессы безотносительно к внутреннему строению системы; поэтому в рамках классической термодинамики показать физический смысл энтропии невозможно. Для решения этой проблемы Л.Больцманом в теорию теплоты были введены статистические представления. Каждому состоянию системы приписывается термодинамическая вероятность (определяемая как число микросостояний, составляющих данное макросостояние системы), тем большая, чем более неупорядоченным или неопределенным является это состояние. Т.о., энтропия есть функция состояния, описывающая степень неупорядоченности системы. Количественная связь между энтропией S и термодинамической вероятностью W выражается формулой Больцмана:
(1.25)
С точки зрения статистической термодинамики второе начало термодинамики можно сформулировать следующим образом:
Система стремится самопроизвольно перейти в состояние с максимальной термодинамической вероятностью.
Статистическое толкование второго начала термодинамики придает энтропии конкретный физический смысл меры термодинамической вероятности состояния системы.
2. Энтропия и информация
Развитие теории информации и изучение энтропии. Во второй половине XX века произошли два события, которые, на наш взгляд, в значительной мере определяют дальнейшие пути научного постижения мира. Речь идет о создании теории информации и о начале исследований механизмов антиэнтропийных процессов, для изучения которых синергетика привлекает все новейшие достижения неравновесной термодинамики, теории информации и общей теории систем.
Принципиальное отличие данного этапа развития науки от предшествующих этапов заключается в том, что до создания перечисленных направлений исследований наука способна была объяснить лишь механизмы процессов, приводящих к увеличению хаоса и возрастанию энтропии. Что касается разрабатываемых со времен Ламарка и Дарвина биологических и эволюционных концепций, то они и по сей день не имеют строгих научных обоснований и противоречат Второму началу термодинамики, согласно которому сопровождающее все протекающие в мире процессы возрастание энтропии есть непременный физический закон.
Заслуга неравновесной термодинамики заключается в том, что она сумела выявить механизмы антиэнтропийных процессов, не противоречащих Второму началу термодинамики, поскольку локальное уменьшение энтропии внутри самоорганизующейся системы всегда оплачивается большим по абсолютной величине возрастанием энтропии внешней среды.
Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информации. Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области физики и биологии позволили выявить универсальные меры, предложенные К.Шенноном, позволяющие установить взаимосвязь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия «информация» как меры структурной упорядоченности самых разнообразных по своей природе систем .
Используя метафору, можно сказать, что до введения в науку единой информационной количественной меры представленный в естественно-научных понятиях мир как бы «опирался на двух китов»: энергию и вещество. «Третьим китом» оказалась теперь информация, участвующая во всех протекающих в мире процессах, начиная от микрочастиц, атомов и молекул и кончая функционированием сложнейших биологических и социальных систем.
Естественно, возникает вопрос: подтверждают или опровергают эволюционную парадигму происхождения жизни и биологических видов новейшие данные современной науки?
Для ответа на этот вопрос необходимо прежде всего уяснить, какие именно свойства и стороны многогранного понятия «информация» отражает та количественная мера, которую ввел в науку К.Шеннон.
Использование меры количества информации позволяет анализировать общие механизмы информационно-энтропийных взаимодействий, лежащих в основе всех самопроизвольно протекающих в окружающем мире процессов накопления информации, которые приводят к самоорганизации структуры систем.
Вместе с тем информационно-энтропийный анализ позволяет выявить и пробелы эволюционных концепций, представляющих собой не более чем несостоятельные попытки сведения к простым механизмам самоорганизации проблему происхождения жизни и биологических видов без учета того обстоятельства, что системы такого уровня сложности могут быть созданы лишь на основе той информации, которая изначально заложена в предшествующий их сотворению план.
Проводимые современной наукой исследования свойств информационных систем дают все основания утверждать, что все системы могут формироваться только согласно спускаемым с верхних иерархических уровней правилами, причем сами эти правила существовали раньше самих систем в форме изначального плана (идеи творения).
Что измерил Клод Шеннон
В основу теории информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи.
Предложенный Шенноном метод измерения количества информации оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений.
Вопреки мнению самого К.Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое примение в исследованиях и физических, и биологических, и социальных систем .
Ключом к новому пониманию сущности феномена информации и механизма информационных процессов послужила установленная Л.Бриллюэном взаимосвязь информации и физической энтропии. Эта взаимосвязь была первоначально заложена в самый фундамент теории информации, поскольку для исчисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятную функцию энтропии.
Многие ученые (начиная с самого К.Шеннона) склонны были рассматривать такое заимствование как чисто формальный прием. Л.Бриллюэн показал, что между вычисленным согласно Шеннону количеством информации и физической энтропии существует не формальная, а содержательная связь.
В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости) приближаются к равновероятным, а энтропия при этом стремится к максимальной величине.
Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст.
Еще один важный вывод заключается в том, что
с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.
Данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и др.
При этом, если для газа или кристалла при вычислении энтропии сравнивается только микросостояние (т.е. состояние атомов и молекул) и макросостояние этих систем (т.е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производится на том или ином произвольно выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т.е. тех элементов, которые в своей совокупности образуют эти системы.
Другими словами, количество сохраняемой в структуре системы информации пропорционально степени отклонения системы от состояния равновесия, обусловленного сохраняемым в структуре системы порядком.
Сам того не подозревая, Шеннон вооружил науку универсальной мерой, пригодной в принципе (при условии выявления значенй всех вероятностей) для оценки степени упорядоченности всех существующих в мире систем.
Определив введенную Шеноном информационную меру как меру упорядоченности движения, можно установить взаимосвязь информации и энергии, считая энергию мерой интенсивности движения. При этом количество сохраняемой в структуре систем информации пропорционально суммарной энергии внутренних связей этих систем.
Заключение
В свете сказанного феномен информации предстает перед нами как специфическая форма отражения, обусловливающая переход возможности в действительность в условиях функциональной замкнутости. Специфика информационной формы отражений заключается в том, что в системе отражается не просто состояние среды, рассматриваемой отдельно от системы, а скорее совместный результат взаимодействия системы и среды. В самом "информационном воздействии" важна не величина передаваемой энергии (без которой все-таки немыслимо вообще никакое воздействие), а пространственно-временная структура соответствующего материального носителя энергии. Мир возможностей скрыт за "железными дверями", которые в подавляющем большинстве случаев нельзя открыть ломом, но можно открыть специально подобранным ключом, почти не прилагая усилий.
Пространственно-временная структура информационного воздействия как раз и описывает "профиль бородки" упомянутого ключа. Ясно, что он должен быть таков, чтобы открыть нужную дверь, иначе говоря, чтобы возможность, ставшая действительностью, отражала интересы сохранения и дальнейшего развития системы, усиливая (а не ослабляя) тем самым ее единство со средой.
Список использованных источников
1. Седов Е., Кузнецов Д. В начале было Слово… . -- СПб., 1994.
2. Шеннон К.Е., Математическая теория связи. Работы по теории информации и кибернетике., . -- М, 1963.
3. Шеннон К. Е. Бандвагон., /Работы по теории информации и кибернетике/, . -- М., 1963.
4. Бриллюэн Л., Научная неопределенность и информация, . -- М.,1966.
5. Винер Н., Кибернетика, или Управление и связь в животном и машине. -- М,1968.
6. Аптер М., Кибернетика и развитие. -- М. 1970.
7. Седов Е.А., Взаимосвязь информации, энергии и физической энтропии в процессах управления и самоорганизации. Информация и управление. -- М., Наука, 1986.
8. Эдвардс А.Р., Конспекты по физике. - У., 1999.
Подобные документы
Изучение поведения энтропии в процессах изменения агрегатного состояния. Анализ её изменения в обратимых и необратимых процессах. Свободная и связанная энергии. Исследование статистического смысла энтропии. Энергетическая потеря в изолированной системе.
презентация [1,6 M], добавлен 13.02.2016История развития термодинамики. Свойства термодинамических систем, виды процессов. Первый закон термодинамики, коэффициент полезного действия. Содержание второго закона термодинамики. Сущность понятия "энтропия". Особенности принципа возрастания энтропии.
реферат [21,5 K], добавлен 26.02.2012История развития термодинамики, ее законы. Свойства термодинамических систем, виды основных процессов. Характеристика первого и второго законов термодинамики. Примеры изменения энтропии в системах, принцип ее возрастания. Энтропия как стрела времени.
реферат [42,1 K], добавлен 25.02.2012Формулирование закона увеличения энтропии Клаузиусом. Энтропия как мера беспорядка, а ее увеличение - движение к хаосу. Сомнения в истинности закона в настоящее время и сущность нулевой энтропии. Жизнь и цивилизация - способы передачи энтропии в системе.
доклад [7,3 K], добавлен 19.02.2009Теоретические аспекты энтропии, энергии и энергетики, разновидности энергетики и энтропии. Роль в физических процессах и науке. Особенности термодинамики неравновесных процессов. Вклад И. Пригожина в развитие термодинамики, значение для современной науки.
курсовая работа [109,3 K], добавлен 12.01.2010Изучение истории формирования термодинамики как научной дисциплины на основе молекулярно-кинетической теории. Ознакомление с содержанием теоремы сохранения, превращения энергии (Гельмгольц, Майер, Джоуль) и законом возрастания энтропии (Клаузиус, Томсон).
контрольная работа [44,4 K], добавлен 03.05.2010Направления термодинамических процессов. Состояние системы, детально охарактеризованное на уровне каждой частицы. Сущность эргодической гипотезы. Термодинамическое определении энтропии. Теорема Нернста или третье начало термодинамики. Тепловая машина.
презентация [1,7 M], добавлен 23.10.2013Передача энергии от одного тела к другому. Внутренняя энергия и механическая работа. Первое начало термодинамики. Формулировки второго закона термодинамики. Определение энтропии. Теоремы Карно и круговые циклы. Процессы, происходящие во Вселенной.
реферат [136,5 K], добавлен 23.01.2012Фазовое пространство и фазовая плотность вероятности. Первое начало термодинамики с точки зрения статистической физики. Статистическое определение энтропии. Статистическое обоснование третьего начала термодинамики. Теорема о равнораспределении.
контрольная работа [228,5 K], добавлен 06.02.2016Первое начало термодинамики. Однозначность внутренней энергии как функции термодинамического состояния. Понятие энтропии. Второе начало термодинамики для равновесных систем. Третье начало термодинамики.
лекция [197,4 K], добавлен 26.06.2007