Информация и формулировка аксиом термодинамики

Информация как физическая переменная. Энтропия как функция состояния системы, условия ее нормировки. Аксиоматически существование энтропии-информации, ее свойства и выбор нуля отсчета. Сущность трех начал термодинамики. Условность сохранения энергии.

Рубрика Физика и энергетика
Вид реферат
Язык русский
Дата добавления 25.08.2010
Размер файла 659,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

25

Информация и формулировка аксиом термодинамики

Рассматривать информацию как физическую переменную впервые предложил Н. Винер. Мера количества информации есть величина энтропии S.

Физическая переменная, как правило, есть аксиоматически введенное понятие. Отличие энтропии от таких переменных как, например, объем в том, что живые организмы не имеют органов для непосредственного ощущения энтропии. Энтропия есть такая же материальная переменная, как и все остальные физические переменные

Понятие - материальная физическая переменная означает, что эта переменная может быть измерена при наблюдениях в природе или в целенаправленно поставленных экспериментах, а также может быть использована в качестве переменной математических задач и решений. Для энтропии это всё есть реальность.

Для общего случая физических задач классическое определение энтропии требует небольших, но существенных, уточнений. Они не противоречат известному, а дополняют его. Сформулирую отображающие это изменения аксиоматики, ранее введенные мною в [2] - [6].

Если заданы признаки, отличающие друг от друга элементы системы, их состояния, условия взаимодействия элементов между собой, то энтропия как функция состояния системы определена в виде:

S =--K?lnW????????????????????????????????????????????????? (1.1)

где K - адиабатический инвариант системы и W? - функция, описывающая число состояний, которые может принимать система, образованная многими элементами. Вид функции W зависит от вида статистики, который характерен для данной задачи и её конкретных особенностей. Число возможных состояний W функционально связано с вероятностью y этих состояний. Поэтому определение энтропии, выраженное через вероятности состояний:

S =-----K lny????????????????????????????????????????????? (1.1a)

равноправно с определением (1.1), но отличается от него знаком, так как всегда вероятности y? 1. Далее в тексте этой книги, если специально не оговорено, ссылка на (1.1) равноправно подразумевает и (1.1а).

В определении энтропии (1.1) вид функций W или y зависит от конкретных постановок задач и не обязательно подразумевает ту форму, которую они имели у Больцмана или Гиббса.

Когда речь идет, например, о тепловых процессах, то аксиоматически постулируется, что классы функций W или y и величина размерного множителя K =?kB (постоянной Больцмана) в (1.1) заданы a priori. В литературе обоснования этого используют эмпирические аргументы.

Постоянная K определяется признаками, отличающими друг от друга элементы системы. В этой работе преимущественно рассматривается энтропия, для которой K есть действие как переменная механики.

В этой работе энтропия определена как экстремум для выражения (1.1), то есть как характеристика максимума вероятности состояния системы. Поэтому неотъемлемой частью определения энтропии (1.1) являются условия нормировки энтропии, с помощью которой находят её максимум.

В природе должен существовать процесс возникновения новых объектов или их состояний, в описании которых участвует мера количества информации (1.1), то есть процесс создания информации вновь - синтез информации.

Аксиоматически существование энтропии-информации, ее главные свойства и выбор нуля отсчета для нее определяют три начала термодинамики. Сформулирую их в следующем виде [2] - [6], который несколько отличается от классического, но не противоречит ему.

Существует функция состояния системы энтропия-информация (1.1) - мера количества информации в пределах заданных признаков и условий для наиболее вероятного состояния системы из многих элементов. Физическая система, не содержащая информации о себе самой, не может реализоваться. Синтез информации превращает энтропию как меру информации, которой недостает до полного описания системы, в макроскопические свойства объектов или физических переменных.

Самопроизвольные процессы в системах из многих элементов направлены в сторону максимума энтропии: максимума количества информации, необходимого для описания индивидуальных элементов системы при заданных для них признаках и условиях. Вечное равновесие невозможно.

Энтропия-информация может суммироваться при разных входящих в её определение признаках и условиях, учитывая уравнения связи их между собой. Для любых, входящих в определение энтропии (1.1) признаков и условий, существует нуль отсчета энтропии-информации, который зависит от них. Энтропия-информация есть положительно определенная переменная, однако существование разных нулей отсчета разрешает в конкретных задачах использовать ее с отрицательным знаком.

Сохранение энергии, которое обычно принимается в качестве первого начала термодинамики, пропущено в системе аксиом I ? III неслучайно. Закон сохранения энергии в любой своей формулировке волевым образом ограничивает рассматриваемые в данной задаче формы энергии. Например, закон сохранения механической энергии заведомо не выполняется точно, так как существует тепло, в которое при движении элементов системы переходит механическая энергия. Сохранение энергии как аксиома для этого взаимодействия лежало в основе исторически первичных результатов термодинамики. Но далее в термодинамику была включена электромагнитная, химическая энергия. Понятия энергии и потенциалов эффективны в абстрактных задачах, связанных с информацией при человеческом общении. Наконец, исходно сохранение энергии есть следствие однородности времени, которую нельзя безоговорочно постулировать в качестве закона для всех масштабов и этапов процессов в природе. Достоверно, что Вселенная расширяется и время не может быть безоговорочно однородным.

Аксиома сохранения энергии потеряла однозначность и превратилась в условие конкретных термодинамических задач, зависящее от того, какие формы энергии в них учитываются. Метод исследований, основанный на сохранении тех форм энергии, которые названы в условиях задачи, есть главный признак термодинамики как области науки: математические методы термодинамики основаны на сохранении энергии.

Главная причина того, что сохранение энергии не может быть аксиоматической основой термодинамики и ее обобщений для информационных процессов, в том, что аксиома сохранения энергии (как первичная) тавтологична аксиоме об окончательном равновесии как “цели" всего сущего. Поэтому аксиома сохранения энергии противоречит аксиоме, которой является второе начало термодинамики. Включить сохранение энергии в аксиоматическую базу термодинамики и ее обобщений, не создавая аксиоматической противоречивости, можно при следующей формулировке аксиомы о сохранении энергии:

Реализуемая система обладает функцией состояния - энергией. Допустима идеализация, называемая замкнутой системой, для которой справедлив закон сохранения энергии. Энергия системы возрастает (или уменьшается) в результате взаимодействия системы с окружением. Идеализация в виде замкнутой системы в любой точке своей границы находится в статическом и динамическом равновесии с окружением.

Идеализированное понятие замкнутой системы нуждается в пояснении, связанном с ролью флуктуаций в процессах природы. С учетом флуктуаций возможен такой случай, когда динамическое равновесие на границах системы гарантирует сохранение энергии в системе только в среднем. Изменяющееся при флуктуациях соотношение потоков энергии во времени меняет её поведение - система открытая, хотя в среднем энергия в ней сохраняется неизменной. Открытые системы такого типа подробно рассмотрены в [23].

В общем случае, для строгих постановок задач энергия Е системы определена в виде двух составляющих. Первая из них зависит от сил Xi, обладающих потенциалом. Она имеет вид , где xi описывает интервалы, на которых действуют силы Xi. Вторая составляющая зависит от количества информации в системе - энтропии S. Эта составляющая энергии есть , где q? - температура системы, есть силовая переменная, сопряженная с мерой информации как количественной.

К сожалению, понятие о формах энергии и о том, что закон сохранения энергии всегда конкретен по отношению к ним, хотя и очевидно, но некоторыми научными работниками вопринимается с трудом. Таких отошлю к учебнику, например, [24].

Энтропия-информация есть характеристика функции распределения в системах. Эту её особенность подчеркнул А. Эйнштейн в классической работе [25]. В такой форме энтропия использовалась в работах К. Шеннона. Подробно вопросы связи энтропии и функций распределения рассмотрены, например, в книге [26].

Размерная постоянная в определении энтропии - адиабатический инвариант системы

Обмен энергией с окружением в любой системе ограничен наложенными на неё условиями. Эти условия можно разбить на два фундаментальных класса - адиабатические и неадиабатические системы.

Если в системе количество информации (энтропия-информация) S остается неизменным, а энергия в ней изменяется под действием сил Xi, то такая система является адиабатической.

Системы, в которых количества информации изменяются в результате взаимодействия с внешней средой, есть неадиабатические системы.

Эти определения аналогичны используемым в термодинамике. В классической термодинамике систему называют адиабатической, если она не обменивается с окружающей средой теплом, но в общем виде адиабатической является система, которая не обменивается с окружением количествами информации. Это не исключает для неё возможность совершать над внешней средой механическую работу (или внешней среде над системой). Если механическая работа совершается бесконечно медленно по отношению к характерным временам внутренних процессов, то адиабатическая система обратима. Следует подчеркнуть, что адиабатическое изменение энергии системы строго непрерывно в математическом смысле, независимо от того, рассматривается ли классическая или квантовая система.

В общем случае силы Xi могут иметь электрическую, магнитную, химическую или внутриатомную природу. Обмен энергией с окружением за счет сил Xi любой природы при бесконечно медленном протекании процессов может (как и механическая работа) не нарушать адиабатичности системы.

Примером адиабатической обратимой системы является маятник Эренфеста (рис.1.1) [27] в виде груза на нити, длина которой изменяется бесконечно медленно по отношению к периоду его колебаний. Такую систему называют адиабатически инвариантной. Полная энергия адиабатически инвариантной системы может изменяться непрерывно.

Адиабатически инвариантная система имеет адиабатический инвариант - характерную константу, которая остается неизменной в адиабатическом обратимом процессе. Для примера маятника Эренфеста адиабатический инвариант ha есть отношение энергии колебаний маятника Е к его частоте ?. Для каждого конкретного макроскопического маятника такой инвариант будет иметь свою численную величину. Например, для тепловых процессов это есть постоянная Больцмана kB. Адиабатическим инвариантом является также постоянная Планка h. Множитель K в определении энтропии (1.1) есть адиабатический инвариант системы в том смысле, в котором ввел это понятие Эренфест [27].

В абстрактных вычислительных системах мера количества информации S так же задана в виде (1.1), но основание логарифмов в (1.1) принимается равным числу А символов алфавита, с помощью которого описывается информация:

S = K logА W. (1.2)

Изменение числа А не может изменить количество информации в системе. Это есть адиабатический процесс. Адиабатический инвариант в абстрактной системе должен быть равен 1. Поэтому множитель в (1.2) есть:

K = lnА. (1.3)

В зависимости от выбора А величина K определяет известные единицы информации, например, бит, для которого А = 2. Следует подчеркнуть, что в вычислительных системах определение энтропии-информации в форме (1.1) часто используется в смысле, отличном от больцмановского, то есть не как характеристика максимума вероятности состояния системы. В этой книге энтропия-информация в небольцмановском смысле не рассматривается.

В общем случае для физической системы мера информации - энтропия определена только в том случае, когда определен адиабатический инвариант системы, то есть множитель K в определении энтропии-информации (1.1). Для разных систем он может иметь разную величину (не обязательно K = kB - постоянной Больцмана). Адиабатический инвариант всегда имеет конечную величину. Предельный переход K 0 при строгой постановке задач невозможен.

Неадиабатическая система (как она определена в классической термодинамике) обменивается c окружающей средой количествами тепла, что эквивалентно обмену количествами информации. В этом случае изменение энергии системы за счет взаимодействия с окружением обязательно содержит в себе изменения количества информации в системе - её энтропии.

Энтропия определена как функция состояния системы. Её изменения описываются полными дифференциалами. Обмен энтропией с окружающей средой при неадиабатических процессах происходит в формах, которые непосредственно не описываются полными дифференциалами. Поэтому то, что передается от окружающей среды к системе и наоборот (например, тепло) не есть энергия - функция состояния (изменение которой полный дифференциал в силу аксиоматического определения). Но в результате такого процесса энергия системы изменяется.

Приращения функций, не являющиеся полными дифференциалами, могут быть преобразованы в полные дифференциалы с помощью интегрирующего множителя. Таковым по аксиоматическому определению в термодинамике является температура q. Как множитель она участвует в обратной форме 1/q. С её помощью процесс обмена информацией с окружением может быть представлен в форме полных дифференциалов. Например, используя температуру в виде 1/q???как интегрирующий множитель, можно на основе изменения количества тепла DQ (не являющегося полным дифференциалом) определить изменение количества информации dS - функции, изменение которой является полным дифференциалом:

dS = DQ/q. (1.4)

В связи с изложенным выше об энергии и её связи с количествами информации необходимо подчеркнуть элементарное, но важнейшее и многими абсолютно забываемое.

Энергия по своему аксиоматическому определению - функция состояния системы. Её изменения есть полные дифференциалы. Переменная, не являющаяся функцией состояния, не есть и не может быть энергией. Но изменения функции произвольных независимых переменных не обязательно будут полными дифференциалами. Они могут стать полными дифференциалами, если на независимые переменные наложены конкретные условия связи.

Понятия - энергия - нет и не может быть, если не сформулированы условия связи между собой независимых переменных задачи. Эти условия связи в термодинамике известны как уравнения состояния.

Энергия - функция состояния, а потому эквиваленты энергии существуют во многих задачах, которые не имеют отношения к тепловым процессам. Все математические особенности, связанные с полными дифференциалами, интегрирующими множителями, уравнениями состояния в полной мере, тождественно относятся и к нетепловым задачам - общим процессам взаимодействия энергии и информации в физических системах.

В этой работе энтропия (мера информации) и энергия понимаются именно в таком широком смысле, что отражено в формулировке начал (I ? III), независящей от того, какие формы энергии, подчиняющиеся аксиоме IV, учитываются в данной задаче. Поэтому в определении энтропии (1.1) постоянная K необязательно равна постоянной Больцмана kB. Соответственно энергия может не быть классической механической энергией. В частности при описании информации на уровне взаимодействия мозга человека и окружающей среды это может быть абстрактная функция состояния.

Следует подчеркнуть ещё одну особенность информации как физической переменной. Для описания природы необходим непредставимый диапазон чисел, отличающихся на 40 - 60 порядков величины. Мера информации (1.1) потому является важнейшей переменной природы, что она описывается логарифмической функцией. В её терминах описание природы становится возможным в числовом диапазоне всего порядка 100. Поэтому зависимости, выраженные в терминах энтропии-информации, доступны сопоставимым исследованиям при любых численных масштабах процессов, характерных для Вселенной.

Методы человеческих исследований отражают возможности природы. Сами по себе величины, отличающиеся на 40 - 60 порядков, не могли бы равноправно оказывать влияние на процессы природы. Однако оно существует. Причина этого именно в решающей роли энтропии-информации для всех процессов природы, которую задаёт её логарифмический характер.

По определению (см., например, [28], [29]) мера информации при обмене информацией между людьми характеризует неопределенность, устранённую с помощью данного сообщения.

Человек устраняет неопределённость состояния путём передачи информации. На этой основе он абстрактно вычисляет количество информации в данном сообщении. Обмен информацией между объектами физики невозможен в таком смысле. В физике реально заданным свойством объектов является существующий в них беспорядок, относительно каких-то конкретных признаков элементов системы. Сама неопределённость есть мера информации как физическая переменная. Локализация элемента системы может использоваться для измерения информации как физической переменной в терминах человеческих сообщений. Поэтому информация как абстракция и информация как физическая переменная отличаются знаком. Обсуждения смысла вероятностей в связи с физическими задачами содержатся, например, в [30].

Наглядные пояснения к понятию - информация

В строгом виде информация характеризует устранённую неопределённость. В системе беспорядок - неопределённость. Её величину выражает энтропия. С помощью измерений выбрали один элемент. Этим неопределённость устранена. В результате получено количество информации в виде числа, равного энтропии с обратным знаком.

Интуитивно термин - информация понимается, в частности, как "проект", который предваряет действия человека. Это создает убежденность в том, что окружающая нас природа, сам человек, его мозг также должны иметь "предварительный проект". Тогда должны быть в природе "кто-то" или "что-то", способные этот проект создать и точно реализовать. Подобный подход категорически исключен (хотя именно он распространен как в науке, так и в обиходе). Поясню это подробнее.

О каких бы объектах природы, наблюдаемых глазом человека, не шла речь, их "проект" начинается от элементов на внутриатомном уровне. Проект - это есть "чертеж", в котором задано положение каждого из составляющих его "элементов" в виде, например, сначала "элементарных частиц", потом атомов, молекул, их объединений в виде жидкостей, твердых тел, живых клеток и далее вплоть до социальных систем человеческого общества. В таком проекте характерные размеры его составляющих отличаются на 40 ? 60 порядков величины.

В любом макроскопическом объекте, который должен описать "проект", число элементов выражается огромными числами, например, для составляющих атомных масштабов, имеющими 10 ? 30 знаков.

При таком диапазоне масштабов и количеств беспорядок, создаваемый случайностями, устанавливает очевидный и неустранимый запрет на создание "проекта" как детерминированного "чертежа-инструкции". Однако Вселенная, а в ней человек с его разумом существуют.

Дело в том, что в природе нет проектов в обиходном понимании этого термина. Объекты, тождественные при макроскопических наблюдениях, как правило, неповторимы на своих микроуровнях (атомном, микрокристаллическом, клеточном). Природа неспособна создавать что-либо по тем правилам "проекта", которые ей хочет навязать человек.

Схема "информация-проект", который "борется" с противодействующей ему случайностью, несостоятельна. Интуитивным обиходным определением "информации-проекта" пользоваться недопустимо. Случайности есть первичная основа понятия об информации. Наблюдаемый нами детерминизм окружающего мира должен существовать не вопреки случайностям, а в результате их действия как первичной причины всего сущего.

Но ведь в науке информация строго определена именно так: не как "проект", а как функция случайностей - устранённой неопределённости. Информация потому является основой всего сущего, что ее определение связано с фундаментальной переменной в науке - энтропией, подчиняющейся аксиоме о стремлении случайностей к максимуму беспорядка, известной как второе начало термодинамики.

Для пояснения этого необходимо ответить на вопрос: как конкретный, например, инженерный проект выражается на языке строгого определения информации и описывающей её переменной - энтропии?

Когда инженер создает проект машины, исходными для него являются некоторый набор материалов, деталей и агрегатов, а также заданные условия их применения и результаты, которые должны быть достигнуты с помощью этой машины.

На языке информации исходное для инженерного проекта есть система, для которой задано количество элементов и их свойства. Работа инженера заключается в том, что он отбирает из этих элементов те, которые считает нужными, и соединяет между собой с учетом их свойств и результатов, которые необходимо получить с их использованием. В этом обязательно участвует случайность, имеющая диапазон от "творческого озарения" гения до элементарной лени. На языке информации работа инженера заключается в том, что он осуществляет случайный выбор из заданного количества элементов. Этот случайный выбор ограничен определенными условиями. Осуществленный инженерный проект есть ограниченный условиями запомненный случайный выбор - информация.

Поэтому количество информации, которое содержится в инженерном проекте, определено на основе того же закона (1.1), что и для физических систем: числом возможных состояний системы (числом возможных вариантов её выполнения из заданных элементов) при ограничивающих выбор условиях. Именно это и есть количество информации, содержащееся в инженерном проекте, - новизна и оригинальность, которые отличают данный инженерный проект от всех предыдущих, выраженные конкретной математической формулой вида (1.1), имеющие однозначную числовую оценку.

Это количество информации не надо путать с тем количеством информации, которое необходимо для того, чтобы сохранить или передать проект как листы бумаги с текстом и чертежами. Такая информация зависит от выбора "алфавита" для кодирования текстов или чертежей и подобных сугубо частных особенностей выполнения проекта. Если раздать трёхлетним детям в детском саду количество листов бумаги, эквивалентное проекту какого-нибудь самолёта, и поручить им изрисовать эту бумагу, то количество информации, которое необходимо, чтобы передать этот “проект”, будет больше, чем необходимое для передачи реального проекта самолёта. Ведь детские каракули случайны, а в инженерном проекте есть условия, сокращающие объемы информации. Например, букву можно передавать не как её рисунок, а как соответствующий ей код.

В рассмотренном выше примере инженерного проекта обращает на себя внимание необходимость установить нуль отсчета для меры информации - энтропии. Ведь от того, какие элементы приняты как первичные "неделимые", зависит число их возможных комбинаций: количество информации неустранимо зависит от "нулевого уровня", на котором элемент системы является "неделимым целым". Например, проект может базироваться на исходных "болтах" и "гайках" как элементах системы или определять конструкцию, для которой исходными являются крупные агрегаты - электромоторы, редукторы или станки и машины как готовые покупные изделия. Поэтому мера информации - энтропия - всегда и неустранимо определена как иерархическая переменная.

Утверждения моих работ [2] - [6] и этой книги есть, в частности:

мера количества информации в физических системах и в человеческой деятельности тождественно одинаково определена как иерархическая переменная;

информация в неживой природе, при возникновении жизни и разума, в человеческой деятельности первично возникает на основе одинаковых процессов синтеза информации;

второе начало термодинамики (стремление к максимуму беспорядка, ограниченное внешними и внутренними условиями), в частности, выраженное принципом максимума производства энтропии, есть главная причина детерминизма природы.

Кажущаяся парадоксальность этих утверждений создает трудности в понимании моих работ.

Классы процессов синтеза информации

Главное отличие между больцмановской или гиббсовской и шенноновской информацией (вне описывающих её формул) состоит в том, что для шенноновской информации задана цель передачи информации - "смысл" комбинаций символов алфавита устанавливается человеком. В физической системе эта цель должна возникать самопроизвольно, без участия человека. Должен существовать физический процесс самопроизвольного возникновения новой информации - синтеза информации.

Поэтому определение энтропии-информации (1.1) неполное. В нём не указаны условия синтеза информации (самопроизвольного возникновения новой информации в физической системе). Самопроизвольно (как и в термодинамике) означает направление процессов в сторону роста энтропии или уменьшения энергии взаимодействия.

Определение энтропии-информации (1.1) задает фундаментально разные иерархические уровни синтеза информации (рис.1.2).

Рис. 1.2

А - синтез информации о виде W????или y, в частности, о виде статистики в определении энтропии (1.1). B - синтез информации о величине размерного множителя K в определении энтропии (1.1). C - установление связи энергии и количества информации в системе в виде синтеза информации на основе условий нормировки энтропии ?[31] при заданных K и W???или ?y. Классы процессов синтеза информации, показанные на рис.1.2 замыкают определение энтропии (1.1) как физической переменной. Они должны иметь форму реальных физических процессов.

Элементы системы подчиняются индивидуальным законам взаимодействий. Этим задан вид статистики A, определяющей вид функций W???или ?y.

Кажется однозначным и очевидным условие, что в определении энтропии (1.1) величина адиабатического инварианта K = kB - постоянной Больцмана. Это не так. Вид и свойства элементов системы, законы их взаимодействий задают возможность разных постоянных K. Должен существовать процесс B, приводящий к однозначному определению адиабатического инварианта K в функции условий задачи.

Наконец, для заданных W????или ?y и K определение энтропии (1.1) должно быть дополнено классическими ещё со времён Больцмана и Гиббса условиями нормировки энтропии. Это есть вид синтеза информации, обозначенный на рис.1.2 буквой С.

Законы природы всегда содержат обратные связи, зависящие от окружающей среды и её изменений в результате происходящих в ней процессов. Наиболее общий вид таких обратных связей - указанные на рис.1.2 классы процессов синтеза информации.

Последовательные процессы A, B, C, задающие вид статистики, адиабатический инвариант системы, нормировку энтропии, есть составляющие определения энтропии (1.1). Когда в термодинамике говорят об открытых системах, то их определение ограничивается системами с заданными W????или ?y?? и величиной K. Однако важнейшими классами открытых систем являются такие, в которых воздействие извне формирует W????или ?y и K, а также определяет нормировку энтропии.

В классической термодинамике "по умолчанию" принимается, что энтропия есть переменная, отнесенная к единице объёма системы. В таком виде энтропия не изменяется при изменении числа N элементов системы.

Для некоторых из задач, которые рассматриваются в этой работе, важна также энтропия системы в целом, то есть S =?S (N). Рост энтропии системы, подчиняющейся второму началу термодинамики, включает в себя составляющую, зависящую от N.

Роль условий устойчивости при синтезе информации как физическом процессе

Что и как в природе образует из элементов систему, обладающую определёнными свойствами?

Ответ, который дан в этой работе, конкретен - возникновение новых объектов и их состояний (систем) имеет причиной процесс синтеза информации - создание информации вновь. Синтез информации есть первичный, основополагающий для природы физический процесс, который имеет разные формы, объединённые общей основой.

Синтез информации определен [32], [33] как запоминание случайного выбора. Такое определение детализирует [2] - [6] цепочка:

Случайные выборки.

Условия, с помощью которых случайным выборкам сопоставляется некоторое следствие.

Запоминание результата в виде устойчивого воспроизведения данного следствия.

Понятие запоминания для физической системы (физической переменной) тождественно понятию - устойчивость воспроизведения системы (переменной). Поэтому для синтеза информации решающие есть условия устойчивости физических и абстрактных процессов. Устойчивость систем проверяется на основе известных критериев А. Ляпунова, сформулированных на основе функций Ляпунова [26].

Рис.1.3

Существование функций Ляпунова есть достаточный критерий устойчивости.

Если принять известными классы функций W? или y? и постоянных K, то можно укрупненно выделить виды синтеза информации (рис.1.3), отличающиеся видом функций Ляпунова и условиями устойчивости. Все виды синтеза информации рис.1.3 самопроизвольны, то есть направлены либо в сторону максимума энтропии, либо к минимуму энергии взаимодействия.

Первый из видов синтеза информации - установление статически равновесного состояния, например, в газе. Ему соответствует максимум энтропии-информации:

dS = 0 и d2S < 0. (1.4)

Само количество информации, которое недостает до полного описания индивидуальных атомов или молекул, материализуется в виде физической переменной - энтропии S, например, газа (1 на рис.1.3).

Без подвода энергии или тепла рост энтропии возможен только как переходный процесс, заканчивающийся окончательным равновесием (1.4), то есть dS 0. Энтропия-информация описывает наиболее вероятное распределение энергии. В идеальной замкнутой системе подвода энергии и тепла нет, но энтропия как физическая переменная существует. Это тавтологично означает, что в замкнутой системе как предел обязателен случай dS = 0. Но понятие замкнутая система есть идеализация, поэтому всегда необходимо рассматривать конкретные особенности реализации такого предела.

Особенность энтропии как переменной, описывающей распределение, (многократно подчеркиваемая, начиная от Больцмана) в том, что это распределение имеет исключительно острый максимум. Например [34], вероятность найти при однократном наблюдении в массе газа величиной 10??? грамм-молекулы отклонение энергии 10??? от значения, заданного максимумом энтропии, составляет непредставимо малую величину порядка 10???????. Поэтому детерминизм возможного в данных условиях максимума энтропии-информации (определяемый случайностями для элементов системы) количественно намного превосходит детерминизм, например, закона сохранения энергии в классических формулировках.

Это использует известный метод максимума энтропии Джейнса [35] и его развитие Хакеном [36]. Конкретные реализации этого метода основаны на классической больцмановской нормировке энтропии [31].

Согласно второму началу термодинамики в формулировке аксиомы II, вечное равновесие невозможно. Поэтому при любых масштабах процессов замкнутая система есть идеализация (что было подчеркнуто в аксиоме IV).

Необходимо отметить, что в современной литературе о самоорганизации (см., например, фундаментальную книгу Г. Хакена [36]) утверждается, что количество информации в равновесной системе равно нулю. Это, конечно, ошибка. Можно принять такое приближенное условие, если считать равновесие “целью природы". Но это не так.

В открытой системе (при непрерывном подводе энергии или тепла) возможен рост энтропии, исключающий равенство, то есть dS > 0 до тех пор, пока подвод энергии, превышающий диссипацию, не будет прерван. Естественно, что рассматриваются релаксирующие системы. В специально сконструированной открытой системе при подводе энергии возможно условие .

Подвод энергии выводит систему из равновесия. При отклонениях от равновесия система стремится вернуться к нему. Запоминание в процессе синтеза информации в этом случае обеспечивают критерии устойчивости вида 2 на рис.1.3 в форме максимума энтропии и минимума производства энтропии:

< 0 и > 0. (1.5)

Это классическая онсагеровская неравновесная термодинамика, а условие (1.5) есть принцип минимума производства энтропии Пригожина [36] - [39] для процессов, близких к равновесию.

Динамическое равновесие (как основа запоминания) есть отличительная особенность синтеза информации (3 на рис.1.3) в системах, далёких от статического равновесия (статическое равновесие понимается как одновременно равновесие статистическое, для распределений).

Для них результат Глансдорфа и Пригожина [37] содержит условие устойчивости, записанное с помощью возмущений d производства энтропии в данном неравновесном состоянии, то есть в виде условия:

< 0 и (d???>----0. (1.6)

Энтропия и её производство для близких к равновесию систем автоматически есть функции Ляпунова. Для далеких от равновесия систем устойчивость зависит от деталей кинетики процессов, а потому возмущения производства энтропии в (1.6) не всегда есть функции Ляпунова, так как синтез информации при условиях запоминания (1.6) есть процесс, зависящий от многих условий. Возникающие динамические объекты статически неравновесны.

Основополагающие работы в этой области [37] - [40]. Процессы 2, 3 на рис.1.3 принято называть диссипативной самоорганизаций или самоорганизацией хаоса. Только издательство Шпрингер в серии "Синэргетика" выпустило более 60 книг по этим вопросам.

В природе часто встречается принципиально иной вид синтеза информации (отличающийся от заданного условиями 1, 2, 3 на рис.1.3), при котором функция Ляпунова использует свободную энергию.

В результате такого синтеза информации также возникают статически равновесные объекты (например, кристаллы): случайные выборки разных "нумерованных" атомов образуют одинаковые структуры.

Свободная энергия есть термодинамический потенциал, у которого независимой переменной является температура. В зависимости от выбора независимых переменных для форм энергии, являющихся результатом работы сил Xi, обладающих потенциалом, свободная энергия имеет разные названия. Общепринятые среди них существуют для механической энергии как составляющей в термодинамическом потенциале.

Условия устойчивости в этом случае, записанные, например, с помощью свободной энтальпии, имеют вид:

dG = 0 и d2 G > 0. (1.7)

Синтезированная информация есть свойства кристалла как макроскопического объекта. Условия устойчивости в этом случае имеют вид 4 на рис.1.3

Информацию такого типа можно назвать семантической, так как она однозначно определена, например, свойствами атомов, образующих кристалл. Синтез информации только выявляет ее из шумов. Обоснование строгого определения понятия семантическая информация в виде:

I = K lnZ, (1.8)

где Z - статистическая сумма. Связь I со свободной энергией будет рассмотрена в параграфе 8 этой главы.

Роль информации как физической переменной в том, что ее величина и изменения задают факт существования физических объектов и процессов.

Все процессы рис.1.3 самопроизвольны, то есть связаны с ростом энтропии (или уменьшением энергии взаимодействия). Их главная общая особенность в том, что все они имеют "цель" в виде равновесия. Известный парадокс "тепловой смерти Вселенной" в том и состоит, что "целью" всего сущего оказывается вечное окончательное равновесие. Условия типа рис.1.3 создают на этом пути то, что Пригожин [39] назвал "возникающим". Всё в терминах Пригожина "возникающее", находится не дальше от равновесия, чем позволяют условия (1.6). Поэтому самые неравновесные из процессов, описываемых на основе критериев рис.1.3 (а ими исчерпывается современный арсенал самоорганизации хаоса), не позволяют ответить на вопрос: почему "тепловая смерть" Вселенной не наступила задолго до появления Вселенной в её современном виде, а тем более жизни и разума в ней?

Если информация может возникать только в процессах возврата к равновесию, то не только жизнь и разум, но и все сущее есть только случайные флуктуации, так как в существующей науке нет способа описать возникновение новой информации в процессах ее роста, не ограниченных равновесием. А в том, что в природе многократно существуют в избытке локальные самые разнообразные равновесия, убеждать не надо.

Кроме того важнейший раздел современной науки - классическая механика - не имеет аксиоматической общности с термодинамикой. В ней отсутствует строгое определение энергии, включающее в себя уравнения состояния, общепринятые в остальной науке. Понятие - информация - в ней отсутствует. Везде в природе процессы или объекты возникают и существуют в результате изменений количеств информации, а в механике подобного нет.

Принцип максимума производства энтропии

При синтезе информации вида C на рис.1.2, использующем для реализации запоминания условия устойчивости (1.4) ? (1.7), в определении энтропии (1.1) задана конкретная физическая природа и величина адиабатического инварианта K (как правило в виде постоянной Больцмана). Вопрос о том, почему её численная величина именно такая, исчерпывается ссылками на эксперимент.

В природе должен существовать самопроизвольный процесс синтеза информации о самих (конкретных по физической природе и численной величине) адиабатических инвариантах K для систем любого вида, в том числе и тепловых. Этот синтез информации должен предварять синтез информации на основе устойчивых состояний (1.4) ?? (1.7). Самопроизвольно - опять означает в направлении роста энтропии.

Необходимо найти устойчивый процесс, который обеспечивает запоминание в процессе синтеза информации о конкретных постоянных K. Функциями Ляпунова для него должны быть энтропия и её производство в такой форме, когда их аргумент есть адиабатический инвариант K системы в роли переменной. Для исследования устойчивости необходимо проанализировать экстремумы энтропии и её производства.

Максимум энтропии S (K) не может быть основой синтеза информации о величине K из-за второго начала термодинамики: максимум энтропии S (K) в сочетании с максимумом энтропии (1.1) при заданном K есть вечное окончательное равновесие.

Процессы синтеза информации с запоминанием на основе критериев типа рис.1.3 создают "тупики равновесия". Должен существовать такой процесс синтеза информации, который разрушает их. Это предложенный в [2] - [6] принцип максимума производства энтропии. Поясню. Как отмечалось в начале главы, масштабы процессов от "элементарных частиц" до Вселенной в целом отличаются на 40 ? 60 порядков величины. Детерминированная связь в таком диапазоне величин может быть основана только на переменной логарифмического характера.

Если множитель K принять в качестве переменной в определении энтропии типа (1.1), то мера информации об адиабатических инвариантах системы есть

S (K) = c--lnK, (1.9)

то есть логарифмическая переменная, что соответствует сформулированному выше условию.

Синтез информации о величине K возможен, если S (K) имет экстремумы, то есть

dS (K) |j = 0, (1.10)

и они устойчивы (индекс j обозначает условия, при которых определяется экстремум).

Если экстремум S (K) есть минимум

d2 S (K) |j > 0, (1.11)

то такая точка статически неустойчива. Это гарантирует разрушение "тупиков равновесия", которые возникают на основе критериев запоминания рис.1.3

Рис. 1.4

Согласно критериям устойчивости Ляпунова эта точка может стать устойчивой динамически, если в ней производство энтропии имеет максимум. То есть адиабатические инварианты в определении энтропии для реализуемых в природе процессов и объектов должны удовлетворять условиям:

d2 > 0 и d2 < 0. (1.12)

Статически состояние минимума энтропии неустойчиво, то есть разрешает дальнейший рост энтропии (самопроизвольный процесс). Если производство энтропии (при динамических процессах) в функции от K будет удовлетворять условиям (1.12), то в силу критериев Ляпунова состояние минимума энтропии станет динамически устойчивым. Запоминание случайного выбора по отношению к величине K станет возможным, поэтому возможен синтез информации о величине K. Синтез информации на основе (1.12) введен мною в [2] - [6] как принцип максимума производства энтропии.

Принцип максимума производства энтропии утверждает, что постоянная K в определении энтропии (1.1) формируется так, что гарантирует существование устойчивого по Ляпунову потока (в котором возмущения устойчиво нарастают). По определению, устойчивость этого потока означает, что его можно описать как последовательность стационарных состояний. Каждое из них должно локально подчиняться принципу минимума производства энтропии Пригожина или другим условиям самоорганизации рис.1.3

Это возможно потому, что условный экстремум (1.12) связан с седловой поверхностью: максимум производства энтропии для одной группы условий совместим с ее минимумом для другой (рис.1.5). Энтропия как функция S (K) имеет минимум. Но в плоскости, которая проходит через седловую точку K = const, выполняются условия рис.1.3, в частности, условие Пригожина максимума энтропии и минимума производства энтропии.

Рис. 1.5

Введенный мною принцип максимума производства энтропии материализует смысл энтропии как способности к превращениям: формирование физических объектов и их взаимодействий происходит так, что гарантирует возможный в данных условиях максимум их способности к превращениям.

Принцип максимума производства энтропии-информации становится первичным, самым фундаментальным законом природы.

Этот принцип не надо путать с попытками Г. Циглера [41], использовать максимум производства энтропии в постановках задач, обычно использующих критерии 2, 3 рис.1.3 Понятно, что в однотипных задачах два противоположных критерия устойчивости противоречивы. В моей формулировке принцип максимума производства энтропии не относится к задачам рис.1.3 Он решающий для определения адиабатического инварианта системы: постоянной K в определении энтропии.


Подобные документы

  • История развития термодинамики. Свойства термодинамических систем, виды процессов. Первый закон термодинамики, коэффициент полезного действия. Содержание второго закона термодинамики. Сущность понятия "энтропия". Особенности принципа возрастания энтропии.

    реферат [21,5 K], добавлен 26.02.2012

  • История развития термодинамики, ее законы. Свойства термодинамических систем, виды основных процессов. Характеристика первого и второго законов термодинамики. Примеры изменения энтропии в системах, принцип ее возрастания. Энтропия как стрела времени.

    реферат [42,1 K], добавлен 25.02.2012

  • Изучение истории формирования термодинамики как научной дисциплины на основе молекулярно-кинетической теории. Ознакомление с содержанием теоремы сохранения, превращения энергии (Гельмгольц, Майер, Джоуль) и законом возрастания энтропии (Клаузиус, Томсон).

    контрольная работа [44,4 K], добавлен 03.05.2010

  • Первое начало термодинамики. Однозначность внутренней энергии как функции термодинамического состояния. Понятие энтропии. Второе начало термодинамики для равновесных систем. Третье начало термодинамики.

    лекция [197,4 K], добавлен 26.06.2007

  • Передача энергии от одного тела к другому. Внутренняя энергия и механическая работа. Первое начало термодинамики. Формулировки второго закона термодинамики. Определение энтропии. Теоремы Карно и круговые циклы. Процессы, происходящие во Вселенной.

    реферат [136,5 K], добавлен 23.01.2012

  • Изучение поведения энтропии в процессах изменения агрегатного состояния. Анализ её изменения в обратимых и необратимых процессах. Свободная и связанная энергии. Исследование статистического смысла энтропии. Энергетическая потеря в изолированной системе.

    презентация [1,6 M], добавлен 13.02.2016

  • Использование энергии топлива в работе различных машин, аппаратов, энергетических и технологических установок. Определения термодинамики: второй закон, энтропия, расчет ее изменения. Абсолютная энтропия, постулат Планка; необратимость тепловых процессов.

    курсовая работа [520,7 K], добавлен 08.01.2012

  • Теоретические аспекты энтропии, энергии и энергетики, разновидности энергетики и энтропии. Роль в физических процессах и науке. Особенности термодинамики неравновесных процессов. Вклад И. Пригожина в развитие термодинамики, значение для современной науки.

    курсовая работа [109,3 K], добавлен 12.01.2010

  • Термодинамика - раздел физики об общих свойствах макроскопических систем с позиций термодинамических законов. Три закона (начала) термодинамики в ее основе. Теплоемкость газа, круговые циклы, энтропия, цикл Карно. Основные формулы термодинамики.

    реферат [1,7 M], добавлен 01.11.2013

  • Направления термодинамических процессов. Состояние системы, детально охарактеризованное на уровне каждой частицы. Сущность эргодической гипотезы. Термодинамическое определении энтропии. Теорема Нернста или третье начало термодинамики. Тепловая машина.

    презентация [1,7 M], добавлен 23.10.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.