Стремление к максимуму способности превращений – главный закон природы

Понятие хаоса, свойства элементов его системы. Физическое понятие информации, ее измерение с помощью энтропии. Особенности понимания информации в теории связи, законы ее синтеза и самопроизвольного возникновения. Анализ механизма "Демона Максвелла".

Рубрика Биология и естествознание
Вид курсовая работа
Язык русский
Дата добавления 26.08.2010
Размер файла 648,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Принцип максимума производства энтропии - принцип максимума способности к превращениям

В определении энтропии (1.1) обычно задана конкретная величина адиабатического инварианта в виде постоянной Больцмана. Этим вводится ограничение: считается, что энтропия, которая есть одновременно мера информации, за малыми исключениями определена только для тепловых процессов. Однако понятие об информации, как физической переменной универсально (что было пояснено выше). Оно должно присутствовать при описании большинства процессов природы.

Разным процессам, объектам и их описанию должны соответствовать разные адиабатические инварианты в определении энтропии (1.1). Поэтому в природе должен существовать самопроизвольный процесс синтеза информации о конкретных по физической природе и численной величине адиабатических инвариантах для разных классов задач. Синтез информации об адиабатических инвариантах должен предварять синтез информации с использованием критериев запоминания рис. 1.2. Самопроизвольно опять означает - в направлении роста энтропии-информации с учётом семантической информации.

Для того, чтобы описать синтез такой информации, необходимо найти устойчивый процесс, который обеспечивает запоминание в процессе синтеза информации о конкретных адиабатических инвариантах Kk в определении энтропии (1.1). Функциями Ляпунова для него должны быть энтропия S(K) и её производство в такой форме, когда их аргумент есть адиабатический инвариант K в роли переменной. Для исследования устойчивости необходимо проанализировать экстремумы энтропии и её производства, определенные по отношению к величине адиабатического инварианта.

Максимум энтропии S(K) не может быть основой синтеза информации о величине K, так как максимум энтропии S(K) в сочетании с максимумом энтропии (1.1) при заданном K есть вечное окончательное равновесие, которое невозможно в силу второго начала термодинамики.

Это необходимо пояснить. Все процессы рис. 1.2 самопроизвольны, то есть связаны с ростом энтропии (или уменьшением энергии взаимодействия). Их главная общая особенность в том, что все они имеют “цель” в виде равновесия. Известный парадокс “тепловой смерти Вселенной”, сформулированный В. Оствальдом, в том и состоит, что “целью” всего сущего оказывается вечное окончательное равновесие.

Условия типа рис. 1.2 создают на этом пути то, что Пригожин назвал “возникающим” [28]. Всё возникающее у Пригожина находится не дальше от равновесия, чем позволяют условия рис. 1.2. Поэтому самые неравновесные из процессов, описываемых на основе критериев рис. 1.2 (а ими исчерпывается современный арсенал самоорганизации хаоса), не позволяют ответить на вопрос - почему “тепловая смерть” Вселенной не наступила задолго до её появления в современном виде, а тем более жизни и разума в ней?

Если информация может возникать исключительно в процессах возврата к равновесию, то не только жизнь и разум, но и все сущее есть случайные флуктуации, так как до работ [2], [3], [11] не было способа описать возникновение новой информации в процессах ее роста, не ограниченных равновесием. А в том, что в природе существуют в избытке локальные разнообразные равновесия, особо убеждать не надо.

Масштабы процессов от “элементарных частиц” до Вселенной в целом отличаются на 40 - 60 порядков величины. Детерминированная связь в таком диапазоне величин может быть основана только на переменной логарифмического характера, которая в этом случае изменяется всего в диапазоне порядка сотни.

Если множитель K принять в качестве переменной в определении энтропии типа (1.4), то мера информации об адиабатических инвариантах системы есть

S(K) = lnK, (1.8)

то есть логарифмическая переменная, что соответствует cформулированному выше условию.

Синтез информации о величине K возможен, если S(K) имеет экстремумы:

dS(K)| j = 0, (1.9)

и они устойчивы (индекс j обозначает условия, при которых определяется экстремум).Если экстремум S(K) есть минимум

d2S(K)| j > 0, (1.10)

то такая точка статически неустойчива. Это гарантирует разрушение “тупиков равновесия”, которые возникают на основе критериев запоминания рис. 1.2.

Согласно критериям устойчивости Ляпунова эта точка может стать устойчивой динамически, если в ней производство энтропии имеет максимум. То есть адиабатические инварианты в определении энтропии для реализуемых в природе процессов и объектов должны удовлетворять условиям:

d2S(K)| j > 0 и d2 < 0. (1.11)

Статически состояние минимума энтропии неустойчиво, то есть разрешает дальнейший рост энтропии (самопроизвольный процесс). Если производство энтропии (при динамических процессах) в функции от K будет удовлетворять условиям (1.11), то в силу критериев Ляпунова состояние минимума энтропии станет динамически устойчивым. Запоминание случайного выбора по отношению к величине K станет возможным, поэтому возможен синтез информации о величине K. Синтез информации на основе (1.11) введен мною в [2], [3], [11] как принцип максимума производства энтропии.

Принцип максимума производства энтропии утверждает, что синтез информации о постоянной K в определении энтропии (1.1) происходит так, что гарантирует существование устойчивого, по Ляпунову, потока. По определению устойчивость этого потока означает, что его можно описать как последовательность стационарных состояний. В каждом из них локально действует принцип минимума производства энтропии Пригожина или другие условия самоорганизации (рис. 1.2).

Это возможно потому, что условный экстремум (1.11) связан с седловой точкой (рис. 1.3): максимум производства энтропии для одной группы условий совместим с ее минимумом для другой.

Рис. 1.3

Энтропия как функция S(K) имеет минимум. Но в плоскости, которая проходит через седловую точку K = const, выполняются условия рис. 1.2, в частности, условие Пригожина максимума энтропии и минимума производства энтропии (2 на рис. 1.2).

Термин - энтропия - введен [34] Р. Клаузиусом в 1865 - 1876 г.г. Это греческое слово означает - способность к превращениям.

Введенный мною принцип максимума производства энтропии материализует смысл энтропии как способности к превращениям: формирование физических объектов и их взаимодействий происходит так, что гарантирует возможный в данных условиях максимум их способности к превращениям. Это проиллюстрировано схемой рис. 1.4. Случайности на каждой ступени иерархии роста энтропии-информации рис. 1.4 происходят при условиях, которые задаёт, в частности, синтез информации на основе критериев рис. 1.2 возврата к тупикам равновесия. Но в составе этих тупиков случайности рано или поздно (в зависимости от условий) приводят к “прорыву плотины”. При нём один из вариантов, казалось бы, окончательно равновесных (статически или динамически) объектов попадает в условия, когда возможен синтез информации на основе принципа максимума производства энтропии, выраженного критериями устойчивости рис. 1.4.

Рис. 1.4

Принцип максимума производства энтропии-информации становится первичным, самым фундаментальным законом природы. Он управляет синтезом информации о постоянных K (адиабатичeских инвариантах) в определении (1.1) для энтропии. Он позволяет природе преодолевать тупики равновесия и эволюционировать всё дальше, несмотря на запреты, которые, казалось бы, создают тупики равновесия. Именно поэтому в картине мира невероятной “гигантской флуктуации” нет места основы существования жизни, человека, его разума. Возникновение и эволюция жизни на Земле не есть редкое исключение во Вселенной. Это лишь одна из многих ординарных реализаций закономерностей природы.

Принцип максимума производства энтропии имеет и ещё один более частный смысл. В термодинамике практически без исключений энтропия рассматривается как переменная, отнесенная к единице объёма системы. Рост числа элементов системы в этом случае величину энтропии не изменяет. В живых системах размножение, то есть рост числа элементов системы, есть важнейший определяющий процесс. В этом случае (в отличие от газов и подобных физических систем) рост числа элементов вызывает рост энтропии системы. Происходит это потому, что в живых системах элементы не обладают той степенью тождественности, которая характерна для физических объектов - новые элементы системы вносят новые случайности. Энтропия объёма системы становится зависимой от числа элементов системы. Вариант принципа максимума производства энтропии с таким смыслом должен дополнять критерии, собранные на рис. 1.2.

Критерии устойчивости рис. 1.2, 1.4 описывают равновесные состояния. В случаях 1, 4 на рис. 1.2 это статические равновесия. Остальные критерии на рис. 1.2, 1.4 есть динамические равновесия. Для жизни и разума они преобладающие. Жизнь (как это утверждается в большинстве работ) преимущественно связана с неравновесными процессами. Но создаваемые ими объекты динамически равновесны.

Утверждения моих работ [2] - [12] и этой книги:

мера количества информации в физических системах и в человеческой деятельности определена как иерархическая переменная;

информация в неживой природе, при возникновении жизни и разума, в человеческой деятельности первично возникает на основе одинаковых процессов синтеза информации;

информация в теории связи отличается от информации как физической переменной существованием цели передачи сообщений;

второе начало термодинамики (стремление к максимуму беспорядка, ограниченное внешними и внутренними условиями), в частности, выраженное принципом максимума производства энтропии, есть главная причина детерминизма природы.

При пояснениях к рис. 1.2 введено понятие о семантической информации I и о связанных с ней критериях синтеза информации (4 и 5 на рис. 1.2). Как упоминалось, обычно критерий 4 формулируют по отношению к свободной энергии и используют, например, в химии для объяснения состава и структуры молекул (в том числе биомолекул). Напомню заданный ранее вопрос - почему энергетический критерий однороден с энтропией-информацией при синтезе информации как физическом процессе? Этот вопрос особо важен именно для этой работы потому, что без понимания информационных особенностей образования биомолекул невозможно дать ответ на вопрос о возникновении жизни. Для того, чтобы ответить на него, надо установить роль экстремумов энергии в синтезе информации и объяснить существо критериев 5. Сделаю это в параграфах 9 и 10.

В современной науке не было пути устранения противоречия между существованием жизни и вторым началом термодинамики как законом самопроизвольного роста энтропии. В этой книге и публикациях [2] - [12] это противоречие устранено введением принципа максимума производства энтропии (максимума способностей превращений). В них указан конкретный путь, на котором (конечно, в результате большой работы) можно получить жизнь из “первых принципов” - в виде решений “на бумаге” уравнений существующей науки. В частности, для реализации этого следует ввести энтропию-информацию как функцию комплексного переменного.

Энтропия-информация как функция комплексного переменного

Выше подчеркивалось, что нормировка энтропии есть неотъемлемая составляющая определения энтропии как физической переменной. Она устанавливает значение энтропии как характеристики максимума вероятности состояния системы при заданных условиях, например, в виде числа элементов системы N и их общей энергии U. Поскольку процедура нормировки энтропии как переменной термодинамики подробно рассмотрена в учебниках термодинамики (см., например, [15]), то здесь выделю только её итог, введенный в [2], [3], [11].

В строгом виде энтропия и её нормировка определены на основе понятия о фазовом пространстве. Поясню это понятие на примере газа. Я не стал бы вводить в этой книге понятие о фазовом пространстве (тем более, включая в него новое, полученное в работах [2], [3] [11]), если бы не то, что большинство трудностей и парадоксов в задачах возникновения и эволюции жизни и разума устраняются на его основе.

Дана система, например, газ из молекул - “бильярдных шаров”. Каждую из них можно описать с помощью модели математической точки, имеющей заданное положение, массу и скорость движения. Такое описание понятно и наглядно. Оно было введено в механике Ньютона.

Однако, как часто бывает в науке, простейшая модель при описании реальности стала создавать трудности. Около 150 лет назад работами У. Гамильтона и К. Якоби была создана принципиально новая механика, которая не нуждалась в понятии массы. Хотя бы в виде краткого пояснения ей учат всех студентов всех естественных специальностей университетов и институтов в последних лекциях по механике на втором-третьем курсе. Но они это забывают. Более того, даже узкие профессионалы механики и физики не редко воспринимают механику Гамильтона-Якоби только как полезный формальный математический аппарат.

В механике Гамильтона-Якоби [35], [36], как и в обычной механике, частицу описывают с помощью координат в пространстве. Их обозначают q. Но дальше принимают, казалось бы, чисто формальное, невероятное, нереальное предположение - каждая частица получает своё (обычно трёхмерное) пространство. Если N есть число молекул в рассматриваемом объёме газа, а индекс j есть номер данного элемента системы - молекулы газа, то геометрическое пространство в такой задаче (его называют конфигурационное пространство) имеет 3N измерений. Тройка здесь появилась потому, что движение частицы может быть разложено на составляющие по трём геометрическим направлениям прямоугольной системы координат. В этом случае говорят, что частица имеет три степени свободы в своих движениях. Степени свободы обозначают, например, буквой f. В приведенном примере f = 3. Если молекула может вращаться или составляющие её атомы могут колебаться друг относительно друга, то число её степеней свободы будет больше.

Не все понимают, что невозможно определить, что такое масса, потому, что она является аксиоматическим понятием, несводимым к более простым. Можно только на примерах иллюстрировать её свойства.

Следующий формальный шаг при введении понятия о фазовом пространстве состоит в отказе от массы как аксиоматической переменной механики. В механике Гамильтона-Якоби появляется вместо массы другое аксиоматическое понятие - импульс, который обозначают p. Иллюстративную связь между этими разными системами исходных аксиом для простейшего случая можно записать в виде

,

то есть импульс можно пояснить как произведение массы m на скорость v, которая есть производная по времени от координат (что обозначает точка вверху). Но в уравнениях Гамильтона-Якоби импульс есть аксиоматическая самостоятельная независимая переменная. Он не нуждается в определении с участием массы. Механика Гамильтона-Якоби не нуждается в массе как переменной. Она может быть пояснена с её использованием, но не потеряет строгости и эффективности, если сам по себе импульс будет независимой переменной.

Теперь (в дополнение к пространственным координатам) объект механики (состоящий из N элементов, имеющих f степеней свободы у каждого) описывают Nf координат, которые есть импульсы элементов системы. С учётом этого (новой аксиоматики, а также конфигурационных и импульсных координат) фазовое пространство имеет 2Nf измерений, где f есть число степеней свободы одного элемента системы. Оно в случае одной материальной точки механики имеет шесть измерений.

Например, молекулы в газе различимы. Их можно, хотя бы мысленно, пронумеровать. Номера молекул j изменяются в интервале:

.

Далее можно ввести понятие об единице объёма ячейки в фазовом пространстве как произведения её “линейных размеров”: Метрика в фазовом пространстве задаётся произведением пространственных координат и импульсов. Поэтому нужны кавычки.

(1.12)

В классической механике принято в качестве постулата, что этот объём может иметь нулевой предел. Физики принимают в виде аксиомы другое условие - объём (1.12) имеет конечную минимальную величину:

(1.13)

где h - известная всем постоянная Планка.

Выражение для минимального объёма (1.13) известно в физике под названием - соотношение неопределённости Гейзенберга.

Выражение (1.13) подразумевает, что есть некоторое внешнее по отношению к частицам механики пространство. В нём есть частицы. Им разрешено не только иметь положения, но и двигаться. Но то ли природа, то ли человек несовершенны и в пределах объёма (1.13) невозможно точно указать координаты и импульсы частиц одновременно. Символы ?qj и ? pj означают среднеквадратичные отклонения. Их квадрат есть дисперсия возможных отклонений координат и импульсов от, якобы, существующей математической точки их значений.

Как строго и подробно показано в [11], такое представление есть почти столетняя традиционная общепринятая ошибка. Движения и положения неразделимы. Фазовое пространство является реальностью природы, а не математическим “фокусом”. В частности, классическая механика и строгое определение в ней энергии требуют, чтобы существовал случай конечного совместного предела приращений, которые в понимании математики и механики аксиоматически считаются бесконечно малыми. Поэтому реально соотношение (1.13) должно иметь вид:

, (1.14)

где в правой части стоит не обязательно постоянная Планка (частный вид адиабатического инварианта), а один из многих конкретных адиабатических инвариантов, который соответствует уровню иерархии энтропии-информации именно данной задачи (подробности см. [11]). Утверждение (1.14) есть аксиома. Оно не может быть доказано или получено выводом из известных в механике уравнений Гамильтона. Конечно, в (1.14) следовало бы использовать символ “d” из какого-нибудь «художественного шрифта, так как соответствующие приращения конечны. Но такового, единого для всех компьтеров, не обнаружилось.

С учётом этих пояснений вернусь к задаче о нормировке энтропии.

В этой задаче признак (о котором говорилось при определении энтропии в начале главы) есть величина энергии молекулы. Ячейку задаёт объём в 6N-мерном пространстве конфигураций (пространственных координат qj) и импульсов pj (характеристик движения). В этой задаче можно принимать объём ячейки в фазовом пространстве приближенно в форме (1.13), а сам газ считать находящимся в обычном трёхмерном объёме V. Газ имеет полную энергию U.

Пусть число ячеек, определённых в фазовом пространстве указанным выше способом, оказалось M. Состояние одного j-того элемента системы определяют величины его координат qj и импульсов pj . Число возможных состояний системы Щ в этом случае задаёт подсчёт всех возможных вариантов мысленного заполнения ячеек (1.13) этими элементами. В его результате получатся числа . Эти числа должны удовлетворять двум понятным условиям, которые называются условиями нормировки.

Первое из них в том, что сумма числа элементов во всех ячейках должна быть равна их общему числу в объёме V газа, то есть:

(1.15)

Второе устанавливает, что сумма энергий i всех элементов системы должна быть равна полной энергии газа, то есть:

(1.16)

Число возможных состояний такой системы в логарифмической форме - энтропию - с помощью чисел ni и N можно записать в виде:

, (1.17)

где в частном случае газа Kk = kB - постоянной Больцмана (см. [15]).

Задача - определить с учётом условий нормировки (1.15), (1.16) распределение элементов системы по ячейкам фазового пространства, которое соответствует максимуму энтропии S. Кстати, для определения энтропии Гиббса (1.1а) требование нормировки энтропии сохраняется, но осуществляет он её другими методами (см. [18]).

Результат решения этой задачи в том, что появляется переменная - температура системы . С её участием нормировка энтропии определяет взаимно однозначное соответствие энтропии S и новой переменной, которую называют статистической суммой Z. Она равна:

. (1.18)

Статистическая сумма Z, как показано в [11], [12], позволяет ввести понятие о семантической информации в виде соотношения:

(1.19)

С учётом этого [11] нормировка энтропии с помощью температуры ? устанавливает связь между свободной энергией Гельмгольца F и семантической информацией в виде:

(1.20)

Процедура нормировки энтропии определяет энтропию как характеристику максимума вероятности состояния системы. В силу изложенного выше, нормировка энтропии определяет точку на плоскости и этим связывает энтропию-информацию с семантической информацией и свободной энергией, а также и всем комплексом нетривиальных вопросов (не имеющих ответа в существующей науке) о связях однозначных экстремумов энергии (типа 4 на рис. 1.2) и экстремумов энтропии (1-3 на рис. 1.2), для которых решающие - случайности.

По определению, точку на плоскости можно описать комплексным числом. Поэтому результат больцмановской нормировки энтропии задаёт энтропию-информацию (рис. 1.5) в виде функции комплексного переменного:

. (1.21)

Рис. 1.5

Напомню, что в теории функций комплексного переменного i есть мнимая единица: . Комплексная энтропия S* неизбежно должна быть функцией от вероятностей, представленных в форме функций комплексного переменного. В таком виде вероятности известны в современной науке. Это, например, комплексные цепи Маркова [16], [37].

Выбор действительной и мнимой оси в определении комплексной энтропии (1.21) можно пояснить тем, что свободная энергия, выражаемая (1.20) через семантическую информацию, может непосредственно превращаться во внешнюю работу. Поэтому логично использовать для семантической информации I действительную ось координат. Получающаяся в результате нормировки энтропии функция комплексного переменного S* есть полная информация о системе. Плоскости постоянства адиабатического инварианта системы , которые определяет принцип максимума производства энтропии, в строгом виде есть плоскость функций комплексного переменного.

Комплексная форма энтропии как формальный математический приём вводилась в симплектической геометрии [38]. Но известные способы введения комплексной энтропии отличаются от существа энтропии (1.21), как она введена в [39] и в этой книге.

Энтропия как функция комплексного переменного (1.21) объясняет равноправное сосуществование на схеме рис. 1.2 информационных 1-3 и энергетических 4 формулировок критериев синтеза информации. Они есть предельные случаи, когда процессы с участием энтропии можно описывать приближённо вдоль только одной из осей координат.

Энтропия в классической термодинамике по её первичному определению, включающему в себя условие нормировки, есть функция комплексного переменного. Однако её можно описать (и исторически так описывают) в терминах двух функций действительного переменного, рассматривая независимо действительные и мнимые части комплексной энтропии. Нуждается ли это утверждение в доказательствах?

Нет! Точка на плоскости бесспорно может быть описана в терминах функций комплексного переменного, включая сопоставленный ей вектор. Вопрос должен быть поставлен иной - какие существующие в науке парадоксы устраняет описание энтропии в терминах функций комплексного переменного? Какие новые возможности для объяснения существующих решений и экспериментальных фактов это даёт? В зависимости от ответов на эти вопросы утверждение о том, что энтропия есть функция комплексного переменного либо имеет фундаментальное значение, либо есть одно из возможных, но искусственных построений, которые бывают в науке. Ответы на эти вопросы в этом параграфе исчерпать нельзя. Им в значительной мере посвящена вся эта работа. В частности, энтропия как функция комплексного переменного даёт ответ на вопрос о соотношении случайностей и однозначных физических законов в возникновении и эволюции жизни и разума (см., параграф 10).

Понятие энтропии шире, чем переменной тепловых процессов. Она (как физическая переменная) описывает информацию о системе. Необходимо выделить информационную составляющую в понятии об энергии. Физическая переменная энтропия-информация имеет размерность действия. Логично в составе, например свободной энергии, выделить информационную составляющую с размерностью действия. Именно это сделано в [2], [3], [11] и в этой книге по результатам процесса нормировки энтропии. Так появляется энтропия как функция комплексного переменного и составляющая энергии в виде семантической информации. Она, как и энтропия-информация, имеет размерность действия - меры информации (1.1) как физической переменной в механике, в физике, в биофизике. Информация и семантическая информация как физические переменные однородны, но свойства их различны.

Равновесие конкретно. Поэтому в процессе нормировки энтропии возникает необходимость в параметре, описывающем задачу о равновесии. Таким параметром является температура системы. Её размерность есть обратное время [11]. Однако система может содержать в себе многие условия. Тогда равновесие будет зависеть от многих параметров системы, а не только от температуры - нормировка энтропии может вводить многие параметры, а не только температуру. Дополнительно поясню понятие о нормировке энтропии наглядными аналогиями.

Энтропия согласно определению (1.1) есть характерный размер системы в фазовом пространстве. Второе начало термодинамики в форме закона самопроизвольного роста энтропии выражает самопроизвольное увеличение размеров системы, подобное тому, как расширяется сгусток газа в пустоте. Не забывайте, что для энтропии объём определён в 6N-мерном фазовом пространстве (или приближённо в шестимерном), а не в привычном трёхмерном. Поэтому аналогии с расширением газа в трёхмерном пространстве сугубо иллюстративны.

Размер системы (как в примере сгустка газа) естественным образом стремится к максимуму в той мере, в какой он разрешён условиями данной задачи. Ограничивают его увеличение (как условие) силы взаимодействия элементов системы между собой, заданные энергией взаимодействий. Закон их зависимости от величины системы разный для разных систем и их элементов.

Например, притяжение друг к другу атомов газа падает с расстоянием. Газ в вакууме стремится равномерно заполнить максимально возможный объём. Но капля воды в воздухе (как система-жидкость) имеет другие свойства своих микроскопических элементов-молекул. На границе жидкости с воздухом закон их взаимодействия по нормали и тангенциально - разный, что приводит к поверхностному натяжению, формирующему объём и форму капли. Определение равновесия между энергетическими ограничениями и стремлением к максимуму размера системы (который выражает величина энтропии) в конкретных условиях свойств среды - это и описывает процедура нормировки энтропии. Нормировка энтропии определяет систему как материальный объект в 6N-мерном пространстве. Число возможных состояний системы определяется координатами и импульсами - движением как “субстанцией”, а потому вполне материально.

Для сомневающихся в этом напомню, что понятие - тепло - отражает движение молекул. Энтропия связана с ним определением (1.2). На основе соотношения А. Эйнштейна между массой и энергией приращению тепла может быть сопоставлено приращение массы тела. Температуру человек ощущает. Изменение энтропии (1.2) могло бы быть ощутимым. Но приращение массы мало [4] по отношению к возможностям органов чувств человека - материальность энтропии не имеет обиходных аналогий по количественным, а не по качественным причинам.

Необходимо напомнить, что понятие о материальности давно уже не есть требование существования некоей жидкости как синонима материи. Если кто-то в понимании материальности застрял на уровне этого вульгаризма прошлого, то это его личное несчастье. Пора прекратить оглядываться на толкования и комментарии таких индивидуумов. Материальна та физическая переменная, которая может быть измерена в экспериментах и использоваться в теориях. Если это так, то обязательно найдутся такие задачи, в которых материальная переменная прямо или косвенно окажется связанной с понятиями энергии и массы.

Более строго и подробно об этих важных вопросах см. [2] - [12]. Здесь нужно подчеркнуть важнейшее. Энтропия как переменная выражает необратимость времени - неравноправие пространственных координат и координат во времени. В современном математическом аппарате, используемом для описания энтропии в термодинамике и теории информации, оси координат во времени и в пространстве равноправны, обладают одинаковыми свойствами, обратимы. Быть этого не может потому, что время необратимо. Пространственные оси координат есть абстракция от понятия шоссе со свободой движения автомобилей по нему вперёд и назад. Время этой аналогии не соответствует.

В математике существует единственная система координат с неравноправными осями координат - это функции комплексного переменного. То, что связано с необратимостью времени, должно описываться в терминах функций комплексного переменного. Энтропия, выражающая необратимость времени, при существующем математическом аппарате неустранимо функция комплексного переменного. Её можно приближенно выражать в терминах функций действительного переменного, но это частная модель, эффективно применимая до тех пор, пока помнят об ограничивающих её условиях. Описание синтеза информации будет полным тогда, когда в нём использована как функция Ляпунова энтропия, выраженная в комплексной форме.

Синтез информации в терминах энтропии-информации как функции комплексного переменного

Теперь необходимо вернуться к особенностям критериев синтеза информации рис. 1.2 с учётом того, что энтропию-информацию можно рассматривать как функцию комплексного переменного. Сразу видно, что критерии 1 - 3 и 4 рис. 1.2 отображают альтернативные предельные случаи синтеза информации - те, когда можно рассматривать в терминах функций действительного переменного отдельно процессы для действительной I и мнимой S осей координат на рис. 1.5.

При подходе, когда синтез информации использует в качестве функций Ляпунова энтропию-информацию и её приращения в действительной форме, предполагается малым (или учтённым косвенным образом) вклад энергии взаимодействия элементов системы. В случае использования в качестве критерия устойчивости экстремума энергии аналогичное относится к энтропии-информации.

Реально в процессах синтеза информации участвуют существенным образом одновременно как изменения энтропии, так и изменения энергии взаимодействия элементов между собой и с окружением. Энтропия как функция комплексного переменного (полная информация о системе) содержит в себе эту одновремённость и не накладывает ограничений на количественную долю информации и семантической информации в исследуемом процессе или объекте. Это случай 5 на рис. 1.2. Ему соответствуют критерии запоминания в процессе синтеза информации, сформулированные в терминах функций комплексного переменного. В частности, становится возможным использование обычных в механике методов анализа и критериев устойчивости в комплексной плоскости. Это позволяет заменить строгими решениями общепринятый в биологии волевой альтернативный выбор энтропии или свободной энергии как основы для решения конкретных задач.

Первое в этом - определение адиабатического инварианта данной задачи Kk. Эта процедура изложена в работе [12]. Поэтому буду считать адиабатический инвариант известным a priori. Второй шаг - на основе величины Kk строятся больцмановские ячейки (1.14) и решается задача нормировки энтропии типа (1.15) - (1.20). Конкретный её вид и результат зависит от условий, которые налагаются на заполнение ячеек.

Эти предварительные шаги приводят к функции комплексного переменного S*(S, I, в1, в2, …, вm), описывающей данную задачу. В её составе в1, в2, …, вm есть действительные параметры, участвующие в формулировке условий нормировки энтропии, в частности, один из таких параметров

b--=--1/q----

есть обратная температура системы.

Результат запоминания как статически или динамически устойчивые состояния (в предельных случаях описания в терминах функций действительного переменного) попрежнему характеризуют критерии 1-3 и 4 на рис. 1.2. Однако в комплексной плоскости рис. 1.5 анализ устойчивости при синтезе информации может быть проведен и в общем случае произвольных взаимосвязей между информацией S и семантической информацией I (между статистической суммой Z и свободной энергией) на любом иерархическом уровне синтеза информации . В его реализации средствами механики участвуют характерные для системы частоты процессов. Как подчёркивалось в [11] и в этой книге, натуральная размерность температуры есть обратное время. Поэтому в критериях устойчивости 5 на рис. 1.2 роль частот играют температуры.

Методы исследования устойчивости в комплексной плоскости хорошо разработаны в механике (см., например, [40]). Они составляют основу теоретических и практических задач автоматического регулирования. Их реализуют путём перехода к приближённому линейному описанию систем и анализу расположения корней полиномов и аналитических функций на комплексной плоскости, которые возникают как результат преобразований полученных линейных уравнений. Например (но не исключительно, а только иллюстративно), для построения областей устойчивости в комплексной плоскости используют метод D-разбиения [40]. Поясню его существо в применении к задачам синтеза информации.

На основе конкретно определённой для данной задачи комплексной энтропии S* можно образовать некоторую функцию энтропии вида:

F ( S*, в1, в2, …, вm ), (1.22)

где в1, в2, …, вm есть действительные параметры, конкретные величины которых получены при нормировке энтропии для данной задачи.

После линеаризации и перехода к полиномам функции (1.22) характеризуют числа i и j корней, от количества которых внутри и вне заданных областей G комплексной плоскости зависит устойчивость системы. В частности, важны конкретные случаи, когда область G есть внешность единичного круга

или, когда G есть правая полуплоскость

Re S* > 0.

Область G может быть линейной, например, действительной осью или только положительной действительной полуосью. В последнем случае анализ процессов в комплексной плоскости вырождается в анализ знака действительных корней.

Если ввести пространство параметров в1, в2, …, вm и в нём области D(i,j), отвечающие функциям (1.22) с различными числами корней i и j внутри и вне области G , то устойчивость в функции параметров вi будут определять объединение областей D(i,j), отвечающее области G.

Для построения конкретных видов D-разбиения, например, можно использовать уравнение связи между собой информации и семантической информации, когда оно приведено к форме:

F (S*, в1, в2, …, вm ) = 0. (1.23)

Рассказанное есть только иллюстрация понятий и терминологии в этой области, необходимая для её связи с задачами синтеза информации.

Исследование систем на устойчивость в комплексной плоскости является самостоятельной хорошо развитой областью механики, имеющей важные приложения в теории регулирования и подобных задачах. Ей посвящены сотни книг и тысячи статей. Необходим “перевод” постановок задач возникновения и эволюции жизни в термины этой области и на его основе использование готовых методов и решений. Это непросто, но содержит определённость, которой нет в сегодняшних постановках задач о возникновении и эволюции жизни и разума.

Цель приведенного примера - показать, что для решения задач синтеза информации существует класс критериев синтеза информации (обозначенный 5 на рис. 1.2) и методы их использования, которые более полные, чем 1 - 4. Эти критерии важны, когда запоминание (устойчивость) зависит одновременно и в сопоставимых масштабах как от изменения свободной энергии, так и от изменения энтропии. Именно это есть самое характерное в задачах возникновения и эволюции жизни и разума.

Подчеркну, что для классического случая газа зависимость равновесного состояния (статического или динамического) от параметров вi исчерпывается температурой системы. Однако газ как система из многих элементов - только один из возможных простейших случаев.

Равновесное состояние существует и при сложных условиях в фазовом пространстве. Тогда распределения, которым отвечают составляющие комплексной энтропии S и I, могут зависеть от многих параметров вi. Например, молекулы ДНК имеют своё фазовое пространство со своими сложными правилами заполнения его ячеек, которые задают для них варианты их форм существования. Равновесное распределение в них нуклеотидов будет функцией многих параметров вi.

Повторю промежуточный итог. Существующие в механике методы и решения задач статической и динамической устойчивости могут быть сформулированы в терминах энтропии-информации как функции комплексного переменного. Это в значительной степени есть использование готового аппарата по его прямому назначению. Однако в динамических задачах регулирования участвуют частоты, а в больцмановском формализме термодинамики (который используется и в случае задач о синтезе информации) их заменяет температура. Противоречия это создать не может, так как натуральная единица измерения температуры [11] есть обратное время - те самые частоты, которые в механике обязательно участвуют в оценках динамической устойчивости.

Соотношение между случайностями и физическими законами для задач возникновения и эволюции жизни и разума - неразрешимый вопрос на протяжении уже многих поколений научных работников. Введение выше комплексной энтропии и переход к критериям синтеза информации в комплексной плоскости есть принципиально новый путь решения таких задач. То, что рассказано выше, переводит ответ на него в форму использования готовых результатов механики по их прямому назначению. Но преуменьшать трудности в этом нельзя. Чтобы исчерпать введенные выше новые возможности, нужны многие научные работы. Надеюсь, что изложенное в этой главе будет понято и они последуют.

Иерархия энтропий при синтезе информации

Понятие о комплексной энтропии участвует в введенной ранее в работах [2] - [11] иерархичности синтеза информации. Поясню иерархию при росте энтропии-информации сначала для её представления в форме функции действительного переменного.

Синтез информации содержит в себе запоминание результата. Поэтому он обязательно приводит к двум информационным (термодинамическим) подсистемам, у которых времена релаксации отличаются на много порядков величины. Долгоживущая подсистема есть запомненные объекты. Подсистема с малыми временами релаксации возникает при взаимодействии этих объектов между собой и с окружающей средой. Например, атомы и молекулы, образующие газ, и сам объем газа как физический объект. Наиболее фундаментальной и долгоживущей является информация об адиабатических инвариантах системы.

Обозначу Sk,g меру количества долговременно запомненной (синтезированной) информации при очередном k-том этапе ее синтеза. В частности, это есть информация об адиабатических инвариантах системы. Меру информации, синтезированной за счет процессов самоорганизации типа рис. 1.2, обозначу Sk,s . Тогда на k-том этапе синтеза информации ее количество:

Sk = Sk,g + Sk,s (1.24)

Энтропию-информацию, отвечающую n-ной ступени иерархии объектов и процессов, например для возникновения и эволюции жизни, можно записать [2] - [11] в виде ряда:

Sn = S0 + S1| 0 + ... + Sk| 0,1,...,(k-1) + ... + Sn| 0,1,...,(n-1), (1.25)

в котором каждый последующий член описывает энтропию-информацию при новых признаках и условиях по отношению к предыдущим членам ряда, а S0 есть информация, принятая за начало отсчета для данной постановки задачи (например, информация, необходимая для образования нуклеотидов, аминокислот и других первичных соединений, которые характерны для задач возникновения и эволюции жизни и разума).

Энтропия Sk при условиях (k - 1) удовлетворяет соотношению:

Sk|(k-1) Sk , (1.26)

где знак равенства отвечает равновероятному случайному изменению условий во всем диапазоне их возможных значений и поэтому интереса не представляет. В силу неравенства (1.26) члены ряда (1.25) убывают приближенно экспоненциально, так как условия на каждой новой ступени иерархии k относятся к признакам предыдущей (k - 1) ступени иерархии, то есть уменьшают количества информации пропорционально их предыдущему количеству (конкретно убывающая функция сложная, так как показатели экспоненты могут быть разными для разных интервалов ряда (1.25)). Убывает и разность

,

что показано на рис. 1.6. Это исчерпывающе объясняет [2] - [11] парадокс кажущегося роста порядка (кажущегося уменьшения энтропии) по мере эволюции Вселенной и, в частности, при возникновении и эволюции жизни и разума.

Рис. 1.6

Наблюдаемыми человеком являются для каждой из задач конкретные последние ступени иерархии роста энтропии-информации. Внутри этих ступеней изменения энтропии тем меньше, чем выше их уровень иерархии. Поэтому иерархический рост энтропии может восприниматься как ее наблюдаемое уменьшение.

Для каждой ступени иерархии k величина энтропии Sk,g определяется на основе принципа максимума производства энтропии. Он задает адиабатический инвариант системы Kk для k-го уровня иерархии энтропии-информации.

В силу принципа максимума производства энтропии каждый иерархический шаг синтеза информации формирует Sk,g так, чтобы скорость роста энтропии (возможная в условиях данной ступени иерархии) была максимальна. Например, в мире живого для системы в целом ее задает максимально возможная скорость возникновения новых элементов (скорость размножения). Для ряда (1.25) энтропия рассматривается по отношению к системе в целом, то есть пропорциональна числу элементов. Но энтропия в этом случае растёт и для единицы объема системы, так как существуют ошибки (и подобные им случайные изменения элементов), которые могут нелинейно расти в функции числа элементов.

Для энтропии

Sk,s = Kk ln Щk (1.27)

адиабатический инвариант системы Kk и вид статистики ?k фиксированы данным уровнем иерархии энтропии Sk,g. Определяющими для Sk,s являются процессы диссипативной самоорганизации. Поэтому фундаментальное описание процессов природы нужно проводить в системе координат рис. 1.7, связывающей между собой информацию S, семантическую информацию I, а также информацию о величине адиабатических инвариантов системы.

(1.28)

Рис. 1.7

Конкретные плоскости Jk маркирует величина информации об адиабатическом инварианте Sk,g в пределах данной плоскости синтеза информации. В строгом виде каждая из этих плоскостей есть плоскость функций комплексного переменного.

Положение плоскостей

на оси J (величину адиабатического инварианта Kk) задаёт принцип максимума производства энтропии (1.11). Процессы в плоскостях

подчиняются законам синтеза информации, сводка которых дана на рис. 1.2.

Уровни иерархии k определяют как возникновение и эволюцию Вселенной, так и возникновение и эволюцию жизни и разума на Земле. Поэтому разум природы и разум человека имеют единую основу, единый способ взаимодействия с окружающей средой. Именно поэтому природа воспринимается нами как разумная.

Отличие между разумом человека и разумом природы в том, что для разума человека запоминание эфемерно, а условия не имеют фундаментальных способов контроля, так как процветание человека не есть цель природы. Ее “цели” исчерпываются вторым началом термодинамики, то есть стремлением к максимальному хаосу в пределах величин обобщенной энергии (в том числе - абстрактной) и условий, заданных на данном уровне иерархии роста количества энтропии-информации.

Ряд (1.25) записан для энтропии-информации как составляющей комплексной энтропии, выраженной в форме функции действительного переменного. По отношению к полной информации о системе ряд (1.25) следует записывать в комплексной форме:

(1.29)

Семантическая информация в составе ряда (1.29) может уменьшаться по мере роста номера ступени иерархии, но закон этого не обязательно вида рис. 1.6. Этому закону напрямую подчиняется только мнимая составляющая комплексной энтропии, которая для ряда (1.25) записывалась как энтропия-информация в форме действительной функции.

Жизнь возникла на Земле и закономерно, многократно возникала и возникает во Вселенной в формах, сопоставимых с земными (на планетах с условиями, близкими к земным), потому, что на первичных этапах возникновения жизни велика роль семантической информации. Внутри старших иерархических ступеней она может быть меньше, но остаётся. Поэтому мнимая составляющая iS членов ряда (1.29), как и для ряда (1.25), уменьшается приближенно экспоненциально. Изменение действительной составляющей I необязательно монотонное. Это не меняет приведенного выше пояснения о совместимости роста энтропии с кажущимся увеличением порядка, так как человек действие физических законов не включает в понятие беспорядка.

Принцип минимума производства энтропии Пригожина сформулирован так, что он не зависит от возможности описывать энтропию как функцию комплексного переменного. Поэтому в пределах каждой из плоскостей

он часто ведущий. Но без участия принципа максимума производства энтропии он работать не может, так как без него нет объектов, которые можно описать в этой плоскости.

В Московском Государственном университете 10 октября 1995 г. И.Р. Пригожин читал лекцию “Время, хаос, законы природы”. Из аудитории в связи с моими работами ему был задан вопрос: “Условия Ляпунова выполняются не только при максимуме энтропии и минимуме производства энтропии, но и при минимуме энтропии и максимуме производства энтропии. Возможны ли такие состояния в природе?” Его ответ - “Нет. При выходе из равновесия производство энтропии минимально. Другого вариационного принципа нет”.

И.Р. Пригожин ошибается. В его принципе минимума производства энтропии для систем близких к равновесию, а также в его развитии для систем далеких от равновесия (подчиняющихся условиям синтеза информации 3 на рис. 1.2), нет “возникающего” в том смысле, который он вложил в название своей книги “От существующего к возникающему” [28]. Всё возникающее у Пригожина в конечном счёте имеет цель в виде конкретного состояния равновесия. Она может быть далекой или близкой, но цель-равновесие у него всегда существует. Если цель есть, то нет возникающего, так как цель существует раньше, чем путь к ней и возможные остановки на этом пути. Если цель есть, то “стрела времени” уже “воткнута” в эту цель. Но тогда она вовсе не стрела.

Истинно новое возникает как результат, который разрушил статическое равновесие. Новое, возникающее - это то, что преодолело тупик равновесия и открыло возможности роста энтропии-информации. Преодоление тупика равновесия описывает принцип максимума производства энтропии, то есть критерий устойчивости в виде минимума энтропии и максимума ее производства. Именно поэтому принцип максимума производства энтропии (принцип максимума способности к превращениям) есть главный, первичный созидающий закон Вселенной.


Подобные документы

  • Симметрия и ее значения: пропорциональное (сбалансированное) и равновесие. Симметрия природы в физике, ее фундаментальные теории. Законы сохранения: закон изменения и закон сохранения полной энергии, закон сохранения импульса, закон сохранения заряда.

    реферат [24,0 K], добавлен 05.01.2008

  • Понятие энтропии как меры хаоса, ее принципы и место в истории развития классической физики. Общая характеристика образования структур нарастающей сложности. Анализ взаимосвязи экологии и естествознания. Оценка экологической обстановки в г. Новосибирске.

    реферат [40,8 K], добавлен 21.10.2010

  • Понятие синергетики и бифуркации, общая характеристика теории катастроф. Актуальность и область применения универсальных законов бедствий. Законы распределения вероятностей и степенные законы. Механизмы возникновения и развития катастрофических событий.

    аттестационная работа [788,8 K], добавлен 13.01.2011

  • Нервная система: анатомическое строение, отделы и виды, нервные связи, формирование энергии передачи информации. Переработка информации в центральной нервной системе. Понятие "сенсорная система". Локализация, особенности, свойства терморегуляторов.

    реферат [270,8 K], добавлен 15.08.2014

  • Характеристика сущности теории хаоса и особенностей ее взаимосвязи с естествознанием. Анализ вклада Вернадского в представления о "жизненном порыве" и "творческой эволюции". Применимость теории хаоса в общественных процессах. Человек и явление порядка.

    контрольная работа [25,7 K], добавлен 28.09.2010

  • Фенотип и программа для его построения, передающаяся по наследству. Физическое распределение Максвелла. Основные каналы передачи информации от ДНК к признакам организма и от ДНК родителей к ДНК потомков. Дарвиновская неопределенная изменчивость.

    презентация [573,4 K], добавлен 17.10.2014

  • Понятие термина "трансляция" как передачи наследственной информации от иРНК к белку. "Перевод" последовательности трехчленных кодонов иРНК в последовательность аминокислот синтезируемого белка. Генетический код и механизм регулирования белкового синтеза.

    реферат [189,1 K], добавлен 11.12.2009

  • Классификация методов научного познания. Картина мира мыслителей древности, гелиоцентрическая, механистическая, электромагнитная. Понятие о симметрии, взаимодействии и энтропии. Основные теории возникновения жизни и ее эволюции. Происхождение Вселенной.

    шпаргалка [83,2 K], добавлен 19.01.2011

  • Вклад физики в развитие электромагнитной картины мира. Основные экспериментальные законы электромагнетизма, исследования М. Фарадея, А. Ампера. Уравнения теории электромагнитного поля Д. Максвелла. Положения электронной теории металлов Г. Лоренца.

    реферат [34,0 K], добавлен 07.05.2009

  • Понятие, строение и функции сенсорной системы, кодирование информации. Структурно-функциональная организация анализаторов. Свойства и особенности рецепторного и генераторного потенциалов. Цветовое зрение, зрительные контрасты и последовательные образы.

    контрольная работа [838,6 K], добавлен 05.01.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.