Стремление к максимуму способности превращений – главный закон природы

Понятие хаоса, свойства элементов его системы. Физическое понятие информации, ее измерение с помощью энтропии. Особенности понимания информации в теории связи, законы ее синтеза и самопроизвольного возникновения. Анализ механизма "Демона Максвелла".

Рубрика Биология и естествознание
Вид курсовая работа
Язык русский
Дата добавления 26.08.2010
Размер файла 648,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Стремление к максимуму способности превращений - главный закон природы

Информация в природе есть иерархическая физическая переменная, описываемая функциями комплексного переменного. Её создаёт синтез информации, включающий в себя случайности, условия и запоминание. Запоминание происходит на основе критериев устойчивости. Синтез информации приводит к статическим или динамическим равновесиям - экстремумам энтропии и её производства. Преодоление тупиков равновесия происходит на основе принципа максимума производства энтропии. В отличие от этого, информация в терминах теории информации как науки о передаче сообщений, основана на понятии цели.

Что такое - хаос?

Дана система из многих элементов. Эти элементы обладают заданными свойствами и могут равновероятно случайно изменять своё состояние. Изменение состояния любого из элементов не зависит от изменений для остальных. Состояние элементов такой системы есть хаос.

Например, молекулы газа в комнате. Молекулы обладают свойствами. Их можно выразить моделью в виде бильярдных шаров. Молекулы движутся прямолинейно случайным образом. Движение каждой из молекул не зависит от движения всех остальных. Свойства молекул заключаются в том, что они взаимодействуют друг с другом путём упругих соударений. Газ находится в равновесии, что, в частности, означает неизменность его макроскопического среднего состояния во времени. Это есть молекулярный хаос как состояние газа в комнате.

Хаос индивидуального поведения элементов системы не есть альтернатива детерминизму системы в целом. Хаос есть конкретный вид детерминированного состояния макроскопической системы. Причём хаос есть наиболее детерминированное состояние системы из многих элементов, которое может существовать в природе. Элементы системы движутся хаотично. Состояние, которое описывается осреднением по многим элементам, точно определено своими макроскопическими характеристиками - детерминировано. Например, для газа в комнате можно определить теоретически или измерить его однозначные макроскопические средние параметры - температуру, давление, объём. Этим состояние газа определено.

Для осреднённых переменных, описывающих систему в целом, существование в её основе хаоса выражается тем, что макроскопические переменные системы немного изменяются относительно среднего значения - флуктуируют. Однако можно выбрать столь большие количества элементов системы, что флуктуации будут меньше любой наперёд заданной величины.

Одна из причин непризнания молекулярно-кинетической теории газов в момент её создания Л. Больцманом заключалась в том, что, например, в газе при атмосферном давлении измерениями тех лет флуктуации не обнаруживались. Косвенно их выражало известное тогда броуновское движение малых твёрдых частиц в газе или жидкости, наблюдаемое под микроскопом. Но его связь с молекулярно-кинетической теорией была установлена не сразу.

Поведение элементов системы в состоянии хаоса описывается независимыми друг от друга случайностями. Однако хаос неустранимо содержит в себе ограничения для индивидуальных элементов системы.

Их выражают:

Свойства элементов системы. Например, молекулы газа непроницаемы и могут быть хотя бы мысленно отмечены их номерами. Электроны также непроницаемы, но неразличимы, то есть не могут быть пронумерованы. Кванты света проницаемы и неразличимы.

Законы парных взаимодействий элементов системы между собой в процессе их независимого движения.

Дополнительные условия, в частности, нарушающие независимость поведения элементов системы.

Свойства элементов системы п. 1 сформулированы относительно признаков элементов системы. Например такими признаками в п. 1 заданы проницаемость или непроницаемость элементов системы, а также возможность нанести на элемент метку - его номер. Если в системе действуют отмеченные в п. 3 дополнительные условия, то термин - хаос -относится только к той части поведения элементов системы, которая не определена однозначно дополнительными условиями.

При хаосе в системе из многих элементов определены переменные, которые являются функциями состояния системы в данный момент времени и в данных условиях. Величины переменных, которые есть функции состояния системы, не зависят от пути, по которому система пришла в данное состояние [15]. Например, энергия есть функция состояния системы. Связь методов теории вероятностей с функциями состояния выражает тот факт, что для марковских случайных процессов при заданном состоянии системы будущие события не зависят от прошлой истории. Поэтому они приводят к функциям состояния систем [16].

Энтропия

Состояния элементов системы определяют на основе признаков, величина которых отличает их друг от друга. Хаос данного состояния системы из многих элементов также определён по отношению к конкретным признакам. В таком виде хаос может быть количественно описан энтропией как функцией состояния системы из многих элементов - S(Щ), где Щ есть число возможных состояний элементов системы, отличающихся величиной признака.

Для того, чтобы определить число Щ возможных состояний элементов системы, надо выделить признак, величина которого отличает состояния системы друг от друга. Далее надо задать ячейку в виде интервала изменения независимых переменных задачи, которому сопоставляется величина данного признака. Следующим шагом методами комбинаторики подсчитывается число всех возможных комбинаций распределения элементов системы по этим ячейкам.

Мысленно переставляя нумерованные молекулы по ячейкам, подсчитывают число их возможных перестановок Щ Это и есть число возможных состояний элементов системы. В этом примере - молекул газа.

Если в общем случае системы из многих элементов известна функция Щ, описывающая число возможных состояний элементов системы, отличающихся величиной признака, то энтропия определена в виде логарифмической функции:

(1.1)

Множитель Kk в этой формуле указывает, какие именно признаки отличают состояния системы, и является адиабатическим инвариантом данной системы - величиной, которая есть минимальная дискретная постоянная в системе, не обменивающейся энтропией с окружением.

Число возможных состояний системы Щ в определении энтропии (1.1) может быть заменено вероятностями состояний системы Ш. Тогда формула, выражающая энтропию как функцию состояния системы, есть:

. (1.1а)

Знак минус в этом случае появляется потому, что по определению всегда числа состояний , а вероятности , то есть знак минус в (1.1а) сохраняет положительную определённость энтропии.

Число Щ состояний элементов системы, содержащей много элементов, как правило, огромно. Однако логарифмическая функция от них растёт очень медленно. Поэтому в природе вряд ли можно встретить значения lnЩ, которые превышали бы пару сотен. Ведь такому значению логарифма соответствует число примерно со ста (!) значащими цифрами. Далее в тексте, если специально не оговорено, ссылка на (1.1) равноправно подразумевает и (1.1а).

Приведенное выше определение энтропии общепринято. Оно подробно рассматривается в учебниках физики и термодинамики (см., например [15]). Сформулировано оно Л. Больцманом [17] и записано в виде (1.1) М. Планком. Запись энтропии (1.1а) с помощью вероятностей состояний Ш использовал Дж. Гиббс [18].

В определениях (1.1) и (1.1а) энтропия понимается как характеристика максимума вероятности состояния системы - как функция, описывающая наиболее вероятное состояние системы.

Эти определения должны быть дополнены условиями нормировки энтропии, которые относят определения энтропии к полному числу N элементов системы и к её полной энергии (см., например, [15], а также по отношению к этой работе [11]).

Многим более привычно определение энтропии в виде приращения, записанного с помощью переданного системе количества тепла Q и температуры (интегрирующего множителя) в виде:

. (1.2)

Такое определение энтропии не противоречит (1.1), но является частным случаем для конкретных тепловых задач.

Поясню понятие адиабатического инварианта. Оно хорошо известно в физике. Его ввёл в начале ХХ века П. Эренфест [19].

Если математический маятник (рис. 1.1) сделать с подвесом на нити, которая перекинута через блок, и бесконечно медленно тянуть за конец этой нити, то длина маятника и соответственно его частота будут изменяться. При этом внешняя сила совершает работу, которая изменяет энергию колебаний маятника (и его частоту) строго непрерывно в математическом смысле. Такой процесс является адиабатическим, а отношение энергии E колебаний маятника к его частоте n----будет оставаться постоянным:

E/ = const. (1.3)

Это отношение есть адиабатический инвариант системы. В частности, фундаментальная для физики постоянная Планка h есть адиабатический инвариант для “маятников” атомных масштабов. Для тепловых процессов адиабатичность имеет частный смысл - адиабатическая система не обменивается с окружением количествами тепла. Существование такого частного случая не противоречит определению Эренфеста.

Адиабатическая система, как видно из примера маятника Эренфеста рис. 1.1, может получать извне энергию - уменьшение длины маятника связано с работой, затраченной на поднятие его груза. Аналогично для системы, которая (в отличие от маятника) состоит из многих элементов.

Рис. 1.1

Энтропия её адиабатического состояния сохраняется: dS = 0. Однако при этом в системе возможны внутренние переходные процессы перераспределения поступившей извне энергии между элементами системы. За их счёт энтропия адиабатической системы может возрастать. Итоговое свойство адиабатических систем из многих элементов в том, что в них изменение энтропии .

В силу определения единицы измерения энтропии как адиабатического инварианта системы её величина есть характерный размер системы в фазовом пространстве. Нормировка энтропии задаёт связь энергии системы и единицы измерения её размера в фазовом пространстве.

Что такое - информация?

Математическая формализация понятия об информации есть одно из крупнейших достижений ХХ века. Однако она возникла и развита для задач обработки и передачи человеческих сообщений. В них обязательно существует цель передачи информации. Методы и определения теории информации как науки о передаче сообщений неустранимо прямо или косвенно основаны на существовании такой цели.

При существовании цели, для достижения которой передаются сообщения, абстрактное математическое определение количества информации основано на простых житейских аналогиях. Например. Есть город. Есть ваш друг, который живёт в “синем доме с башенкой” где-то в этом городе. “Синий дом” - это есть известная заданная цель. Вы можете в этом городе пойти из случайной точки по случайным улицам и ходить так до тех пор, пока не увидите этот дом. Как бы не был сложен город, можно подсчитать число Щ возможных маршрутов такого поиска. Это число, как элементарно понятно, очень большое. Удобнее использовать его логарифм по любому основанию, например, натуральный. Тогда можно записать вместо числа Щ его логарифм:

. (1.4)

Ваш друг написал вам письмо и сообщил свой адрес и маршрут к нему. До получения письма была неопределённость маршрутов в виде числа Щ возможных их вариантов, записанного в логарифмической форме . Письмо есть информация для вас в самом обиходном виде - она задала вам единственный маршрут вместо случайных. Он не обязательно наиболее вероятный - он только есть заданный, определённый.

Информация в письме устранила неопределённость. Число , которое описывает устранённую неопределенность, есть мера количества информации. Это и есть строгое математическое определение понятия - информация - в терминах человеческих сообщений. Видна аналогия с предыдущим. Число возможных состояний системы при определении энтропии (1.1) и неопределённость, выраженная числом возможных маршрутов в достижении цели, - однородные переменные. Как и в (1.1), в итоговом определении меры информации (1.4) использовано не само число Щ, а его логарифм - число . Отличие между ними в том, что определение (1.1) описывает наиболее вероятное состояние системы. Для этого используется процедура нормировки энтропии (которая будет пояснена в параграфе 9 этой главы).

Информация есть устранённая неопределенность. Количественно её выражает логарифм числа случайных вариантов, которые информация заменила единственным. Определение (1.1) и (1.4) похожи. Подобно (1.1а) определение (1.4) может быть записано с помощью вероятностей Ш в виде:

. (1.4а)

Опять знак минус появляется потому, что числа возможных состояний больше единицы, а вероятности состояний - меньше единицы. Опять, если не будет оговорено, ссылка на (1.4) подразумевает и (1.4а).

Разница между (1.1) и (1.4) не в формулах, а в сопровождающих их условиях - энтропия-информация Больцмана-Гиббса есть характеристика максимума вероятности состояния системы, а в теории информации определение Хартли (1.4), (1.4а), введенное в 1928 г., относится к конкретному событию (см. [20], [21]). На связь определения информации с энтропией впервые обратил внимание Л. Сцилард в 1929 г.

Непостижимая для многих сложность абстрактного понятия об информации сводится к элементарному. Всегда можно подсчитать число случайных вариантов достижения некоей цели или вероятность этого. Далее вычислить логарифм и принять его величину мерой информации того сообщения, которое устранило неопределённость. Такую информацию принято называть информацией Хартли. Однако и в теории информации, как науке о передаче сообщений человеком, иногда используется информация (энтропия) в смысле Больцмана.

Природа “знает” только натуральные логарифмы. Поэтому энтропия-информация (1.1) определена именно на их основе. Логарифм может быть определён при любом основании А, а не обязательно при основании в виде числа e, как это соответствует натуральным логарифмам. Человек может использовать разные основания логарифмов - десятичные, двоичные и другие - произвольные с любыми основаниями A. Поэтому определение информации (1.4) в зависимости от выбора основания логарифмов будут давать разные числа. Такого в определениях переменных для описания процессов и явлений быть не должно.

Для того, чтобы исключить этот разнобой, определение информации (1.4), записанное с использованием логарифма по основанию А, дополняют множителем:

. (1.5)

Тогда

. (1.6)

Конкретная величина (1.5) множителя возникает в этом случае потому, что адиабатический инвариант абстрактной системы должен быть равен единице. Множитель (1.5) определяет величину и название единицы измерения информации в зависимости от выбранного “алфавита”, который отражает основание логарифмов. Для привычной человеку абстрактной информации основание логарифмов указывает число символов А того “алфавита”, который он использует. В таком случае определение энтропии-информации (1.4) приобретает вид:

= lnA logAЩ. (1.7)

В таком виде мера информации, не зависит от выбора основания логарифмов, но имеет разные единицы измерения. Например, при А = 2 это известный всем бит. Если величина K = 1, то такую единицу информации называют нат.

Кстати, приведенные выше пояснения относительно единиц измерения информации нетривиальны. Обычно (для определённости см., например, [22]) выбор множителя в (1.6) обосновывают соображениями [22] типа: “Выбор коэффициента K произволен и должен быть сделан на основе соображений удобства”.

Существует (в том числе среди квалифицированных научных работников) заблуждение. Например, оно явно высказано в популярной статье [23] академика Н.Н. Моисеева: “Все процессы, которые физика изучает, прекрасно укладываются в те законы и принципы отбора, которые обходятся без понятия "информация". Короче говоря, физике понятие информации не нужно. И я уверен, что физические законы и впредь не будут содержать этого понятия”. Такие заявления есть ошибка.

В механике (как основе физики) уже больше 150 лет существует переменная - действие. Пусть тело массой m движется равномерно и прямолинейно со скоростью v и прошло путь, длиною r. Количество действия в этом случае есть: (Дж.с). В такой постановке задачи произведение

- импульсу тела.

Казалось бы, действие есть “невыразительная” переменная. Однако она самым существенным образом участвует в фундаментальных законах природы. Например, механическая траектория частицы определяется на основе вариационных принципов как геометрическое место точек минимума действия. Знаменитая постоянная Планка есть квант действия. Распространение света (любых электромагнитных волн) описывается с участием экстремума действия. Внимательный анализ фундаментальных работ в механике и в физике показывает, что в основах науки действие есть даже более важная переменная, чем, например, энергия.

Ввёл в науку действие как её переменную ещё в 1744 г. П. Мопертюи. Он же сформулировал важнейший и первичный для многих областей науки принцип наименьшего действия, носящий его имя. Почему эта, казалось бы, ординарная функция импульса и времени имеет важнейшее значение в науке? Такого вопроса никто ещё не ставил. Работают математические формулы на основе действия - и достаточно.

Как впервые исчерпывающе показано в [11], действие есть основополагающая переменная механики и физики потому, что в “основе основ” науки - в классической механике Гамильтона-Якоби - действие есть энтропия (1.1) как мера больцмановской информации (функция Ляпунова). Только знак у неё противоположный - тот, который ввёл Гиббс. Вот почему “невыразительное” действие столь важно в науке!

Поэтому реально (а не на основе застарелой невнимательности) физические законы без участия понятия об информации как физической переменной не существовали, не существуют и впредь существовать не могут. Однако природа не имеет цели. Этим информация в законах физики отличается от информации при передаче человеческих сообщений. Информация в природе должна быть первичной для всех её законов, но при этом она должна быть физической переменной, так как этот термин тавтологично означает то, что описывает именно процессы природы.

Информация в терминах человеческого общения и информация как физическая переменная выражаются, казалось бы, одинаковыми формулами (1.1) и (1.4). Формулы действительно одинаковы. Но, подчеркну ещё раз, между ними есть принципиальное отличие, которое содержится вне их самих. Определение энтропии-информации как физической переменной (1.1) включает в себя дополнительное определение - переменная S в них описывает максимум вероятности состояния системы. Этот максимум устанавливает дополнительная неотъемлемая принадлежность определения (1.1) - процедура нормировки энтропии.

Существует ещё одно отличие определения энтропии как физической переменной - меры информации (1.1) - и информации, подразумевающей существование цели в форме (1.4). Мера (1.1) считается мерой неопределённости (или как иначе говорят - беспорядка). Мера (1.4) есть устранённая неопределённость. Для информации как физической переменной неопределённость устраняет само существование объекта (процесса) природы или техники.

Почему и как возникает вновь информация?

Ввёл в науку понятие о возникновении информации вновь- синтезе информации - Г. Кастлер [24], [1] уже около полустолетия назад. Поясню процесс и законы синтеза информации. Сначала сделаю это с помощью наглядных примеров.

Почему звук “и” изображается в русском языке именно такой комбинацией черточек? Случайно когда-то кто-то так обозначил этот звук на бумаге. В латинском алфавите он пишется “i”, в английском “е”. Примеры можно продолжить. Сами комбинации черточек не содержат в себе информации. Но как только эти комбинации запомнены с помощью обучения - они стали информацией о звуках.

Информация (например, в алфавите) возникла на основе случайностей. Их ограничивали условия. Например, на камне зубилом сложно выбивать такие символы, которые легко писать пером на бумаге. Когда изобретателю алфавита стали подражать другие - произошло запоминание его случайного выбора. Только после этого случайные комбинации черточек превратились в информацию.

Сколько информации в букве “и”? Ответ даёт определение (1.1). Представьте себе, что вы подсчитали все возможные случайные комбинации точек, палочек и т.п. Число получится астрономическое, даже с учетом условий способа письма. Однако логарифм (например, десятичный) этого числа не будет большим числом. Введенная в [2], [3], [11] цепочка Случайности -- Условия -- Запоминание создает информацию. Количество информации есть логарифм того числа всех возможных случайностей, из которых запомнена единственная.

Запомненный случайный выбор при сопоставлении окружающих предметов и явлений с символами-словами на основе разных алфавитов (и языков) может быть разный. Смена алфавита изменит единицу измерения количества информации, но не само её количество.

Набор человеческих звуков (условие) задан анатомией и физиологией организма. Количество информации как физической переменной при первичном создании письменности огромно, так как включает в себя выбор из всех возможных комбинаций “точек, палочек, черточек, закорючек”. Но после этого (при формировании символов письменности разных народов в рамках существования цели письменности) оно мало.

Отличия разных вариантов языков и письменности в основном связаны с анатомическими и географическими условиями для разных народов. Запоминаются случайности. Поэтому об экономичности кодирования, об оптимальности в рамках случайно исторически выбранных алфавитов и говорить нечего. Например, в английском языке один и тот же звук может изображаться настолько разными комбинациями символов, что количество букв его алфавита не имеет ничего общего с реальным “алфавитом” и приводит к избыточности кодирования в этом языке. Это связано с особенностями случайного выбора и запоминания, которые создавали островные условия Англии. Анатомия рта островного племени создала характерный звук, например, в артикле the. Приоритет мореплавания, вызванный островным положением, обусловил поступление многих слов обиходно, вне письменности стран, откуда они были заимствованы. Островная изоляция создавала условия, при которых любые искажения звуков и слов прочно запоминались. Их написание приходило позже. Закреплялось несоответствие первичных символов со звуками.

Русская письменность возникла исторически относительно поздно. Поэтому в ней присутствовала попытка с помощью закономерностей уменьшить случайности при формализации звуков в виде изображений в алфавите. В качестве условия создания алфавита случайность подсказала суммирование близких географически и во времени алфавитов так, чтобы передать оттенки звучания похожих звуков.

В первичном русском алфавите Кирилла и Мефодия были символы греческого, римского языка и даже иврита (буква “ш”). Малые особенности анатомии южных народов почти исключили шипящие из звучания их языков и соответственно из их алфавитов. Разные специальные символы алфавита для шипящих - наибольшая сохранившаяся особенность русского алфавита. Избыточные символы, отражающие почти неразличимые детали звучания близких звуков, к счастью, из русского алфавита постепенно исчезли. К ним относится твёрдый знак, “фита”, ещё раньше аналог греческого “мю”. Кстати, упомянутый выше звук the есть определённый артикль - указание на существительное, то есть обозначение объекта, предмета. Почему артикли (разные по звучанию краткие звуки) присутствуют во многих языках?

Ответ уходит в глубины возникновения речи. Самое первое (существующее у животных, например, лай собаки) проявление речи состоит в указывающем на предмет поведении (а потом жесте), внимание к которому должен привлечь звук. Эта случайность, вызванная условиями возникновения самых первичных форм языка, будучи запомненной на сотни тысячелетий (если не на миллионы лет) и есть артикль. Кирилл и Мефодий, вводя условия логической обоснованности в случайность письменности, сочли артикль проявлением неспособности сформулировать мысли и убрали его. Ведь нечленораздельное “мычание” перед произнесением названия предметов (не столь редкое в обиходе) осуждается.

Подобные сочетания случайностей, условий и особенностей запоминания характерны для языков всех народов мира. Попытки, например, языка эсперанто оптимизировать кодирование успеха не имели из-за исторических и психологических препятствий. Но реальностью по отношению к английскому языку является трансформация его письменности, создаваемая народами других стран, использующими его как международный. В местах компактного проживания афроамериканской части населения Америки возникает другое: разновидность английского языка - эболик, который в других районах население почти не понимает, и наоборот. Фонетические языки как запомненный случайный выбор существенно видоизменяются за времена порядка всего столетия - возникают новые условия, накапливаются и запоминаются новые случайности. Детальный анализ языков и письменности с точки зрения введенной в [2], [3], [11] цепочки синтеза информации: Случайности - Условия - Запоминание может дать много интересного.

Сколько информации содержится в инженерном проекте?

Интуитивно, термин - информация понимается, в частности, как проект, который предваряет действия человека. Это создает убежденность в том, что окружающая нас природа, сам человек, его мозг также должны иметь “предварительный проект”. Тогда должны быть в природе “кто-то” или “что-то”, способные этот проект создать и точно реализовать. Подобный подход категорически исключен (хотя именно он наиболее распространен как в науке, так и в обиходе). Поясню это подробнее.

О каких бы объектах природы, наблюдаемых человеком, не шла речь, их “проект” начинается от элементов на внутриатомном уровне. Проект - это есть “чертеж”, в котором задано положение каждого из образующих его “элементов”. Например, сначала “элементарных частиц”, потом атомов, молекул и их объединений в виде жидкостей, твердых тел, живых клеток. И так вплоть до социальных систем человеческого общества. В таком проекте характерные размеры его составляющих отличаются на 30-60 порядков величины. В любом макроскопическом объекте, который должен описать “проект”, число элементов выражается огромными числами, например, для составляющих атомных масштабов, имеющими 10-30 знаков. При таком диапазоне масштабов и количеств беспорядок, создаваемый случайностями, устанавливает очевидный и неустранимый запрет на создание “проекта” как детерминированного “чертежа-инструкции” - невозможно собрать и проконтролировать систему из такого количества элементов. Однако Вселенная, а в ней человек с его разумом существуют.

Дело в том, что в природе нет проектов в обиходном понимании этого термина. Объекты, тождественные при макроскопических наблюдениях, как правило, неповторимы на своих микроуровнях (атомном, микрокристаллическом, клеточном). Природа не способна создавать что-либо по тем правилам “проекта”, которые ей хочет навязать человек.

Схема “информация-проект”, который “борется” с противодействующей ему случайностью, несостоятельна. Интуитивным обиходным определением “информации-проекта” пользоваться недопустимо. Случайность есть первичная основа понятия об информации. Наблюдаемый детерминизм окружающего мира должен существовать не вопреки случайностям, а в результате их действия как причины всего сущего.

Но ведь в науке информация строго определена именно так: не как “проект”, а как функция случайностей. Информация потому является основой всего сущего, что ее определение связано с фундаментальной переменной в науке - энтропией, подчиняющейся аксиоме о стремлении к максимуму беспорядка, известной как второе начало термодинамики.

Творчество должно иметь выражение на языке строгого определения информации (1.1) как физической переменной - энтропии-информации. Примером творчества может быть конкретный инженерный проект.

Представление о том, что в основе проекта Эйфелевой башни или космического корабля могут быть решающими случайности, большинством воспримется негативно. Однако это именно так!

Когда инженер создает проект машины, исходным для него является уровень современной ему техники - условия. Они конкретно выражены набором материалов, деталей и агрегатов, на основе которых должно быть создано нечто новое. Инженеру задана цель работы машины и дополнительные условия, ограничивающие её создание и применение. Производство изделия на основе этого проекта есть запоминание. На языке информации исходное для инженерного проекта есть система, для которой задано количество элементов, их свойства и условия применения. Хотя цель присутствует в инженерном проекте, остальное повторяет особенности физических систем - дано множество элементов и условия их взаимодействий.

Инженер, создавая проект, отбирает те из элементов, которые считает нужными. Проверяет их соответствие условиям проекта и соединяет так, чтобы получить результат, являющийся целью проекта. В этом обязательно участвует случайность, имеющая диапазон от “творческого озарения” гения до элементарной лени. Примеры можно найти в любой книге типа “Жизнь замечательных людей”.

На языке информации работа инженера заключается в том, что он осуществляет случайный выбор из заданного количества элементов. Этот случайный выбор ограничен определенными условиями. Осуществленный инженерный проект есть ограниченный условиями запомненный случайный выбор - информация.

Поэтому количество информации, которое содержится в инженерном проекте, определено на основе того же закона (1.1), что и для физических систем - числом возможных состояний системы (числом возможных вариантов её выполнения из заданных элементов) при ограничивающих выбор условиях. Именно это и есть количество информации, содержащееся в инженерном проекте. Её отражает новизна и оригинальность, которые отличают данный инженерный проект от всех предыдущих, выраженная конкретной математической формулой вида (1.1). Информация, содержащаяся в инженерном проекте, имеет однозначную числовую оценку. Качество инженерного проекта определяет прочность запоминания полученных в нём результатов.

Принципиальная разница между творчеством инженера и творчеством природы в том, что инженеру извне поставлена цель. Ему выдают техническое задание на проект и технические условия, которым должен удовлетворять его результат. Итог его работы контролирует проверка соответствия результата этим документам. Природа не имеет заранее заданной цели своего творчества. Она должна найти её самопроизвольно в процессе синтеза информации.

Рассмотренное выше количество информации в инженерном проекте не надо путать с тем количеством информации, которое необходимо для того, чтобы сохранить или передать проект как листы бумаги с текстом и чертежами. Такая информация зависит от выбора “алфавита” для кодирования текстов и чертежей и подобных сугубо частных особенностей выполнения проекта.

Если взять бумагу в количестве, равном истраченному на экземпляр проекта самолёта, раздать её в детские сады и попросить детей нарисовать на ней свои каракули, то при передаче такого “проекта” (например, между компьютерами) по проводам должно быть перенесено большее количество информации, чем при передаче результатов творчества инженеров. Причина в том, что реальный проект содержит множество условий, сокращающих объём информации, а в детских каракулях большинства из них нет.

В рассмотренном выше примере инженерного проекта обращает на себя внимание необходимость установить нуль отсчета для меры информации - энтропии. Ведь от того, какие элементы приняты в качестве первичных “неделимых”, зависит число их возможных комбинаций - количество информации неустранимо зависит от “нулевого уровня”, на котором элемент системы является “неделимым целым”. Например, проект может базироваться на исходных “болтах” и “гайках” как элементах системы или определять конструкцию, для которой исходными являются крупные агрегаты - электромоторы, редукторы, станки и машины как готовые покупные изделия. В природе и в творчестве человека мера информации - энтропия-информация - неустранимо определена как иерархическая переменная.

Что такое - самопроизвольно?

Информацию в буквах алфавита и образованных из них словах или в инженерном проекте создал человек. Он перебирал случайности. Он сформулировал условия, которые ограничивали случайности. Он властью закона или авторитетом знания добивался запоминания результата.

Привычно считать сугубо человеческой особенностью - создавать что-либо на основе информации. Но ведь и в природе информация должна быть первичной основой всего - камня и струи воды, звезд и планет, жизни и разума. Что и как в природе выбирает из случайностей то, что надо запомнить? Что и как ставит условия, ограничивающие случайности? Что и как управляет запоминанием?

Самый простой ответ на эти вопросы - заменить “что?” на “кто?”. Именно такая подмена вопросов присутствует иногда даже в научных работах. Ответ, который дан в моих работах [2], [3], [11], принципиально иной! Информация о всех процессах и объектах природы, в частности, о жизни и разуме самопроизвольно возникает на основе цепочки: Случайности -- Условия -- Запоминание.

В физике самопроизвольными называют такие процессы, при которых растёт энтропия или уменьшается энергия взаимодействия элементов системы.Направление самопроизвольных процессов в сторону роста энтропии задаёт второе начало термодинамики. Оно есть ключевая аксиома науки. Рост энтропии увеличивает число случайностей, из которых производится выбор. Тем самым рост энтропии задаёт рост количества информации после её синтеза на основе этих случайностей. Поэтому количества информации в природе растут самопроизвольно и направление процессов в сторону роста количеств информации есть фундаментально преимущественное.

Вопрос о том, почему иногда направление самопроизвольных процессов может задаваться с помощью энергии, обычно не возникает из-за аналогии со скатыванием шарика в ямку. Но ответ на этот вопрос сложнее, чем только аналогия. Рассмотрю его далее в этой главе.

Интуитивно понятно, что эволюцией природы должны управлять самопроизвольные процессы, то есть второе начало термодинамики в роли созидающего закона природы. Но на пути таких представлений возникает кажущееся препятствие.

Рост энтропии есть рост беспорядка. Казалось бы, созидание, увеличение порядка на основе роста энтропии невозможно. Поэтому многие считают бесспорным, что самопроизвольно жизнь и разум возникнуть не могли. Ведь наблюдаемые нами формы жизни, разум человека воспринимаются как рост порядка. Для того, чтобы разобраться с этим противоречием, сначала выясним как физика описывает явления природы, в которых происходит рост энтропии-информации или уменьшение энергии взаимодействия.

Вперёд ... к тупику равновесия

Сегодня беспокоящий парадокс для исследователей заключён в, казалось бы, противоречии между возрастанием сложности в процессе биологической эволюции (считающимся отображением роста порядка) и законом роста энтропии, то есть самопроизвольного роста беспорядка, в изолированной физической системе.

Стараются уйти от этого парадокса с помощью утверждения - жизнь есть открытая система вдали от равновесия. Неравновесность поддерживает подвод энергии извне. В процессе возврата к равновесию происходят процессы самоорганизации. При этом первично жизнь есть исключение - гигантская флуктуация, направленная против роста энтропии. Флуктуации такого рода (как малые эффекты) науке известны. Если речь идёт о крайне редком исключении, то (за неимением лучшего) сойдёт и гигантская флуктуация. К этому добавляют не вполне понятные пояснения о том, что жизнь поглощает негэнтропию, то есть имеет внешний источник, который упорядочивает системы. В этом участвуют имена весьма крупных учёных, хотя при этом забывают, что жили они тогда, когда не существовало многих сегодняшних понятий и решений.

Кроме того остаётся без внимания и то, что равновесные состояния широко представлены в эволюции жизни на всех уровнях - от динамического равновесия таксономических видов жизни со своим окружением до статического равновесия спор микробов, семян и подобного. Но если равновесие достигнуто, то почему оно должно нарушаться? Опять флуктуация?

Впервые и исчерпывающее разрешение этих противоречий дано в моих работах [2], [3], [11] и в этой книге. Продолжу пояснения.

Самопроизвольно беспорядок (энтропия-информация) растет. Наконец хаос становится таким, что не только человек, но и сама Природа, не могут в нём разобраться. Что вы делаете дома, когда набирается хаос многих мелочей, которые выбросить жалко, а рассортировать нет возможности? Вы их складываете в ящик, а потом при наведении порядка в доме переставляете этот ящик как целое - как новый объект.

Природа, как и человек, когда беспорядок достигает некоторой большой величины, не имеет возможности в нём разобраться и поэтому создает новые укрупненные объекты. Хаос оказывается спрятанным в “ящики”, с которыми Природа обращается как с целым.

Этот переход от хаоса к новым объектам (синтез новой информации) происходит [2] на основе цепочки: Случайности -- Условия -- Запоминание.

Хаос, созданный ростом энтропии, гарантирует существование начальной случайности. Обсуждение условий пока отложу. Рассмотрю вопрос: что в физике есть синоним слова - запоминание?

Главная особенность понятия запоминание в том, что запомненное можно повторить, воспроизвести вновь таким же. В физике известны устойчивые состояния процессов и объектов. Устойчивые состояния можно воспроизвести вновь. Поэтому в физике устойчивость есть синоним слова запоминание.

Узнать о том устойчиво или нет состояние объекта или процесс позволяют критерии устойчивости, которые нашел российский математик А. Ляпунов. Они используют анализ максимумов и минимумов процесса, который исследуется, и его изменений во времени (изменения производства результата в данном процессе).

Запоминаться должна информация. Её мерой является энтропия. Поэтому в природе при создании информации вновь (её синтезе) критерии устойчивости Ляпунова нужно формулировать, используя энтропию и её изменения во времени - производство энтропии d или возмущения производства энтропии (d). Функции, к которым применяют критерии устойчивости, называют функциями Ляпунова. В частности, в [11] впервые указано, что действие в механике есть функция Ляпунова.

Ключевые формы критериев устойчивости для статических состояний и динамических процессов, в которых происходят изменения энтропии, её производства и возмущений производства энтропии собраны и отмечены стрелками 1 - 3 на схеме рис. 1.2.

Рис. 1.2

Синтез информации начинается со случайностей. Они происходят с элементами системы, обладающими конкретными свойствами и могут быть представлены как случайные выборки, зависящие от этих свойств (внизу слева на рис. 1.2). В любой из систем действуют свои конкретные условия, ограничивающие возможные случайные выборки. Собственно синтез информации происходит в том случае, когда среди случайностей, отобранных условиями, есть такие, которые могут быть запомнены. Для этого необходима устойчивость состояний или процессов с их участием. Её можно установить с помощью критериев устойчивости, сформулированных внутри прямоугольников вверху и справа на рис. 1.2. Отличия этих критериев определяет классы процессов и объектов, возникающих в результате синтеза информации.

Стрелка 1 указывает на критерий статической устойчивости, которому соответствует максимум энтропии-информации. Это наиболее часто представленная в природе причина существования её объектов. Такая устойчивость есть основная “цель” в природе. Она наиболее распространена и наиболее прочная.

Однако состояние равновесия, возникшее и запомненное за счёт выполнения критерия устойчивости 1, в природе может нарушаться. Например, при подводе к системе энергии извне. Тогда система стремится назад к тому же или новому равновесию. В этом процессе возникают иные случайности и условия. Если для них существуют устойчивые состояния, то могут возникать новые устойчивые процессы и объекты. Они устойчивы динамически. Их существованием управляет критерий устойчивости Ляпунова 2 на рис. 1.2, который известен в физике как принцип минимума производства энтропии И. Пригожина [25].

Когда уход системы от равновесия относительно большой, то это только увеличивает её стремление назад к равновесию. И в этом случае существуют свои случайности и условия. Запоминанием их управляет критерий динамической устойчивости, записанный на основе возмущений производства энтропии (3 на рис. 1.2). Такое запоминание создаёт ещё один класс динамически равновесных объектов.

В формировании устойчивых состояний в природе широко участвует стремление к минимуму энергии взаимодействия элементов систем. Например, атомы химических элементов хотя бы мысленно можно пронумеровать. Случайность для них выражает возможность равноправного включения в молекулу вещества атомов с разными “номерами”. Для случайностей в этом случае условия задают свойства атомов. Они известны в химии как типы химических связей, валентности, законы образования вторичной и третичной структуры для биомолекул. Устойчивость, то есть состав, форму, свойства молекул химических соединений можно представить как запоминание на основе критерия устойчивости в виде минимума свободной энтальпии G (которую исторически в физической химии обычно называют свободной энергией).

В схеме вариантов синтеза информации рис. 1.2 главную роль играет мера информации - энтропия-информация (1.1) и её приращения (логарифмические функции). Почему в этом участвует критерий устойчивости (запоминания) 4 на основе минимума одной из форм энергии? Такого вопроса обычно не задают. Однако этот вопрос и ответ на него исключительно важны, в частности, именно для задач возникновения и эволюции жизни. В следующих параграфах этой главы будет показано, что процедура нормировки энтропии (обязательная при её определении с помощью (1.1)) вводит логарифмическую функцию, которая связана со свободной энергией. Эта функция определена в этой работе и названа семантической информацией (обозначенной I). Выбор названия продиктован тем, что энергетические взаимодействия принято считать первичными в природе. То есть связанная с ними информация, как бы, только выделяется из шумов. “Энергетический” критерий устойчивости обозначен на рис. 1.2 цифрой 4. Он описывает устойчивость и синтез информации, которые зависят от минимума свободной энергии. Понятие о семантической информации приводит к необходимости определить энтропию в виде функции комплексного переменного. Критерии устойчивости усложняются. Более подробно понятия о семантической информации и о критериях устойчивости 5 в комплексной плоскости введены в [11], [12]. Кратко они будут пояснены в следующих параграфах.

Новое в науке обязательно имеет предшественников. Это должно быть справедливым и по отношению к введенному понятию о семантической информации в его связи с понятием об энтропии. Такую преемственность формально-математически устанавливает энтропия Кульбака [26].

Критерии устойчивости Ляпунова, сформулированные на рис. 1.2, конкретно показывают, когда в природе случайный выбор из хаоса “мелких” объектов пора “спрятать” в новый укрупненный объект. Эти критерии устойчивости есть главное в новой области науки, известной как самоорганизация хаоса или диссипативная самоорганизация (как обычно называют). Без их использования практически нет ни одной работы по самоорганизации. Однако, почти как система, в литературе нет упоминаний о том, что самоорганизация хаоса есть синтез информации. В этой главе говорилось о введенном в [11] понятии, что действие как переменная механики есть энтропия-информация. В таком виде оно есть функция Ляпунова. Это впервые введено также в работе [11].

Для части задач самоорганизации Г. Хакен (например, [27]) предложил название - Синэргетика. В серии под этим общим названием только издательство научной литературы Шпрингер выпустило за последние годы свыше 60 книг разных авторов. Не меньше об этом напечатано книг в других издательствах. В частности, в книге И. Пригожина “От существующего к возникающему” [28] поставлен вопрос об информации в природе. Но удовлетворительного ответа на него в его книге нет. В работах М. Эйгена математически описана предбиологическая эволюция [29], [30], но жизнь всё-таки и у него возникает как флуктуация, направленная против роста энтропии. В книге Л.А. Блюменфельда [1] поставлены задачи о связях биофизики и информации. В S - теореме Ю. Л. Климонтовича [31] сформулированы критерии самоорганизации для случая, когда известно какие параметры в данной задаче можно считать управляющими. В работах Л.А. Шелепина рассмотрены кооперативные явления в физических системах [32], в частности, многоуровневых. Хорошее пособие по синэргетике для студентов см. [33].

Далеко не полный список работ в области самоорганизации хаоса превысит объём этой книги в целом. Ситуацию, которая сегодня существует в этой области, в частности, в проблеме возникновения и эволюции жизни и разума, можно пояснить так.

Критерии рис. 1.2 определяют новые объекты - “предметы”, возникающие за счёт критериев запоминания 1, 4, 5, а также устойчивые “потоки” энтропии-информации (на основе критериев 2, 3, 5).

Статические равновесные состояния максимума энтропии, определяемые условием 1, или равновесного экстремума 4 свободной энергии (семантической информации) можно для наглядности представить в виде “озер” и “прудов”. Правда для энтропии “верх” там, где “низ” для воды, но для семантической информации аналогия более прямая.

Устойчивые динамические состояния (2 и 3) - это “потоки, стекающие с гор”. “Вода” в них течет по таким путям, на которых сопротивление движению минимально. Для энтропии-информации динамические устойчивые состояния зависят не от “сопротивления движению воды”, а от cкорости изменения энтропии-информации - производства энтропии. Для энтропии-информации “пути потоков” определяют с помощью принципа Пригожина минимума производства энтропии 2.

Если известно, что на “горе” есть “озеро” и “вода” из него может течь в “нижнее озеро”, то процессы и объекты, которые создает поток энтропии-информации, описаны или есть методы, с помощью которых их можно описать. Однако возникновение и эволюцию жизни, сущность и работу разума нельзя объяснить только на основе синтеза информации согласно критериям рис. 1.2. Ведь для всех случаев рис. 1.2 предзадано существование некоего равновесного состояния - “цели”. Систему можно вывести из равновесия. Она будет стремиться вернуться к равновесному состоянию. В процессе этого возврата на основе критериев 2 и 3 будут возникать новые процессы, состояния и объекты. Но “тупик равновесия”, возврат к которому есть их “цель”, должен быть задан извне. Как его преодолеть до работ [2], [3], [11] не было известно.

Например, РНК и ДНК - носители генетической информации - есть некоторый класс молекул, равновесно существующих на основе минимума свободной энергии (минимума семантической информации). Их можно выделить в виде “порошка”. Хранить их в определенных условиях неограниченно долго. Семена, споры растений и микробов - пример таких молекул вместе с “контейнерами” для их сохранения. Им соответствует “нижнее озеро” - тупик равновесия. Однако вместо тупика РНК и ДНК приводят к новым потокам роста количества информации в виде огромного разнообразия форм жизни.

Жизнь нельзя объяснить, если не указать такой способ синтеза информации, который разрушает “тупики равновесия” и самопроизвольно создаёт новые классы равновесных состояний, то есть новые “цели”. Именно этот способ синтеза информации должен быть главным для возникновения и эволюции жизни, для возникновения и эволюции мозга животных, для работы разума человека.

Что превращает “тупики равновесия” в самопроизвольный реальный поток роста количества информации в процессе возникновения и эволюции жизни и мозга человека?

В соответствии с рассказанным выше для ответа на этот вопрос надо указать конкретно для каждой задачи (например, задачи о синтезе информации в ДНК или при работе мозга), что есть в данной задаче источник случайностей, каковы в этой задаче условия и какой критерий устойчивости управляет запоминанием. Но при этом недостаточно использовать критерии 1-4 рис. 1.2. Нужен ещё и анализ устойчивости в комплексной плоскости 5. И, самое главное, нужно указать, как именно природа переходит от тупиков равновесия к новому росту энтропии. В этом важнейшее отличие от предшествующих работ того, что предложено в [2] - [11] и здесь, Поясню это.


Подобные документы

  • Симметрия и ее значения: пропорциональное (сбалансированное) и равновесие. Симметрия природы в физике, ее фундаментальные теории. Законы сохранения: закон изменения и закон сохранения полной энергии, закон сохранения импульса, закон сохранения заряда.

    реферат [24,0 K], добавлен 05.01.2008

  • Понятие энтропии как меры хаоса, ее принципы и место в истории развития классической физики. Общая характеристика образования структур нарастающей сложности. Анализ взаимосвязи экологии и естествознания. Оценка экологической обстановки в г. Новосибирске.

    реферат [40,8 K], добавлен 21.10.2010

  • Понятие синергетики и бифуркации, общая характеристика теории катастроф. Актуальность и область применения универсальных законов бедствий. Законы распределения вероятностей и степенные законы. Механизмы возникновения и развития катастрофических событий.

    аттестационная работа [788,8 K], добавлен 13.01.2011

  • Нервная система: анатомическое строение, отделы и виды, нервные связи, формирование энергии передачи информации. Переработка информации в центральной нервной системе. Понятие "сенсорная система". Локализация, особенности, свойства терморегуляторов.

    реферат [270,8 K], добавлен 15.08.2014

  • Характеристика сущности теории хаоса и особенностей ее взаимосвязи с естествознанием. Анализ вклада Вернадского в представления о "жизненном порыве" и "творческой эволюции". Применимость теории хаоса в общественных процессах. Человек и явление порядка.

    контрольная работа [25,7 K], добавлен 28.09.2010

  • Фенотип и программа для его построения, передающаяся по наследству. Физическое распределение Максвелла. Основные каналы передачи информации от ДНК к признакам организма и от ДНК родителей к ДНК потомков. Дарвиновская неопределенная изменчивость.

    презентация [573,4 K], добавлен 17.10.2014

  • Понятие термина "трансляция" как передачи наследственной информации от иРНК к белку. "Перевод" последовательности трехчленных кодонов иРНК в последовательность аминокислот синтезируемого белка. Генетический код и механизм регулирования белкового синтеза.

    реферат [189,1 K], добавлен 11.12.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.