Стремление к максимуму способности превращений – главный закон природы

Понятие хаоса, свойства элементов его системы. Физическое понятие информации, ее измерение с помощью энтропии. Особенности понимания информации в теории связи, законы ее синтеза и самопроизвольного возникновения. Анализ механизма "Демона Максвелла".

Рубрика Биология и естествознание
Вид курсовая работа
Язык русский
Дата добавления 26.08.2010
Размер файла 648,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Жизнь, видообразование в процессе её эволюции есть преимущественно динамически равновесные состояния. Они устанавливаются в неравновесном процессе стремления к пределу статического равновесия. В таком смысле жизнь является результатом неравновесных процессов.

Эволюцию Вселенной, возникновение и эволюцию в ней жизни и разума, в частности, на Земле описывают процессы типа рис. 1.7. Особенность их в том, что синтез информации на основе принципа максимума производства энтропии формирует плоскость

,

в которой процессы самоорганизации типа рис. 1.2 и создаваемые ими объекты становятся основой для действия случайностей, накопление которых приводит к синтезу информации на основе критерия устойчивости (1.11), задающего возникновение новой плоскости “тупиков равновесия” в виде:

.

Как выразить в биологии рецепцию, ценность и незаменимость информации?

Вопрос о таких особенностях биологической информации как её рецепция, ценность, незаменимость, неизбыточность стоит в биологии не одно десятилетие (см., например, обзор М.В. Волькенштейна [41] и источники, содержащиеся в его ссылках). Подход к этому вопросу во всех работах один - в биологию вносят язык и методы теории информации (науки о человеческих способах связи и обработки информации как средства достижения заданной извне цели). В моих работах и, в частности, в этой книге неприменимость этих методов и аппарата в биологии подчеркивается многократно - теория информации исходит из предпосылки о существовании цели передачи, рецепции и обработки информации. Живые системы при своём возникновении и эволюции цели в таком смысле не имеют. Понятия классической теории информации к ним в прямом виде неприменимы. Неудивителен поэтому в обзоре Волькенштейна итог, которым он оценивает существующую литературу: “Термодинамический анализ рецепции и ценности информации не проводился”. В отличие от этого дам краткий и исчерпывающий ответ на вопрос, сформулированный в заголовке параграфа.

Информация о возникновении и эволюции жизни синтезируется в виде запоминания случайного выбора. Результат синтеза информации есть процессы, состояния и объекты. Запоминанием при синтезе информации управляют критерии устойчивости. Они содержат как критерий рис. 1.4, отвечающий принципу максимума производства энтропии, так и критерии устойчивости рис. 1.2, включая устойчивость 5 в комплексной плоскости (параграф 9 этой главы).

Синтезированная таким образом информация цели не имеет (кроме самого процесса своего роста). Оценить её можно только в терминах параметров процессов, выражающих запоминание при синтезе информации, а также физических эффектов, возможность которых создала устойчивость как основа запоминания. Поэтому “термодинамический анализ рецепции и ценности информации” есть просто анализ той устойчивости, которую как результат реально создали в данной задаче критерии устойчивости. При этом первый вопрос - в чём в биологии состоят эффекты, свидетельствующие о том, что синтезированная информация принята? В чём выражается рецепция информации для биологических процессов и объектов на языке физики и химии?

Ответ можно дать краткий и исчерпывающий. Рецепция информации в биологических процессах и объектах есть изменение условий для действия случайностей. Информация принята, если в биологической системе произошли изменения характерных для неё условий. Результат рецепции информации (как физической переменной) нужно оценивать в терминах и методами исследования устойчивости как средства для запоминания случайного выбора с учётом вклада рецепции информации в изменение условий.

Рецепция информации в природе должна приводить к новым возможностям роста энтропии. Они различны, когда речь идёт о формировании новых плоскостей Sk,g или когда речь идёт о росте энтропии в пределах заданных плоскостей

.

Однако запоминание в равной степени определяющее в обоих случаях. Поэтому всё, что связано с количественными характеристиками (качество и подобное) информации как физической переменной должно описываться на языке задач устойчивости.

Количественно устойчивость, пришедшую в науку из механики, в частности, из её узкой прикладной области - автоматического регулирования - характеризуют два критерия:

запас устойчивости;

область устойчивости.

Эти понятия в теории автоматического регулирования описывают качество регулирования. Поскольку устойчивость есть одна из составляющих синтеза информации, то естественно сопоставить характеристикам качества информации определения для качества регулирования, известные из теории автоматического регулирования.

Сформулирую их в приложении к задачам возникновения и эволюции жизни и разума.

Рецепция информации выражается её синтезом. Поступившая в систему информация путём изменения условий синтеза создала новое запомненное состояние. Внешние воздействия могут его разрушить. При синтезе информации чем более устойчив по отношению к внешним воздействиям процесс запоминания, тем ценнее полученная информация. Отсюда определение.

Ценность биологической информации есть запас устойчивости, который создаёт рецепция или синтез информации (в функции от определяющих переменных и параметров задачи).

Чем больше запас устойчивости, тем более ценная информация ему соответствует. Такое определение ценности информации сохраняет в себе оценку последствий для условий её синтеза или рецепции. С точки зрения стремления к максимуму энтропии возникает необходимость двух градаций одного и того же однородного определения.

Принятая информация может оптимизировать условия, необходимые для равновесия. Однако идеальное равновесие (максимальная приспособленность к окружающей среде) есть “тупик равновесия”. При изменении внешних условий высокая оптимальность становится причиной быстрого вымирания вида жизни. Для поддержания роста энтропии более ценна та информация, которая в силу неоптимальности открывает путь новым случайностям и новому росту энтропии-информации теперь на основе принципа максимума производства энтропии. Поэтому понятие ценности биологической информации как запаса устойчивости требует сопроводить его упоминанием о том, к каким процессам относится запас устойчивости - к последствиям рецепции информации при переходах по ступеням иерархии энтропии-информации, или она изменяет условия синтеза информации в пределах одной и той же ступени.

Далее необходимо определить понятие незаменимости информации. В этом можно исходить из представления о том, что чем шире область устойчивости при синтезе информации, тем в большем числе процессов, состояний, объектов существенны изменения условий, вызванные рецепцией данной информации. Сопоставлю понятию незаменимости информации ширину области устойчивости и введу определение.

Незаменимость биологической информации есть ширина области устойчивости при запоминании (составляющей процесса синтеза информации), представленная как функция от определяющих переменных и параметров задачи.

Например, информация о РНК и ДНК может рассматриваться по отношению к ним как классам химических соединений. Их область устойчивости (по отношению к такому смыслу информации о них) есть все прошлые и существующие виды и разновидности этих молекул, используемые формами жизни. Незаменимость этой информации огромна.

Широкая область существования (устойчивости) РНК и ДНК при существенно разных внешних условиях свидетельствует о большом запасе устойчивости этих молекул как классе соединений. Это есть подтверждение большой ценности этой информации. Речь идёт о РНК и ДНК как результате синтеза информации на основе принципа максимума производства энтропии. С заданными извне целями это не связано.

Однако ДНК случайно изменяется и запоминается в виде конкретной структуры индивидуальной молекулы, то есть внутри иерархических плоскостей синтеза информации рис. 1.7. Это есть информация о конкретных видах жизни. Она формируется преимущественно в процессах приближения к тупикам равновесия. Но они неизбежно должны быть разрушимы - максимум способности превращений есть главное в природе. Два пути синтеза информации, двойственность оценок её ценности и незаменимости действуют и по отношению к информации, определяющей индивидуальные молекулы РНК и ДНК. И для такой информации незаменимость и ценность не имеют ничего общего с оценками человека, который навязывает природе цели эволюции (в частности, как основы для понятия об информации и её характеристиках). Более подробно примеры будут рассмотрены в главах III - VIII

В биологии пока нет даже намёка на то, как в задачах возникновения и эволюции жизни и разума обоснованно количественно отделить участие физико-химических законов от результатов естественного отбора как запомненного выбора из случайностей.

При описании, введенном в этой работе, участие физических и химических законов в возникновении и эволюции жизни отображает семантическая информация Ik. Результаты естественного отбора содержатся в энтропии-информации Sk. Оба вида информации объединяются при постановках задач в терминах функций комплексного переменного.

В такой постановке задачи изображённый на рис. 1.8 вектор S*k есть полная информация о системе. Понятно, что в зависимости от соотношения в данной задаче энтропии-информации Sk,g и семантической информации Ik будет разным угол k , который образует вектор полной информации с осью семантической информации. Он и его функции количественно описывают соотношение в биологических задачах информации как запомненного выбора из случайностей и информации как стремления к экстремумам энергии (что описывают как действие однозначных физико-химических законов).

Рис. 1.8

Поэтому введу для описания возникновения и эволюции жизни и разума критерий:

(1.30)

и назову его - семантический коэффициент. Он описывает долю участия физико-химических законов (семантической информации) в синтезе информации о процессах и объектах k-го уровня иерархии энтропии-информации.

Вопрос об относительной роли случайностей и однозначных физико-химических законов при возникновении и эволюции жизни и разума обсуждается в биологии столетия, в частности, в теории номогенеза Л.С. Берга. Введенный выше количественный критерий, описывающий соотношение случайностей и физико-химических законов, впервые дал на него строгий количественный ответ.

В биологии необходим критерий, который объективно (в виде числа) определяет сложность биологической системы. Введу определение: сложность биологической системы выражает число уровней иерархии энтропии-информации, описывающих её.

Иерархия энтропии-информации едина и непрерывна для неживой и живой природы. Начинается она на уровне внутренней структуры “элементарных частиц”. Поэтому понятие сложности системы должно включать в себя определение той ступени k иерархии энтропии-информации, которая принимается в качестве начала отсчёта для количественной оценки сложности системы. Это может быть уровень химических элементов, заданный таблицей Менделеева. Или более низкий иерархический уровень внутренней структуры атомов, определяющей химические связи. Или более высокий уровень аминокислот и нуклеотидов как целого. Выбор нуля для отсчёта сложности системы есть вопрос соглашения.

Приведенные выше определения относятся к энтропии-информации как физической переменной. ДНК сегодня описывают в терминах общеизвестного четырёхбуквенного кода, считая, что существует цель возникновения ДНК. В этом случае понятие информации используется в обычном смысле теории информации. Запретить такое нельзя. Случаи, когда это полезно, существуют. Но природа цели не имеет, а потому надо быть готовыми к возможным ошибкам при таком подходе. В заключение этой вводной главы приведу ещё один пример различия между информацией как физической переменной - энтропией - и информацией как средстве для достижения заданной цели.

“Демон Максвелла” - энтропия как мера неопределённости и информация как устранённая неопределённость

Аксиоматически информация определена как запомненный случайный выбор. Мера информации есть неопределённость, устранённая этим выбором - синтезом информации. В природе синтез информации реализует запоминание на основе критериев устойчивости рис. 1.2. Синтез таким способом информации создаёт объект. Количество информации (1.1) определяет существование объекта и его свойства. Этим мера неопределённости - энтропия превращена в меру энтропии-информации.

Для информации в процессах общения людей синтез информации происходит иным образом. В его основе лежит существование цели передачи информации. Запоминание случайного выбора происходит на основе критериев, которые заданы человеком. Формула (1.1) как выражение количества информации сохраняется в виде (1.4), но при этом изменяет смысл и знак. Кроме того, энтропия в ней не есть характеристика максимума вероятности состояния системы. Поясню это примером.

В 1871 г. Максвелл в связи со вторым началом термодинамики предложил парадоксальную задачу, названную - “Демон Максвелла”.

Дан сосуд с газом, разделённый перегородкой на два отсека А и В (рис. 1.9).

Рис. 1.9

В перегородке между ними есть отверстие С, закрытое дверцей. Некое устройство-“существо” D, которое назвали “демоном Максвелла”, имеет заданную извне физических процессов цель - анализирует скорости молекул газа и открывает дверцу С для тех из них, которые имеют заданную скорость и положение. Можно эти параметры выбрать так, что во вторую половину сосуда будут проходить только молекулы, скорости которых намного больше средних в газе. Их движение в отсеке В хаотизируется в результате столкновений. Принцип отбора молекул “демоном” должен привести к тому, что температура газа в отсеке В будет выше, чем в отсеке А. Парадокс состоит в том, что повышение температуры газа в отсеке В противоречит второму началу термодинамики.

Максвелл считал, что его “демон” второе начало термодинамики нарушать не может. Детальные исследования на протяжении более столетия это подтвердили (см., например, обзор [42]). Здесь я вернулся к “демону Максвелла” потому, что он даёт пример подхода к физической задаче, в которой не разграничена энтропия как физическая переменная, описывающая информацию (как меру неопределённости), и энтропия в терминологии цели, с помощью которой определяется устранённая неопределённость (то есть тем способом, который лежит в основе теории информации как науки о передаче сообщений). Кстати, именно анализ задачи о “демоне” в работе Л. Сциларда 1929 г. (непосредственно после формализации Хартли понятия об информации в 1928 г.) был первым исследованием о связях между энтропией и информацией.

Работа “демона” заключается в том, что он определяет координаты и скорости молекул газа - имеет цель. Молекулы газа различимы (нумеруемы). “Демон”, пропуская их через дверцу, должен определить их номер. Без этого задача некорректна. Нельзя с больцмановским газом нумерованных молекул обращаться без учета этого важнейшего для него факта. “Демон” должен иметь “регистр” для запоминания номеров. Нет такого запоминания - нет результата деятельности “демона”. Работа “демона” связывает запомненные номера с заданными величинами скоростей. Поток молекул, образовавшийся в результате работы “демона” на выходе из дверцы С, описывает запись в “регистре”. В ней содержится величина информации - устранённая “демоном” неопределенность, которая в пределе равна энтропии SA со знаком минус - неопределённость устранена не путём физического процесса синтеза информации, а с помощью записей в “регистре”, внешнем по отношению к схеме рис. 1.9.

В этом физическом примере присутствуют главные особенности информации как формализации человеческих взаимодействий (отличающие её от информации как физической переменной) - внешняя по отношению к физическим процессам заданная цель и столь же внешнее запоминающее устройство.

Устранение парадоксальности задачи о “демоне Максвелла”, основанное на учёте необходимости “регистра” и его очистки от накопленных данных, дано Р. Ландауэром из фирмы IBM в ходе исследований термодинамики работы компьютеров [42]. Помимо этого существует обширная литература, в которой рассматривается другой путь устранения парадоксальности “демона”, использующий квантовые взаимодействия, необходимые для измерений в этой задаче. В нём цель и внешние по отношению к системе взаимодействия так же присутствуют, но завуалированы, поэтому анализировать этот путь не буду.

Пример “демона Максвелла” опять показывает, что понятие об информации и о способе превращения энтропии из меры неопределённости в меру информации, имеет два принципиально отличных смысла:

- синтез информации в физических системах как запоминание случайного выбора на основе критериев устойчивости с участием энтропии (в строгом случае) как функции комплексного переменного.

- мысленная реализация цели и “регистров”, эквивалентных по функциям памяти компьютеров.

Необходимо дополнительно к примеру “демона Максвелла” проанализировать как и что именно понимается в физике при заявлениях о том, что энтропия есть мера неопределённости - мера “незнания” поведения элементов системы. В качестве источника известных формулировок в таком анализе приму, например, книгу [22], в частности потому, что её определения неоригинальны и повторяются во многих других учебниках и монографиях. Цитаты из этой книги в последующих абзацах выделены кавычками без дополнительных напоминаний источника. Курсив в них мой.

Рассматривается модель газа, для которой в предельном состоянии нулевой абсолютной температуры нет теплового движения молекул. Из изложенного в этой главе понятно, что энтропия есть иерархическая переменная и нуль её отсчёта можно задавать произвольно. В [22] принимается, что “в этих условиях наше знание микроскопического состояния тела является полным” - все молекулы, независимо от своих пространственных координат, имеют одинаковое состояние. Его легко установить в теориях или экспериментах. Обратите внимание на подчёркнутое - в физике в дополнение к её законам появляется человек и его человеческие понятия и ощущения.

При любой ненулевой температуре существует “наше <человека как исследователя> полное незнание” микроскопического состояния газа. “Незнание” возникает потому, что гипотеза о молекулярном хаосе “равноценна признанию того, что мы бессильны проследить за движением отдельных молекул”. Однако в этом случае определимы (в теории или наблюдениях) однозначные макроскопические параметры газа, например, давление и температура. Можно также “определить степень нашего незнания”, вычислив число возможных состояний системы Щ. Его количественное выражение есть энтропия физической системы вида (1.1). Отсюда в [22] делается вывод, что “информация о микроскопическом состоянии тем меньше, чем больше число Щ ”.

Простите, почему?! Ведь природа существует вне нас. Ей безразлично, что знает о ней человек и что он может или не может о ней узнать. Реальностью для природы является хаос, совместимый с данными конкретными условиями. Он является детерминированным состоянием и определяет однозначно макроскопические свойства системы (в данном примере температуру и давление). Количественное выражение хаоса числом - энтропией - строго и точно задало все свойства макроскопического объекта или процесса. Такой хаос есть незнание только в терминах поколений людей, сформировавших модель с “незнанием ”.

Информация - это устранённая неопределённость. Хаосу отвечат устойчивое (запомненное) состояние максимума энтропии, то есть число (максимум lnЩ или другие экстремумы рис. 1.2). Его существование (как результат синтеза информации) устранило неопределённость, отобразив это свойствами возникшего объекта или процесса. Именно поэтому энтропия как физическая переменная есть мера информации в природе. Её можно выразить в терминах информации при передаче сообщений человеком, введя мысленную операцию измерения параметров одной молекулы. Результат измерений можно считать мерой такой информации. Его можно связать с энтропией, присвоив ему знак минус. Определять полезен или вреден для человека-исследователя такой способ описания природы есть его право как создателя моделей - природе это безразлично. Но в законах природы только она сама может определять, что есть знание, а что - незнание.

Важнейший информационный природный процесс есть возникновение новых объектов со своими свойствами. Для этого необходимо изменение количества информации как физической переменной. Может ли оно быть запомнено? - решает устойчивость процессов. Анализ этого (если необходимо одновременно учитывать вклад в экстремум и энтропии, и энергии) необходимо проводить на основе энтропии как функции комплексного переменного.

Например. Для природы возникновение жизни первично есть абиогенный синтез класса молекул РНК и РНК, создающих иерархически новую ступень случайностей (неопределённости), а тем самым новую ступень иерархического роста энтропии-информации. При синтезе информации в РНК и ДНК (на уровне их образования как молекул) запоминание произошло на основе критериев устойчивости в комплексной плоскости. Результат - РНК или ДНК как класс химических соединений, главная особенность которых одинаковая свободная энергия, отнесенная к соответствующим видам химических связей нуклеотидов и кодонов. В этом участвовала энтропия РНК или ДНК в обычной форме физической химии. Образование молекулы РНК или ДНК устранило неопределённость, правда, парадоксально. Энтропия в физической химии - мера беспорядка. Энтропия в составе молекулы ДНК, казалось бы, таковой и осталась. Однако для конкретной ДНК она есть запомненный случайный выбор (информация), так как данная молекула существует как объект.

Класс молекул РНК или ДНК как энергетически равноправных случайных форм становится источником неопределённости (случайных выборок) для новой ступени иерархии энтропии-информации. Естественный отбор многократно выделял из случайностей таких РНК или ДНК единственные и запоминал с помощью их размножения. Такой иерархически новый синтез информации тем же парадоксальным образом превратил новую неопределённость в информацию.

Жизнь определяет энтропия-информация в РНК или ДНК как комбинации химических реакций с её участием. Человек эти же количества информации может описывать кодировкой - информацией в терминах двух четырёхбуквенных кодов, образованных из одного пятибуквенного (в РНК-содержащих формах жизни есть пятый нуклеотид, который не встречается в ДНК-содержащих). Информация в ДНК может быть описана не только в терминах естественных единиц измерения, заданных иерархическими адиабатическими инвариантами. Она может быть также представлена абстрактной формулой (1.6) при основании логарифма 4 и множителе при энтропии-информации вида (1.5), или равноправно в битах, или в натах. Существо дела от этого не зависит. Такая информация не есть физическая переменная - реальность природы. Это только один из способов человеческой кодировки природных переменных. Для человека он неоценимо полезен, но это его дело, а не Природы.

Выводы

Информация в природе есть физическая переменная. Её мерой является энтропия.

Информация в теории связи отличается от информации как физической переменной существованием цели передачи сообщений.

Информация в теории связи описывает неопределённость, устранённую передачей сообщения. Информация как физическая переменная есть сама неопределённость. Отличие между ними в разных знаках (в обоих случаях речь идёт о больцмановской информации).

Единицей измерения энтропии-информации как физической переменной является адиабатический инвариант данной системы.

В строгом виде энтропия-информация есть функция комплексного переменного, в которой мнимая составляющая есть запомненный выбор из случайностей, а действительная составляющая (семантическая информация) отражает участие в задаче синтеза информации физико-химических законов - условий, заданных предыдущими иерархическими ступенями синтеза информации.

Информация возникает вновь с помощью самопроизвольного процесса синтеза информации, происходящего на основе цепочки: Случайности - Условия - Запоминание. Запоминание в этой цепочке является синонимом устойчивости статического или динамического равновесия, определяемого критериями устойчивости А. Ляпунова.

В общем случае запоминание в процессе синтеза информации определяется критериями устойчивости в комплексной плоскости.

Направляющий косинус вектора комплексной энтропии-информации есть семантический коэффициент, количественно описывающий долю участия в синтезе энтропии-информации физико-химических законов.

Преодоление тупиков равновесия в процессе синтеза информации происходит на основе принципа максимума производства энтропии (принципа максимума способности к превращениям).

Энтропия-информация есть иерархическая переменная, описываемая рядом, в котором каждый следующий член (ступень иерархии) имеет свой адиабатический инвариант, определяемый на основе принципа максимума производства энтропии-информации. В пределах ступеней иерархии статические и динамические равновесия описываются критериями самоорганизации (включая случай комплексных переменных).

Высота ступеней иерархии энтропии-информации (количество информации внутри ступеней) экспоненциально падает. Это воспринимается человеком-наблюдателем как кажущееся упорядочение (уменьшение энтропии) по мере иерархического усложнения систем.

В биологии рецепция информации выражается изменением условий для синтеза информации. Ценность биологической информации есть запас устойчивости, который обеспечивает в данной задаче рецепция или синтез информации. Незаменимость биологической информации описывает ширина области устойчивости при запоминании в процессе синтеза информации или рецепции информации.


Подобные документы

  • Симметрия и ее значения: пропорциональное (сбалансированное) и равновесие. Симметрия природы в физике, ее фундаментальные теории. Законы сохранения: закон изменения и закон сохранения полной энергии, закон сохранения импульса, закон сохранения заряда.

    реферат [24,0 K], добавлен 05.01.2008

  • Понятие энтропии как меры хаоса, ее принципы и место в истории развития классической физики. Общая характеристика образования структур нарастающей сложности. Анализ взаимосвязи экологии и естествознания. Оценка экологической обстановки в г. Новосибирске.

    реферат [40,8 K], добавлен 21.10.2010

  • Понятие синергетики и бифуркации, общая характеристика теории катастроф. Актуальность и область применения универсальных законов бедствий. Законы распределения вероятностей и степенные законы. Механизмы возникновения и развития катастрофических событий.

    аттестационная работа [788,8 K], добавлен 13.01.2011

  • Нервная система: анатомическое строение, отделы и виды, нервные связи, формирование энергии передачи информации. Переработка информации в центральной нервной системе. Понятие "сенсорная система". Локализация, особенности, свойства терморегуляторов.

    реферат [270,8 K], добавлен 15.08.2014

  • Характеристика сущности теории хаоса и особенностей ее взаимосвязи с естествознанием. Анализ вклада Вернадского в представления о "жизненном порыве" и "творческой эволюции". Применимость теории хаоса в общественных процессах. Человек и явление порядка.

    контрольная работа [25,7 K], добавлен 28.09.2010

  • Фенотип и программа для его построения, передающаяся по наследству. Физическое распределение Максвелла. Основные каналы передачи информации от ДНК к признакам организма и от ДНК родителей к ДНК потомков. Дарвиновская неопределенная изменчивость.

    презентация [573,4 K], добавлен 17.10.2014

  • Понятие термина "трансляция" как передачи наследственной информации от иРНК к белку. "Перевод" последовательности трехчленных кодонов иРНК в последовательность аминокислот синтезируемого белка. Генетический код и механизм регулирования белкового синтеза.

    реферат [189,1 K], добавлен 11.12.2009

  • Классификация методов научного познания. Картина мира мыслителей древности, гелиоцентрическая, механистическая, электромагнитная. Понятие о симметрии, взаимодействии и энтропии. Основные теории возникновения жизни и ее эволюции. Происхождение Вселенной.

    шпаргалка [83,2 K], добавлен 19.01.2011

  • Вклад физики в развитие электромагнитной картины мира. Основные экспериментальные законы электромагнетизма, исследования М. Фарадея, А. Ампера. Уравнения теории электромагнитного поля Д. Максвелла. Положения электронной теории металлов Г. Лоренца.

    реферат [34,0 K], добавлен 07.05.2009

  • Понятие, строение и функции сенсорной системы, кодирование информации. Структурно-функциональная организация анализаторов. Свойства и особенности рецепторного и генераторного потенциалов. Цветовое зрение, зрительные контрасты и последовательные образы.

    контрольная работа [838,6 K], добавлен 05.01.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.