Введение в анализ, синтез и моделирование систем

История, предмет, цели системного анализа. Введение основного понятийного аппарата системного анализа, теории систем. Фрактальный объект (кривая Коха). Понятие информации. Процессы и системы в совокупности с человеком с точки зрения естествознания.

Рубрика Экономико-математическое моделирование
Вид курс лекций
Язык русский
Дата добавления 29.06.2016
Размер файла 696,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

· научная;

· бытовая;

· техническая;

· экономическая;

· технологическая.

Все это (вместе с личностным аспектом человека как вида) составляет ноосферу общества - более высокое состояние биосферы, возникшее в результате эволюции, структурирования, упорядочивания (как статического, так и динамического) и гармонизации связей в природе и обществе под воздействием целеполагающей деятельности человечества.

Это понятие было введено В.И. Вернадским в качестве отображения концепции этапа эволюции общества и природы, т.е. системы, в рамках которой потенциально может быть реализовано гармоническое, устойчивое развитие (эволюция) систем "Общество" и "Природа", а также постепенное слияние, гармонизация наук о природе и об обществе.

Основные свойства информации (и сообщений):

· полнота (содержит все необходимое для понимания информации);

· актуальность (необходимость) и значимость (сведений);

· ясность (выразительность сообщений на языке интерпретатора);

· адекватность, точность, корректность интерпретации, приема и передачи;

· интерпретируемость и понятность интерпретатору информации;

· достоверность (отображаемого сообщениям);

· избирательность;

· адресность;

· конфиденциальность;

· информативность и значимость (отображаемых сообщений);

· массовость (применимость ко всем проявлениям);

· кодируемость и экономичность (кодирования, актуализации сообщений);

· сжимаемость и компактность;

· защищенность и помехоустойчивость;

· доступность (интерпретатору, приемнику);

· ценность (предполагает достаточный уровень потребителя).

Информация может оказаться и вредной, влияющей негативно на сознание, например, воспитывающей восприятие мира от безразличного или же некритического - до негативного, "обозленного", неадекватного. Информационный поток - достаточно сильный раздражитель.

Пример. Негативной информацией могут быть сведения о крахе коммерческого банка, о резком росте (спаде) валютного курса, об изменении налоговой политики и др.

Информация не существует без других типов ресурсов: энергии, вещества, организации, как и они не могут существовать без информации. Любые взаимодействия систем (подсистем) - взаимодействия всегда материо-энерго-информационные. Выявление (систематизация, структурирование), описание (формализация), изучение, применение инвариантов этих взаимодействий и составляет основную задачу науки как человеческой деятельности.

Методы получения и использования информации можно разделить на три группы, иногда разграничиваемые лишь условно:

1. эмпирические методы или методы получения эмпирической информации (эмпирических данных);

2. теоретические методы или методы получения теоретической информации (построения теорий);

3. эмпирико-теоретические методы (смешанные, полуэмпирические) или методы получения эмпирико-теоретической информации.

Охарактеризуем кратко эмпирические методы:

1. Наблюдение - сбор первичной информации или эмпирических утверждений о системе (в системе).

2. Сравнение - установление общего и различного в исследуемой системе или системах.

3. Измерение - поиск, формулирование эмпирических фактов.

4. Эксперимент - целенаправленное преобразование исследуемой системы (систем) для выявления ее (их) свойств.

Кроме классических форм их реализации, в последнее время используются и такие формы как опрос, интервью, тестирование и другие.

Охарактеризуем кратко эмпирико-теоретические методы.

1. Абстрагирование - установление общих свойств и сторон объекта (или объектов), замещение объекта или системы ее моделью. Абстракция в математике понимается в двух смыслах: а) абстракция, абстрагирование - метод исследования некоторых явлений, объектов, позволяющий как выделить основные, наиболее важные для исследования свойства, стороны исследуемого объекта или явления, так и игнорировать несущественные и второстепенные; б) абстракция - описание, представление объекта (явления), получаемое с помощью метода абстрагирования; особо важно в информатике такое понятие как абстракция потенциальной осуществимости, которое позволяет нам исследовать конструктивно объекты, системы с потенциальной осуществимостью (т.е. они могли бы быть осуществимы, если бы не было ограничений по ресурсам); используются и абстракция актуальной бесконечности (существования бесконечных, неконструктивных множеств, систем и процессов), а также абстракция отождествления (возможности отождествления любых двух одинаковых букв, символов любого алфавита, объектов, независимо от места их появления в словах, конструкциях, хотя их информационная ценность при этом может быть различна).

2. Анализ - разъединение системы на подсистемы с целью выявления их взаимосвязей.

3. Декомпозиция - разъединение системы на подсистемы с сохранением их взаимосвязей с окружением.

4. Синтез - соединение подсистем в систему с целью выявления их взаимосвязей.

5. Композиция - соединение подсистем в систему с сохранением их взаимосвязей с окружением.

6. Индукция - получение знания о системе по знаниям о подсистемах; индуктивное мышление: распознавание эффективных решений, ситуаций и затем проблем, которые оно может разрешать.

7. Дедукция - получение знания о подсистемах по знаниям о системе; дедуктивное мышление: определение проблемы и затем поиск ситуации, его разрешающей.

8. Эвристики, использование эвристических процедур - получение знания о системе по знаниям о подсистемах системы и наблюдениям, опыту.

9. Моделирование (простое моделирование) и/или использование приборов - получение знания об объекте с помощью модели и/или приборов; моделирование основывается на возможности выделять, описывать и изучать наиболее важные факторы и игнорировать при формальном рассмотрении второстепенные.

10. Исторический метод - поиск знаний о системе путем использования ее предыстории, реально существовавшей или же мыслимой, возможной (виртуальной).

11. Логический метод - метод поиска знаний о системе путем воспроизведения ее некоторых подсистем, связей или элементов в мышлении, в сознании.

12. Макетирование - получение информации по макету объекта или системы, т.е. с помощью представления структурных, функциональных, организационных и технологических подсистем в упрощенном виде, сохраняющем информацию, которая необходима для понимания взаимодействий и связей этих подсистем.

13. Актуализация - получение информации с помощью активизации, инициализации смысла, т.е. переводом из статического (неактуального) состояния в динамическое (актуальное) состояние; при этом все необходимые связи и отношения (открытой) системы с внешней средой должны быть учтены (именно они актуализируют систему).

14. Визуализация - получение информации с помощью наглядного или визуального представления состояний актуализированной системы; визуализация предполагает возможность выполнения в системе операции типа "передвинуть", "повернуть", "укрупнить", "уменьшить", "удалить", "добавить" и т.д. (как по отношению к отдельным элементам, так и к подсистемам системы). Это метод визуального восприятия информации.

Кроме указанных классических форм реализации теоретико-эмпирических методов, в последнее время часто используются и такие формы как мониторинг (система наблюдений и анализа состояний системы), деловые игры и ситуации, экспертные оценки (экспертное оценивание), имитация (подражание), верификация (сопоставление с опытом и заключение об обучении) и другие формы.

Охарактеризуем кратко теоретические методы.

1. Восхождение от абстрактного к конкретному - получение знаний о системе на основе знаний о ее абстрактных проявлениях в сознании, в мышлении.

2. Идеализация - получение знаний о системе или о ее подсистемах путем мысленного конструирования, представления в мышлении систем и/или подсистем, не существующих в действительности.

3. Формализация - получение знаний о системе с помощью знаков или же формул, т.е. языков искусственного происхождения, например, языка математики (или математическое, формальное описание, представление).

4. Аксиоматизация - получение знаний о системе или процессе с помощью некоторых, специально для этого сформулированных аксиом и правил вывода из этой системы аксиом.

5. Виртуализация - получение знаний о системе созданием особой среды, обстановки, ситуации (в которую помещается исследуемая система и/или ее исследующий субъект), которую реально, без этой среды, невозможно реализовать и получить соответствующие знания.

Эти методы получения информации применяются в любой сфере деятельности и системно (рис. 5.1).

Рис. 5.1. Структура познания системы

Пример. Для построения модели планирования и управления производством в рамках страны, региона или крупной отрасли, нужно решить проблемы:

· определить структурные связи системы (как вертикальные, так и горизонтальные), уровни управления и принятия решений, ресурсы; при этом чаще используются методы наблюдения, сравнения, измерения, эксперимента, анализа и синтеза, дедукции и индукции, эвристический, исторический и логический, макетирование и др.;

· определить гипотезы, цели, возможные проблемы планирования; наиболее используемые методы: наблюдение, сравнение, эксперимент, абстрагирование, анализ, синтез, дедукция, индукция, эвристический, исторический, логический и др.;

· конструирование эмпирических моделей системы; наиболее используемые методы: абстрагирование, анализ, синтез, индукция, дедукция, формализация, идеализация и др.;

· поиск решения проблемы планирования и просчет различных вариантов, директив планирования, поиск оптимального решения; используемые чаще методы: измерение, сравнение, эксперимент, анализ, синтез, индукция, дедукция, актуализация, макетирование, визуализация, виртуализация и др.

Информация, таким образом, может быть рассмотрена как кортеж А=<Х, Y, f>, где носитель X - сведения, знания о предметной области, множество Y - сообщения, отражающие эти сведения, отношение f - отношение кодирования между элементами X, Y, т.е. их актуализации.

Пример. Пусть X={супруги, дети супругов}, Y={"Иванов Петр Сидорович", "Иванова Ольга Николаевна", "Иванов Олег Петрович", "Иванова Наталья Петровна", "мать", "отец", "сын", "дочь", "родители", "дети"}, отношение f может быть задано (словесно) перечислением связей вида: "Иванов Олег Петрович - супруг Ивановой Ольги Николаевны", "Иванова Наталья Петровна - дочь Ивановой Ольги Николаевны" и т.д.

Пример. Пусть X={арифметические операции}, Y={"-(взятие противоположного числа)", "+(сложение)", "-(вычитание)", "Ч(умножение)", "/(деление)", " v(извлечение квадратного корня)"}, f определим как установление соответствия "унарная операция".

Таким образом, основная задача науки состоит в построении, исследовании, актуализации или хранении множеств с заданным классом X однотипных задач, Y - классом структур и ресурсов, связываемых с этими задачами, и f - процессами их сопоставления и актуализации с помощью некоторых ресурсов.

Такие задачи мы решаем в ежедневной жизни, но в то же время часто правило f нельзя отыскать или построить явно или конструктивно. В этом случае приходится заменять искомый закон f с помощью подходящих явных или конструктивных представлений f, X, Y и/или Z (см. рис. 5.2) и применять эти представления всякий раз.

Рис. 5.2. Инвариант всех решаемых проблем науки

Правило задает правило кодирования или интерпретации входного алфавита, правило - правило декодирования или интерпретации выходного алфавита, т.е. входной и выходной коды (правила, функции). При этом справедливы законы:

у=f(х)= (f*( (х))).

Правило f* подбирают так, чтобы, в отличие от f, его можно было бы найти и/или исследовать, применить. Для каждого сообщения х из Х определена триада:

(х,у*,у): х*=(х), y*=f*(x*), y=(y*).

Информация - содержание сообщения, сообщение - форма проявления или актуализации информации. Информация всегда имеет носитель, актуализация информации связана с изменением носителя, ресурсов.

Пример. Сведения о сути товара могут быть изложены в рекламе, передаваемой различными сообщениями (по телевидению, по радио, в газете и т.д.). При этом соответствие этой рекламы действительности может быть независимо от типа сообщений, т.е. имеется третья сторона информации (кроме ее абстрактной сущности, ее представления сообщениями) - соответствие сведений, заложенных в информации, с проявлениями реальной системы.

Вопросы для самоконтроля

1. Что такое информация? Как классифицируется информация? Чем отличается информация от сообщения?

2. Каковы основные эмпирические методы получения информации?

3. Каковы основные теоретические методы получения информации?

Задачи и упражнения

1. Для задачи решения квадратного уравнения указать входную, выходную, внутрисистемную информацию, их взаимосвязи.

2. Построить тактику изучения (исследования) эпидемии гриппа в городе только эмпирическими (теоретическими, смешанными) методами?

3. Эмпирическими (теоретическими, эмпирико-теоретическими) методами получить информацию о погоде (опишите в общих чертах подходы).

Темы для научных исследований и рефератов, интернет-листов

1. Информация - знание, абстракция.

2. Информация - мера порядка, организации, разнообразия в системе.

3. Информация - структурированности и неопределенности в системе.

6. Лекция: Меры информации в системе

Рассматриваются различные способы введения меры измерения количества информации, их положительные и отрицательные стороны, связь с изменением информации в системе, примеры.

Цель лекции: введение в различные способы задания мер для измерения количества информации, их критический сравнительный анализ, основные связи информации и энтропии системы.

В предыдущей лекции было отмечено, что информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера, как было сказано выше, - непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Ниже мы не всегда будем, в основном, для большей убедительности и большего содержательного понимания, проводить четкие математические границы между понятиями "количество информации" и "мера количества информации", но строгому читателю необходимо все время задавать достаточно важные вопросы: о количестве информации или о мере информации в конкретной последовательности событий идет речь? о детерминированной или стохастической информации идет речь? какова мера измерения количества информации и насколько она адекватна?

1. Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными, последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определенной длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно, называется мерой разнообразия множества состояний системы и задается формулой Р. Хартли: H=klogаN, где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной единицы измерения меры), а - основание системы меры.

Если измерение ведется в экспоненциальной системе, то k=1, H=lnN (нат); если измерение было произведено в двоичной системе, то k=1/ln2, H=log2N (бит); если измерение было произведено в десятичной системе, то k=1/ln10, H=lgN (дит).

Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log2 2). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если же система имеет n различных состояний, то максимальное количество информации будет определяться по формуле: I=log2n.

Справедливо утверждение Хартли: если в некотором множестве X={x1, x2, ..., xn} необходимо выделить произвольный элемент xiX, то для того, чтобы выделить (найти) его, необходимо получить не менее logan (единиц) информации.

Если N - число возможных равновероятных исходов, то величина klnN представляет собой меру нашего незнания о системе.

По Хартли, для того, чтобы мера информации имела практическую ценность, она должна быть такова, чтобы отражать количество информации пропорционально числу выборов.

Пример. Имеются 192 монеты. Известно, что одна из них - фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log23, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log23klog2192. Отсюда, k7 или, k=7 (или k=8 - если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 7 взвешиваний (достаточно 7).

Пример. ДНК человека можно представить себе как некоторое слово в четырехбуквенном алфавите, где каждой буквой помечается звено цепи ДНК или нуклеотид. Определим, сколько информации (в битах) содержит ДНК, если в нем содержится примерно 1,5Ч1023 нуклеотидов (есть и другие оценки этого объема, но мы рассмотрим данный вариант). На один нуклеотид приходится log2(4)=2 (бит) информации. Следовательно, структура ДНК в организме человека позволяет хранить 3Ч1023 бит информации. Это вся информация, сюда входит и избыточная. Реально используемой - структурированной в памяти человека информации, - гораздо меньше. В связи с этим, заметим, что человек за среднюю продолжительность жизни использует около 5-6% нейронов (нервных клеток мозга - "ячеек ОЗУ человека"). Генетический код - чрезвычайно сложная и упорядоченная система записи информации.

Информация, заложенная в генетическом коде (по учению Дарвина), накапливалась многие тысячелетия. Хромосомные структуры - своеобразный шифровальный код, при клеточном делении создаются копии шифра, каждая хромосома - удваивается, в каждой клетке имеется шифровальный код, при этом каждый человек получает, как правило, свой набор хромосом (код) от матери и от отца. Шифровальный код разворачивает процесс эволюции человека. Вся жизнь, как отмечал Э. Шредингер, "упорядоченное и закономерное поведение материи, основанное ... на существовании упорядоченности, которая поддерживается все время".

Формула Хартли отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации в проявлениях системы с помощью рассматриваемых N состояний системы). Это основная и положительная сторона формулы. Но имеется основная и отрицательная ее сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы.

Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (так как основание логарифма больше 1!), - также верно.

2. Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:

где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-е состояние, причем сумма всех pi равна 1.

Если все состояния равновероятны (т.е. рi=1/n), то I=log2n.

К. Шенноном доказана теорема о единственности меры количества информации. Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.

Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, на которую он должен был указать в ходе эксперимента. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I, определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i .

Легко видеть, что в общем случае

Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несет в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несет в себе нулевую информацию (и это вполне ясно: событие всё равно произойдет когда-либо).

Пример. Если положение точки в системе известно, в частности, она - в k-ой клетке, т.е. все рi=0, кроме рk=1, то тогда I=log21=0 и мы здесь новой информации не получаем (как и следовало ожидать).

Пример. Выясним, сколько бит информации несет произвольное двузначное число со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения, т.е. каждая из возможных цифр может появиться на данном месте, в данном разряде с одинаковой вероятностью). Так как таких чисел может быть всего 90 (10-99), то информации будет количество I=log290 или приблизительно I=6,5. Так как в таких числах значащая первая цифра имеет 9 значений (1-9), а вторая - 10 значений (0-9), то I=log290=log29+log210. Приблизительное значение log210 равно 3,32. Итак, сообщение в одну десятичную единицу несет в себе в 3,32 больше информации, чем в одну двоичную единицу (чем log22=1), а вторая цифра, например, в числе аа, несет в себе больше информации, чем первая (если цифры а обоих разрядов неизвестны; если же эти цифры а известны, то выбора нет и информация равна нулю).

Если в формуле Шеннона обозначить fi=-nlog2 pi, то получим, что I можно понимать как среднеарифметическое величин fi.

Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в сообщении, передающем информацию.

Пример. Пусть рассматривается алфавит из двух символов русского языка - "к" и "а". Относительные частоты встречаемости этих букв в частотном словаре русского языка равны соответственно p1=0.028, p2=0.062. Возьмем произвольное слово p длины N из k букв "к" и m (k+m=N) букв "а" над этим алфавитом. Число всех таких возможных слов, как это следует из комбинаторики, равно n=N!/(k! m!). Оценим количество информации в таком слове: I=log2n=lnn/ln2=log2e[lnN!-lnk!-lnm!]. Используя известную формулу Стирлинга (эта формула, как известно из математического анализа, достаточно точна при больших N, например, при N>100) - N!?(N/e)N), а точнее, ее важное следствие, - lnN!?N(lnN-1), получаем оценку количества информации (в битах) на 1 символ любого слова:

I1=I/N?(log2e/N)[(k+m)(lnN -1) - k(ln k-1) - m(ln m-1)]=

=(log2e/N)[k ln(N/k) - m ln(N/m)]=

= - log2e[(k/N) ln(k/N) + (m/N) ln(m/N)]

-log2e [p1 ln p1+p2 ln p2]=

=-log2e[0,028 ln0,028+0,062 ln0,062]? 0,235.

Пример. В сообщении 4 буквы "a", 2 буквы "б", 1 буква "и", 6 букв "р". Определим количество информации в одном таком (из всех возможных) сообщений. Число N различных сообщений длиной 13 букв будет равно величине: N=13!/(4!Ч2!Ч1!Ч6!)=180180. Количество информации I в одном сообщении будет равно величине: I=log2(N)=log2180180?18 (бит).

Если k - коэффициент Больцмана, известный в физике как k=1.38Ч10-16 эрг/град, то выражение

в термодинамике известно как энтропия, или мера хаоса, беспорядка в системе. Сравнивая выражения I и S, видим, что I можно понимать как информационную энтропию (энтропию из-за нехватки информации о/в системе).

Л. Больцман дал статистическое определение энтропии в 1877 г. и заметил, что энтропия характеризует недостающую информацию. Спустя 70 лет, К. Шеннон сформулировал постулаты теории информации, а затем было замечено, что формула Больцмана инвариантна информационной энтропии, и была выявлена их системная связь, системность этих фундаментальных понятий.

Важно отметить следующее.

Нулевой энтропии соответствует максимальная информация. Основное соотношение между энтропией и информацией:

I+S(log2e)/k=const

или в дифференциальной форме

dI/dt= -((log2e)/k)dS/dt.

При переходе от состояния S1 с информацией I1 к состоянию S2 с информацией I2 возможны случаи:

1. S1 < S2 (I1 >I2) - уничтожение (уменьшение) старой информации в системе;

2. S1 = S2 (I1 = I2) - сохранение информации в системе;

3. S1 > S2 (I1 < I2) - рождение новой (увеличение) информации в системе.

Главной положительной стороной формулы Шеннона является ее отвлеченность от семантических и качественных, индивидуальных свойств системы. В отличие от формулы Хартли, она учитывает различность, разновероятность состояний - формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основной отрицательной стороной формулы Шеннона является то, что она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации. Теория Шеннона разработана как теория передачи данных по каналам связи, а мера Шеннона - мера количества данных и не отражает семантического смысла.

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=Smax) и полной информационной неопределенности (I=Imin) до полного порядка (S=Smin) и полной информационной определённости (I=Imax) в системе

3. Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о внутренней структуре системы (не восполняемым принципиально, а не просто нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н0, Н1 - термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Н(Н01)=Н0 - Н1.

Эта формула универсальна для любых термодинамических систем. Уменьшение Н(Н01) свидетельствует о приближении термодинамической системы S к состоянию статического равновесия (при данных доступных ей ресурсах), а увеличение - об удалении.

Поставим некоторый вопрос о состоянии термодинамической системы. Пусть до начала процесса можно дать p1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса - p2 ответов. Изменение информации при этом:

ДI=k ln(p1 / p2)=k (ln p1 - ln p2 ).

Если p1>p2 (ДI>0) - идет прирост информации, т.е. сведения о системе стали более определенными, а при p1<p2 (ДI<0) - менее определенными. Универсально то, что мы не использовали явно структуру системы (механизм протекания процесса).

Пример. Предположим, что имеется развивающаяся социально-экономическая система с числом состояний 10, которая в результате эволюции развилась до системы с числом состояний 20. Нас интересует вопрос о состоянии некоторого составного элемента системы (например, предприятия). В начале мы знали ответ на вопрос и поэтому p1=1 (lnp1=0). Число ответов было пропорционально величине [ln10]. После развития мы знаем уже микроэкономическое состояние, т.е. изменение информации о состоянии системы равно ДI = -kln(20/10) = -kln2 (нат).

Пример. Предположим, что имеется термодинамическая система - газ в объеме V , который расширяется до объема 2V (рис. 6.1).

Рис. 6.1. Газ объема V (a) расширяемый до 2V (б)

Нас интересует вопрос о координате молекулы m газа. В начале (а) мы знали ответ на вопрос и поэтому p1=1 (lnp1=0). Число ответов было пропорционально lnV. После поднятия заслонки мы уже знаем эту координату (микросостояния), т.е. изменение (убыль) информации о состоянии системы будет равно

ДI = -k ln(2V /V) = -k ln 2 (нат).

Мы получили известное в термодинамике выражение для прироста энтропии в расчете на одну молекулу, и оно подтверждает второе начало термодинамики. Энтропия - мера недостатка информации о микросостоянии статической системы.

Величина ДI может быть интерпретирована как количество информации, необходимой для перехода от одного уровня организации системы к другому (при ДI>0 - более высокому, а при ДI>0 - более низкому уровню организации).

Термодинамическая мера (энтропия) применима к системам, находящимся в тепловом равновесии. Для систем, далеких от теплового равновесия, например, живых биологических систем, мера-энтропия - менее подходящая.

4. Энергоинформационная (квантово-механическая) мера. Энергия (ресурс) и информация (структура) - две фундаментальные характеристики систем реального мира, связывающие их вещественные, пространственные, временные характеристики. Если А - именованное множество с носителем так называемого "энергетического происхождения", а В - именованное множество с носителем "информационного происхождения", то можно определить энергоинформационную меру f: AB, например, можно принять отношение именования для именованного множества с носителем (множеством имен) А или В. Отношение именования должно отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе.

Отметим, что сейчас актуальнее говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизико-информационных и вещественно-энергетических структур и процессов в системе.

Пример. Процесс деления клеток сопровождается излучением квантов энергии с частотами приблизительно до N=1.5Ч1015 гц. Этот спектр можно воспринимать как спектр функционирования словарного запаса клетки как биоинформационной системы. С помощью этого спектра можно закодировать до 1015 различных биохимических реакций, что примерно в 107 раз больше количества реакций реально протекающих в клетке (их количество - примерно 108), т.е. словарный запас клетки избыточен для эффективного распознавания, классификации, регулирования этих реакций в клетке. Количество информации на 1 квант энергии: I=log21015?50 бит. При делении клеток количество энергии, расходуемой на передачу 50 бит информации равно энергии кванта (h - постоянная Планка, n - частота излучения):

E=hн=6,62Ч10-27 (эрг/cек) Ч 0,5Ч1015 (сек-1) =3,3Ч10-12 (эрг).

При этом на 1 Вт мощности "передатчика" или на м=107 эрг/сек. может быть передано количество квантов:

n=м/E=107 (эрг/сек)/(3,3Ч10-12 (эрг))?3,3Ч1018 (квант).

Общая скорость передачи информации на 1 Вт затрачиваемой клеткой мощности определяется по числу различных состояний клетки N и числу квантов (излучений) m:

V=n log2N=3,3Ч1018Ч50?1,6Ч1020 (бит/сек).

Любая информация актуализируется в некоторой системе. Материальный носитель любой системы - сообщение, сигнал. Любая актуализация сопровождается изменением энергетических свойств (изменением состояния) системы. Наши знания (а, следовательно, и эволюция общества) простираются на столько, на сколько углубляется информация и совершенствуется возможность ее актуализации.

5. Другие меры информации. Многими авторами в последнее время рассматриваются различные количественные меры для измерения смысла информации, например, мера, базирующаяся на понятии цели (А. Харкевич и другие); мера, базирующаяся на понятии тезаурус Т=<X,Y,Z>, где X, Y, Z - множества, соответственно, имен, смыслов и начений (прагматики) этих знаний (Ю. Шрейдер и другие); мера сложности .

зПример. В качестве меры (Колмогорова) восстановления двоичного слова y по заданному отображению f и заданным двоичным словам x из непустого множества X можно взять H(f,y)=min|x|, xX, f(x)=y. Здесь |x| - длина двоичного слова х.

Пример. Если априори известно, что некоторая переменная лежит в интервале (0;1), и апостериори, что она лежит в интервале (a;b)(0;1), тогда в качестве меры (Винера) количества информации, извлекаемой из апостериорного знания, можно взять отношение меры (a;b) к мере (0;1).

Пример. В биологических науках широко используются так называемые индексные меры, меры видового разнообразия. Индекс - мера состояния основных биологических, физико-химических и др. компонент системы, позволяющая оценить силу их воздействия на систему, состояние и эволюцию системы. Индексы должны быть уместными, общими, интерпретируемыми, чувствительными, минимально достаточными, качественными, широко применяемыми, рациональными. Например, показателем видового разнообразия в лесу может служить

н = vp1 + vp2 +...+vpn

где p1, p2, ..., pn - частоты видов сообщества, обитающих в лесу, n - число видов.

Вопросы для самоконтроля

1. Что такое мера информации? Каковы общие требования к мерам информации?

2. В чем смысл количества информации по Хартли и Шеннону? Какова связь количества информации и энтропии, хаоса в системе?

3. Какова термодинамическая мера информации? Какова квантово-механическая мера информации? Что они отражают в системе?

Задачи и упражнения

1. Система имеет N равновероятных состояний. Количество информации в системе (о ее состоянии) равно 5 бит. Чему равна вероятность одного состояния? Если состояние системы неизвестно, то каково количество информации в системе? Если известно, что система находится в состоянии номер 8, то чему равно количество информации?

2. Некоторая система может находиться в четырех состояниях с вероятностями: в первом (худшем) - 0,1, во втором и третьем (среднем) - 0,25, в четвертом (лучшем) - 0,4. Чему равно количество информации (неопределённость выбора) в системе?

3. Пусть дана система с p0=0,4, p1=0,5 - вероятности достижения цели управления, соответственно, до и после получения информации о состоянии системы. Оцените меру целесообразности управления этой системой (в битах).

Темы для научных исследований и рефератов, интернет-листов

1. Энтропия и мера беспорядка в системе. Информация и мера порядка в системе.

2. Квантово-механический и термодинамический подходы к измерению информации.

3. Семантические и несемантические меры информации - новые подходы и аспекты.

7. Лекция: Система и управление

Рассматриваются проблемы управления системой (в системе), схема, цели, функции и задачи управления системой, понятие и типы устойчивости системы, элементы когнитивного анализа.

Цель лекции: введение в основную проблему (атрибут) системного анализа - управление системой (в системе).

Благодаря постоянным потокам информации (от системы к окружающей среде и наоборот) система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или бывает управляема. Информация стала средством не только производства, но и управления.

Своевременная и оперативная информация может позволить стабилизировать систему, приспосабливаться и(или) адаптироваться, восстанавливаться при нарушениях структуры и(или) подсистем. От степени информированности системы, от богатства опыта взаимодействия системы и окружающей среды зависит развитие и устойчивость системы.

Информация обладает также определенной избыточностью: чем больше сообщений о системе, тем полнее и точнее она управляется.

Пример. При передаче сообщений часто применяют способ двукратной (избыточной) последовательной передачи каждого символа (что позволяет избавляться от помех, "шумов" при передаче и осуществлять, например, контроль четности сигналов, по результатам которого выявляется количество сбоев). Пусть в результате сбоя при передаче приемником принято было слово вида "прраосснтоо". Определим, какое осмысленное (имеющее семантический смысл) слово русского языка передавалось передатчиком. Легко заметить, что "претендентами на слово" являются слова "праспо", "проспо", "рроспо", "ррасто", "прасто", "рросто", "просто" и "рраспо". Из всех этих слов осмысленным является только слово "просто".

Суть задачи управления системой - отделение ценной информации от "шумов" (бесполезного, иногда даже вредного для системы возмущения информации) и выделение информации, которая позволяет этой системе существовать и развиваться. Управление - это целенаправленная актуализация знаний. Управление и особая форма - самоуправление, - высшая форма актуализации знаний.

Управление в системе - внутренняя функция системы, осуществляемая независимо от того, каким образом, какими элементами системы она должна выполняться.

Управление системой - выполнение внешних функций управления, обеспечивающих необходимые условия функционирования системы (см. рис. 7.1).

Рис. 7.1. Общая схема управления системой

Управление системой (в системе) используется для различных целей:

1. увеличения скорости передачи сообщений;

2. увеличения объема передаваемых сообщений;

3. уменьшения времени обработки сообщений;

4. увеличения степени сжатия сообщений;

5. увеличения (модификации) связей системы;

6. увеличения информации (информированности).

Как правило, эти цели интегрируются.

В целом информация используется для двух основных глобальных целей: сохранения стабильного функционирования системы и перевода системы в заданное целевое состояние.

Пример. Появление возможности управлять электрическими и магнитными колебаниями сделало массово доступным радио, телевидение, при этом скорость передачи информации достигла скорости света; пропускная способность телеканала по сравнению с пропускной способностью телефонного канала выросла примерно в 2000 раз, ускорение обработки - в миллионы раз. Возросла и сжатость информации, и информативность сообщений.

Управление любой системой (в любой системе) должно подкрепляться необходимыми ресурсами - материальными, энергетическими, информационными, людскими и организационными (административного, экономического, правового, гуманитарного, социально-психологического типа). При этом характер и степень активизации этих ресурсов может повлиять (иногда лишь косвенно) и на систему, в которой информация используется. Более того, сама информация может быть зависима от системы.

Пример. В средствах массовой информации правительство чаще ругают, актеров чаще хвалят, спортсменов упоминают обычно в связи со спортивными результатами, прогноз погоды бывает, как правило, кратким, новости политики - официальными.

Управление - непрерывный процесс, который не может быть прекращен, ибо движение, поток информации в системе не прекращается.

Цикл управления любой системой (в любой системе) таков:

{ сбор информации о системе

обработка и анализ информации

получение информации о траектории

выявление управляющих параметров

определение ресурсов для управления

управление траекторией системы }

Основные правила организации информации для управления системой:

1. выяснение формы и структуры исходной (входной) информации;

2. выяснение средств, форм передачи и источников информации;

3. выяснение формы и структуры выходной информации;

4. выяснение надежности информации и контроль достоверности;

5. выяснение форм использования информации для принятия решений.

Пример. При управлении полетом ракеты, наземная станция управления генерирует и в определенной форме, определенными структурами посылает входную информацию в бортовую ЭВМ ракеты; при этом сигналы отсеиваются от возможных "шумов", осуществляется контроль входной информации на достоверность и только затем бортовая ЭВМ принимает решение об уточнении траектории, ее корректировке.

Если число возможных состояний системы S равно N, то общее количество разнообразия системы (мера выбора в системе - см. выше "информационные меры") равно

V(N)=log2N.

Пусть управляемая система обладает разнообразием V(N1), а управляющая - V(N2). Цель управляющей системы - уменьшить значение V(N1) за счет изменения V(N2). В свою очередь, изменение V(N1), как правило, влечет изменение и V(N2), а именно, управляющая система может эффективно выполнять присущие ей функции управления лишь при условии, если верно неравенство

V(N2) V(N1).

Это неравенство выражает принцип Эшби (необходимого разнообразия управляемой системы): управляющая подсистема системы должна иметь более высокий уровень организации (или большее разнообразие, больший выбор), чем управляемая подсистема, т.е. многообразие может быть управляемо (разрушено) лишь многообразием.

Пример. Менеджер фирмы должен быть более подготовлен, более грамотен, организован, свободен в своих решениях, чем, например, продавец фирмы. Малые, средние фирмы, ООО, АО - необходимый фактор разнообразия, успешного развития бизнеса, так как они более динамичны, гибки, адаптируемы к рынку. В развитых рыночных системах они имеют больший вес, например, в США доля крупных корпораций не более 10%.

Функции и задачи управления системой:

1. Организация системы - полное, качественное выделение подсистем, описание их взаимодействий и структуры системы (как линейной, так и иерархической, сетевой или матричной).

2. Прогнозирование поведения системы, т.е. исследование будущего системы.

3. Планирование (координация во времени, в пространстве, по информации) ресурсов и элементов, подсистем и структуры системы, необходимых (достаточных - в случае оптимального планирования) для достижения цели системы.

4. Учет и контроль ресурсов, приводящих к тем или иным желаемым состояниям системы.

5. Регулирование - адаптация и приспособление системы к изменениям внешней среды.

6. Реализация тех или иных спланированных состояний, решений.

Функции и задачи управления системой взаимосвязаны, а также взаимозависимы.

Пример. Нельзя, например, осуществлять полное планирование в экономической системе без прогнозирования, учета и контроля ресурсов, без анализа спроса и предложения - основных регуляторов рынка. Экономика любого государства - всегда управляемая система, хотя подсистемы управления могут быть организованы по-разному, иметь различные элементы, цели, структуру, отношения.

По характеру управления, охвата подсистем и подцелей (цели системы) управление может быть:

1. стратегическое, направленное на разработку, корректировку стратегии поведения системы;

2. тактическое, направленное на разработку, корректировку тактики поведения системы.

По времени управляющего воздействия системы могут быть: долгосрочно и краткосрочно управляемые.

Иногда отождествляют стратегическое и долгосрочное, тактическое и краткосрочное управление, но это не всегда верно.

Пример. Любая серьезная экономическая система стратегического управления должна включать в себя управляющую (информационную) подсистему, обрабатывающую, актуализирующую стратегическую информацию об инновационных мероприятиях, инвестиционных условиях, о возможностях и состояниях рынков товаров, услуг, ценных бумаг, доступных ресурсах, финансовых условиях и критериях, принципах и методах управления и др. Такие системы обычно имеют следующие цели и, часто, соответствующие им структуры:

1. управление координацией (Project Integration Management);

2. управление целями (Project Scope Management);

3. управление временем (Project Time Management);

4. управление стоимостью (Project Cost Management);

5. управление качеством (Project Quality Management);

6. управление людскими ресурсами (Project Human Resource Management);

7. управление коммуникациями (Project Communication Management);

8. управление рисками (Project Risk Management);

9. управление поставками (Project Procurement Management).

Все эти функции тесно переплетены между собой.

Выявление управляющих параметров и их использование для управления системой может также способствовать уменьшению сложности системы. В свою очередь, уменьшение сложности системы может сделать систему управляемой.

Система называется устойчивой структурно (динамически; вычислительно; алгоритмически; информационно; эволюционно или самоорганизационно), если она сохраняет тенденцию стремления к тому состоянию, которое наиболее соответствует целям системы, целям сохранения качества без изменения структуры или не приводящим к сильным изменениям структуры (динамики поведения; вычислительных средств; алгоритмов функционирования системы; информационных потоков; эволюции или самоорганизации - см. ниже) системы на некотором заданном множестве ресурсов (например, на временном интервале). Расплывчатое понятие "сильное изменение" каждый раз должно быть конкретизировано, детерминировано.

Пример. Рассмотрим маятник, подвешенный в некоторой точке и отклоняемый от положения равновесия на угол 0. Маятник будет структурно, вычислительно, алгоритмически и информационно устойчив в любой точке, а при =0 (состояние покоя маятника) - устойчив и динамически, и эволюционно (самоорганизационные процессы в маятнике на микроуровне мы не учитываем). При отклонении от устойчивого состояния равновесия маятник, самоорганизуясь, стремится к равновесию. При =p маятник переходит в динамически неустойчивое состояние. Если же рассматривать лед (как систему), то при температуре таяния эта система структурно неустойчива. Рынок при неустойчивом спросе-предложении неустойчив структурно.

Чем многообразнее входные сигналы (параметры) системы, число различных состояний системы, тем многообразнее обычно выходные сигналы, тем сложнее система, тем актуальнее проблема поиска инвариантов управления.

Понятие сложности детализируется в различных предметных областях по-разному. Для конкретизации этого понятия необходимо учитывать предысторию, внутреннюю структуру (сложность) системы и управления, приводящие систему к устойчивому состоянию. Впрочем, все внутренние связи на практике достаточно трудно не только описать, но и обнаружить. В этих случаях помогает выяснение и описание связности системы, связной и асимптотической устойчивости ее.

Асимптотическая устойчивость системы состоит в возврате системы к равновесному состоянию при t? из любого неравновесного состояния.

Пример. Известная игрушка "Ванька-встанька" - пример такой системы.

Пусть система S зависит от вектора факторов, переменных x=(x1,x2,...,xn).

Матрицей системы назовем матрицу E=||eij|| из 1 и 0: eij=1 лишь тогда, когда переменная xiоказывает влияние на xj.

Связная устойчивость состоит в асимптотической устойчивости системы при любых матрицах Е.

Пример. Рассмотрим множество друзей X={Иванов, Петров, Сидоров} и городов Y={Москва, Париж, Нальчик}. Тогда можно построить 3D-структуру в R3 (в пространстве трех измерений - высота, ширина, длина), образуемую связыванием элементов X и Y, например, по принципу "кто где был" (рис. 7.2). В этой структуре были использованы сетевые 2D-структуры X, Y (которые, в свою очередь, использовали 1D-структуры). При этом элементы X и Y можно брать как точки, элементы пространства нулевого измерения R0.

Рис. 7.2. Геометрическая иллюстрация сложных связных структур

При системном анализе различных систем, особенно социально-экономических, удобным инструментом их изображения и изучения является инструментарий когнитивной структуризации и системно-когнитивная концепция.

Когнитология - междисциплинарное (философия, нейропсихология, психология, лингвистика, информатика, математика, физика и др.) научное направление, изучающее методы и модели формирования знания, познания, универсальных структурных схем мышления.

Цель когнитивной структуризации - формирование и уточнение гипотезы о функционировании исследуемой системы, т.е. структурных схем причинно-следственных связей, их качественной и(или) количественной оценки.

Причинно-следственная связь между системами (подсистемами) А и В положительна (отрицательна), если увеличение или усиление А ведет к увеличению или усилению (уменьшению или ослаблению) В.

Когнитивная схема (карта) ситуации представляет собой ориентированный взвешенный граф, который строится по правилам:

1. вершины взаимнооднозначно соответствуют выделенным факторам ситуации, в терминах которых описываются процессы в ситуации;

2. выявляются и оцениваются (положительное влияние, отрицательное влияние) причинно-следственные связи выделенных факторов друг на друга.

Пример. Когнитивная структурная схема для анализа проблемы энергопотребления может иметь следующий вид (рис. 7.3):


Подобные документы

  • Характеристика простых и сложных систем, их основные признаки. Общие принципы и этапы экономико-математического моделирования. Назначение рабочего этапа системного анализа - выявление ресурсов и процессов, композиция целей, формулирование проблемы.

    контрольная работа [47,7 K], добавлен 11.10.2012

  • Области применения системного анализа, его место, роль, цели и функции в современной науке. Понятие и содержание методик системного анализа, его неформальные методы. Особенности эвристических и экспертных методов исследования и особенности их применения.

    курсовая работа [78,8 K], добавлен 20.05.2013

  • Понятие системы управления, ее назначение и целевые функции. Суть параметрического метода исследования на основе научного аппарата системного анализа. Проведение исследования системы управления на предприятии "Атлант", выявление динамики объема продаж.

    курсовая работа [367,1 K], добавлен 09.06.2010

  • Использование системного анализа для подготовки и обоснования управленческих решений по многофакторным проблемам. Возникновение синергетики как науки о законах построения организации, возникновения упорядоченности, развитии и самоусложнении системы.

    реферат [40,4 K], добавлен 21.01.2015

  • Использование инструментария системного анализа для решения проблем на пути достижения цели - завести аквариум с пираньями. Описание предметной области. Построение дерева целей. Эффективные мероприятия в деревьях мероприятий, сетевой график их реализации.

    курсовая работа [97,3 K], добавлен 07.10.2013

  • Основы структурного системного анализа, принципы и вопросы создания функциональных моделей по методологии IDEF0: истоки структурного моделирования, границы системы, точка зрения модели, синтаксис графических диаграмм. Функциональные блоки, дуги.

    учебное пособие [514,6 K], добавлен 17.06.2011

  • Методология анализа сложных объектов, изучения и познания процессов. Основные принципы системного подхода к анализу проблем и основные понятия о системах. Декомпозиция, анализ подпроблем и их решение, выявление альтернатив и выбор оптимальных решений.

    контрольная работа [47,5 K], добавлен 04.08.2010

  • Определение происхождения эффекта взаимодействия. Последовательность и приёмы системного анализа. Разработка максимального количества альтернатив. Разработка эмпирической модели. Основные типы шкал, используемых при спецификации переменных системы.

    презентация [253,7 K], добавлен 19.12.2013

  • Теория системного анализа техносферы. Общая последовательность формализации и моделирования опасных процессов в техносфере. Особенность формализации и моделирования процесса возникновения происшествий в техносфере вообще и в человекомашинных системах.

    реферат [26,4 K], добавлен 06.03.2011

  • Общие принципы системного анализа. Основные этапы построения эконометрических моделей и использования их для прогнозирования. Экстраполяция трендов и ее использование в анализе. Правила составления информации подсистем. Модель "спрос-предложение".

    реферат [190,5 K], добавлен 24.01.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.