Математическая сущность системной теории информации (Системное обобщение формулы Больцмана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона)
Алгоритм формирования матрицы абсолютных частот. Формирование матрицы условных и безусловных вероятностей. Взаимосвязь системной меры целесообразности информации со статистикой. Получение матрицы знаний. Реализация модели в аналитической системе "Эйдос".
Рубрика | Математика |
Вид | статья |
Язык | русский |
Дата добавления | 26.04.2017 |
Размер файла | 424,3 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Кубанский государственный аграрный университет, Краснодар, Россия
МАТЕМАТИЧЕСКАЯ СУЩНОСТЬ СИСТЕМНОЙ ТЕОРИИ ИНФОРМАЦИИ (СТИ) (Системное обобщение формулы Больцмана-Найквиста-Хартли, синтез семантической теории информации Харкевича и теории информации Шеннона)
Луценко Евгений Вениаминович
д.э.н., к.т.н., профессор
В статье кратко описана математическая сущность предложенной автором системной теории информации (СТИ), являющейся математической моделью системно-когнитивного анализа (СК-анализ) реализуемой в его программном инструментарии - универсальной когнитивной аналитической системе "Эйдос"
Ключевые слова: СИСТЕМНАЯ ТЕОРИЯ ИНФОРМАЦИИ, МАТЕМАТИЧЕСКАЯ МОДЕЛЬ СИСТЕМНО-КОГНИТИВНЫЙ АНАЛИЗ,СК-АНАЛИЗ, ПРОГРАММНЫЙ ИНСТРУМЕНТАРИЙ, УНИВЕРСАЛЬНАЯ КОГНИТИВНАЯ АНАЛИТИЧЕСКАЯ СИСТЕМА "ЭЙДОС".
В работах [2, 4, 5, 12, 13, 14] предложена и развита программная идея системного обобщения математики путем тотальной замены понятия множества на более общее и содержательное понятие системы и тщательное прослеживания всех последствий этого во всех понятиях математики, основанных на понятии множества. Частично эта идея была реализована при разработке автоматизированного системно-когнитивного анализа (АСК-анализа) [2], математическая модель которого основана на системном обобщении формул для количества информации Найквиста-Хартли и Харкевича, в результате чего удалось объединить семантическую теорию информации Харкевича с теорией информации Шеннона. Полученная в результате этого обобщенная теория названа системной теорией информации (СТИ). Системное обобщение понятия функциональной зависимости рассматривается в работах [7 19], в них же вводятся новые научные понятия и соответствующие термины: "когнитивные функции" и "когнитивные числа". Различные аспекты СТИ рассмотрены в работах [1-21]. Таким образом существует много работ, в том числе монографий и учебных пособий, в которых изложена системная теория информации. Однако, как раз то, что этих работ много и они довольно объемны не вдохновляет потенциальных читателей.
Поэтому в данной статье ставится цель описать математическую суть системной теории информации на столько кратко, на сколько это вообще возможно. Своеобразной "ценой" за это является то, что пришлось пожертвовать подробной смысловой интерпретацией полученных математических выражений, за которой мы отсылаем к уже упомянутым работам.
Итак, классическая формула Хартли имеет вид:
Будем искать ее системное обобщение в виде:
где:
W - количество элементов в множестве.
- коэффициент эмерджентности, названный автором в честь Хартли коэффициентом эмерджентности Хартли.
Примем, что системное обобщение формулы Хартли имеет вид:
где:
- количество подсистем и m элементов;
m - сложность подсистем;
M - максимальная сложность подсистем.
Так как , то при M=1 система переходит в множество и выражение (3) приобретает вид (1), т.е. для него выполняется принцип соответствия, являющийся обязательным для более общей теории.
Учитывая, что при M=W:
в этом случае получаем:
Выражение (5) дает приближенную оценку максимального количества информации в элементе системы. Из выражения (5) видно, что при увеличении числа элементов W количество информации I быстро стремится к W (6) и уже при W>4 погрешность выражения (5) не превышает 1%:
Приравняв правые части выражений (2) и (3):
получим выражение для коэффициента эмерджентности Хартли:
Смысл этого коэффициента раскрыт в работах [2, 4, 5, 9, 12, 13, 14]. Здесь отметим лишь, что при M1 когда система асимптотически переходит в множество 1 и (2) (1), как и должно быть согласно принципу соответствия.
С учетом (8) выражение (2) примет вид:
или при M=W и больших W, учитывая (4 и 5):
Выражение (9) и представляет собой искомое системное обобщение классической формулы Хартли, а выражение (10) - его достаточно хорошее приближение при большом количестве элементов в системе W.
Классическая формула А.Харкевича имеет вид:
где: - Pij - условная вероятность перехода объекта в j-е состояние при условии действия на него i-го значения фактора;
- Pj - безусловная вероятность перехода объекта в j-е состояние (вероятность самопроизвольного перехода или вероятность перехода, посчитанная по всей выборке, т.е. при действии любого значения фактора).
Придадим выражению (11) следующий эквивалентный вид, который и будем использовать ниже:
где: - индекс i обозначает признак (значение фактора): 1 i M;
- индекс j обозначает состояние объекта или класс: 1 j W;
- Pij - условная вероятность наблюдения i-го значения фактора у объектов в j-го класса;
- Pi - безусловная вероятность наблюдения i-го значения фактора по всей выборке.
Из (12) видно, что формула Харкевича для семантической меры информации по сути является логарифмом от формулы Байеса для апостериорной вероятности (отношение условной вероятности к безусловной). Вопрос об эквивалентности выражений (11) и (12) рассмотрим позднее.
Известно, что классическая формула Шеннона для количества информации для неравновероятных событий преобразуется в формулу Хартли при условии, что события равновероятны, т.е. удовлетворяет фундаментальному принципу соответствия. Поэтому теория информации Шеннона справедливо считается обобщением теории Хартли для неравновероятных событий. Однако, выражения (11) и (12) при подстановке в них реальных численных значений вероятностей Pij, Pj и Pi не дает количества информации в битах, т.е. для этого выражения не выполняется принцип соответствия, обязательный для более общих теорий. Возможно, в этом состоит причина довольно сдержанного, а иногда и скептического отношения специалистов по теории информации Шеннона к семантической теории информации Харкевича.
Причину этого мы видим в том, что в выражениях (11) и (12) отсутствуют глобальные параметры конкретной модели W и M, т.е. в том, что А.Харкевич в своем выражении для количества информации не ввел зависимости от мощности пространства будущих состояний объекта W и количества значений факторов M, обуславливающих переход объекта в эти состояния.
Поставим задачу получить такое обобщение формулы Харкевича, которое бы удовлетворяло тому же самому принципу соответствия, что и формула Шеннона, т.е. преобразовывалось в формулу Хартли в предельном детерминистском равновероятном случае, когда каждому классу (состоянию объекта) соответствует один признак (значение фактора), и каждому признаку - один класс, и эти классы (а, значит и признаки), равновероятны, и при этом каждый фактор однозначно, т.е. детерминистским образом определяет переход объекта в определенное состояние, соответствующее классу.
Будем искать это обобщение (12) в виде:
Найдем такое выражение для коэффициента , названого нами в честь А.Харкевича "коэффициентом эмерджентности Харкевича", которое обеспечивает выполнение для выражения (13) принципа соответствия с классической формулой Хартли (1) и ее системным обобщением (2 и 3) в равновероятном детерминистском случае.
Для этого нам потребуется выразить вероятности Pij, Pj и Pi через частоты наблюдения признаков по классам (см. таблица 1). В таблице 1 рамкой обведена область значений, переменные определены ранее.
Таблица 1
Матрица частот
Классы |
Сумма |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
|
|
|
||||
... |
||||||||
i |
|
|
|
|||||
... |
||||||||
M |
|
|
|
|||||
Суммарное количество признаков |
||||||||
Суммарное количество объектов обучающей выборки |
|
N |
Алгоритм формирования матрицы абсолютных частот.
Объекты обучающей выборки описываются векторами (массивами) имеющихся у них признаков:
Первоначально в матрице абсолютных частот все значения равны нулю. Затем организуется цикл по объектам обучающей выборки. Если предъявленного объекта относящегося к j-му классу есть i-й признак, то:
Здесь можно провести очень интересную и важную аналогию между способом формирования матрицы абсолютных частот и работой многоканальной системы выделения полезного сигнала из шума. Представим себе, что все объекты, предъявляемые для формирования обобщенного образа некоторого класса в действительности являются различными реализациями одного объекта - "Эйдоса" (в смысле Платона), по-разному зашумленного различными случайными обстоятельствами. И наша задача состоит в том, чтобы подавить этот шум и выделить из него то общее и существенное, что отличает объекты данного класса от объектов других классов. Учитывая, что шум чаще всего является "белым" и имеет свойство при суммировании с самим собой стремиться к нулю, а сигнал при этом наоборот возрастает пропорционально количеству слагаемых, то увеличение объема обучающей выборки приводит ко все лучшему отношению сигнал/шум в матрице абсолютных частот, т.е. к выделению полезной информации из шума. Примерно так мы начинаем постепенно понимать смысл фразы, которую мы сразу не расслышали по телефону и несколько раз переспрашивали. При этом в повторах шум не позволяет понять то одну, то другую часть фразы, но в конце-концов за счет использования памяти и интеллектуальной обработки информации мы понимаем ее всю. Так и объекты, описанные признаками, можно рассматривать как зашумленные фразы, несущие нам информацию об обобщенных образах классов: "Эйдосах" [12, 13, 14, 15], к которым они относятся. И эту информацию мы выделяем из шума при синтезе модели.
Для выражения (11):
Для выражений (12) и (13):
Для выражений (11), (12) и (13):
В (16) использованы обозначения:
Nij - суммарное количество наблюдений в исследуемой выборке факта: "действовало i-е значение фактора и объект перешел в j-е состояние";
Nj - суммарное количество встреч различных факторов у объектов, перешедших в j-е состояние;
Ni - суммарное количество встреч i-го фактора у всех объектов исследуемой выборки;
N - суммарное количество встреч различных факторов у всех объектов исследуемой выборки.
Формирование матрицы условных и безусловных вероятностей.
На основе анализа матрицы частот (таблица 1) классы можно сравнивать по наблюдаемым частотам признаков только в том случае, если количество объектов по всем классам одинаково, как и суммарное количество признаков по классам. Если же они отличаются, то корректно сравнивать классы можно только по условным и безусловным вероятностям наблюдения признаков, посчитанных на основе матрицы частот (таблица 1) в соответствии с выражениями (14) и (15), в результате чего получается матрица условных и безусловных процентных распределений (таблица 2).
При расчете матрицы условных и безусловных вероятностей Nj из таблицы 1 могут браться либо из предпоследней, либо из последней строки. В 1-м случае Nj представляет собой "Суммарное количество признаков у всех объектов, использованных для формирования обобщенного образа j-го класса", а во 2-м случае, это "Суммарное количество объектов обучающей выборки, использованных для формирования обобщенного образа j-го класса", соответственно получаем различные, хотя и очень сходные семантические информационные модели, которые мы называем СИМ-1 и СИМ-2. Оба этих вида моделей поддерживаются системой "Эйдос".
Таблица 2
Матрица условных и безусловных вероятностей
Классы |
Безусловная вероятность признака |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
|
|
|
||||
... |
||||||||
i |
|
|
|
|||||
... |
||||||||
M |
|
|
|
|||||
Безусловная вероятность класса |
Эквивалентность выражений (11) и (12) устанавливается, если подставить в них выражения вероятности Pij, Pj и Pi через частоты наблюдения признаков по классам из (14), (15) и (16). В обоих случаях из выражений (11) и (12) получается одно и тоже выражение (17):
А из (13) выражение (18), с которым мы и будем далее работать.
При взаимно-однозначном соответствии классов и признаков в равновероятном детерминистском случае имеем (таблица 3):
Таблица 3
Матрица частот в равновероятном детерминистском случае
Классы |
Сумма |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
1 |
1 |
|||||
... |
1 |
1 |
||||||
i |
1 |
1 |
||||||
... |
1 |
1 |
||||||
M |
1 |
1 |
||||||
Сумма |
1 |
1 |
1 |
1 |
1 |
N |
В этом случае к каждому классу относится один объект, имеющий единственный признак. Откуда получаем для всех i и j (19):
Таким образом, обобщенная формула А.Харкевича (18) с учетом (19) в этом случае приобретает вид:
откуда:
или, учитывая выражение для коэффициента эмерджентности Хартли (8):
Подставив коэффициент эмерджентности А.Харкевича (21) в выражение (18), получим:
или окончательно:
Отметим, что 1-я задача получения системного обобщения формул Хартли и Харкевича и 2-я задача получения такого обобщения формулы Харкевича, которая удовлетворяет принципу соответствия с формулой Хартли - это две разные задачи. 1-я задача является более общей и при ее решении, которое приведено выше, автоматически решается и 2-я задача, которая является, таким образом, частным случаем 1-й.
Однако, представляет самостоятельный интерес и частный случай, в результате которого получается формула Харкевича удовлетворяющая в равновероятном детерминистском случае принципу соответствия с классической формулой Хартли (1), а не с ее системным обобщением (2) и (3). Ясно, что эта формула получается из (23) при =1.
Из выражений (21) и (22) видно, что в этом частном случае, т.е. когда система эквивалентна множеству (M=1), коэффициент эмерджентности А.Харкевича приобретает вид:
На практике для численных расчетов на удобнее пользоваться не выражениями (23) или (24), а формулой (26), которая получается непосредственно из (18) после подстановки в него выражения (25):
В классическом анализе Шеннона идет речь лишь о передаче символов по одному информационному каналу от одного источника к одному приемнику. Его интересует прежде всего передача самого сообщения.
В данной статье ставится другая задача: идентифицировать или распознать информационный источник по сообщению от него. Поэтому метод Шеннона был обобщен путем учета в математической модели возможности существования многих источников информации, о которых к приемнику по зашумленному каналу связи приходят не отдельные символы-признаки, а сообщения, состоящие из последовательностей символов (признаков) любой длины.
Следовательно, ставится задача идентификации информационного источника по сообщению от него, полученному приемником по зашумленному каналу. Метод, являющийся обобщением метода К.Шеннона, позволяет применить классическую теорию информации для построения моделей систем распознавания образов и принятия решений, ориентированных на применение для синтеза адаптивных АСУ сложными объектами.
Для решения поставленной задачи необходимо вычислять не средние информационные характеристики, как в теории Шеннона, а количество информации, содержащееся в конкретном i-м признаке (символе) о том, что он пришел от данного j-го источника информации. Это позволит определить и суммарное количество информации в сообщении о каждом информационном источнике, что дает интегральный критерий для идентификации или прогнозирования состояния объекта.
Логично предположить, что среднее количество информации, содержащейся в системе признаков о системе классов
является ничем иным, как усреднением (с учетом условной вероятности наблюдения) "индивидуальных количеств информации", которые содержатся в конкретных признаках о конкретных классах (источниках), т.е.:
Это выражение определяет так называемую "плотность информации", т.е. количество информации, которое содержится в одном отдельно взятом факте наблюдения i-го символа (признака) на приемнике о том, что этот символ (признак) послан j-м источником.
Если в сообщении содержится M символов, то суммарное количество информации о принадлежности данного сообщения j-му информационному источнику (классу) составляет:
Необходимо отметить, что применение сложения в выражении (29) является вполне корректным и оправданным, так как информация с самого начала вводилась как аддитивная величина, для которой операция сложения является корректной.
Преобразуем выражение (29) к виду, более удобному для применения на практике для численных расчетов. Для этого традиционным для теории информации Шеннона способом выразим вероятности встреч признаков через частоты их наблюдения:
Подставив (30) в (29), получим:
Если ранжировать классы в порядке убывания суммарного количества информации о принадлежности к ним, содержащейся в данном сообщении (т.е. описании объекта), и выбирать первый из них, т.е. тот, о котором в сообщении содержится наибольшее количество информации, то мы получим обоснованную статистическую процедуру, основанную на классической теории информации, оптимальность которой доказывается в фундаментальной лемме Неймана-Пирсона [22].
Подставим значения вероятностей из (30) в (28) и получим выражением для плотности информации Шеннона, выраженное не через вероятности, а через частоты наблюдения символов, которые рассматриваются как признаки объектов, т.е. количество информации, содержащееся в отдельном i-м признаке о том, что другом конце канала связи находится j-й объект (32):
Сравнивая выражения (23) и (32) видим, что в системном обобщении формулы Харкевича 1-е слагаемое практически тождественно выражению Шеннона для плотности информации, а 2-е слагаемое представляющем собой плотность информации по Хартли.
Различия состоят в том, что в выражении (23) это слагаемое возведено в степень, имеющую смысл коэффициента эмерджентности Харкевича. Поэтому вполне оправданным называть это слагаемое не коэффициентом эмерджентности Харкевича, а коэффициентом эмерджентности Шеннона-Харкевича. Необходимо отметить также, что значения частот в этих формулах связаны с вероятностями несколько различным образом (выражения 14-16 и 30).
Из этого следует также, что полученное выражение (23) представляет собой нелинейную суперпозицию выражений для плотности информации Шеннона и Хартли, и, таким образом, является обобщающим выражением для плотности информации, которое при различных условиях асимптотически переходит в классические выражения Хартли и Харкевича, а от выражения Шеннона отличается лишь константой, т.е. 2-м слагаемым, характеризующим мощность множества состояний объекта в модели.
Это позволяет нам обоснованно высказать гипотезу о том, что системная теория информации (СТИ), базирующаяся на выражении (23) для плотности информации, является более общей, чем теории Хартли, Шеннона и Харкевича и асимптотически связана с ними через принцип соответствия (рисунок 1).
Рисунок 1 Генезис системной (эмерджентной) теории информации
Взаимосвязь системной меры целесообразности информации со статистикой 2 и новая мера уровня системности предметной области
Статистика 2 представляет собой сумму вероятностей совместного наблюдения признаков и объектов по всей корреляционной матрице или определенным ее подматрицам (т.е. сумму относительных отклонений частот совместного наблюдения признаков и объектов от среднего):
где
Nij - фактическое количество встреч i-го признака у объектов j-го класса;
t - ожидаемое количество встреч i-го признака у объектов j-го класса (34).
Отметим, что статистика 2 математически связана с количеством информации в системе признаков о классе распознавания в соответствии с системным обобщением формулы Харкевича для плотности информации (18):
а именно, из (34) и (35) получаем:
Из (36) очевидно:
Сравнивая выражения (33) и (37), видим, что числитель в выражении (33) под знаком суммы отличается от выражения (37) только тем, что в выражении (37) вместо значений Nij и t взяты их логарифмы. Так как логарифм является монотонно возрастающей функцией аргумента, то введение логарифма не меняет общего характера поведения функции.
Фактически это означает, что:
Из изложенного следует интерпретация системной меры информации (35) с учетом статистики 2 (33): если фактическая вероятность наблюдения i-го признака при предъявлении объекта j-го класса равна ожидаемой (средней), то наблюдение этого признака не несет никакой информации о принадлежности объекта к данному классу. Если она выше средней, то это свидетельствует в пользу того, что предъявлен объект данного класса, если ниже - то другого.
Поэтому наличие статистической связи (информации) между признаками и классами распознавания, т.е. отличие вероятностей их совместных наблюдений от предсказываемого в соответствии со случайным нормальным распределением, приводит к увеличению фактической статистики 2 по сравнению с теоретической величиной.
Из этого следует возможность использования в качестве количественной меры степени выраженности закономерностей в предметной области не матрицы абсолютных частот и меры 2, а новой меры H, основанной на матрице информативностей и системном обобщении формулы Харкевича для количества информации:
Где
- средняя информативность признаков по матрице информативностей.
Меру H в выражении (39) предлагается назвать обобщенным критерием степени сформированности модели Харкевича.
Значение данной меры показывает среднее отличие количества информации в факторах о будущих состояниях активного объекта управления от среднего количества информации в факторе (которое при больших выборках близко к 0). По своей математической форме эта мера сходна с мерами для значимости (интегральной информативности) факторов и степени сформированности образов классов и коррелирует с объемом неортонормированного семантического информационного пространства классов и семантического информационного пространства атрибутов.
Вышеописанная математическая модель обеспечивает инвариантность результатов ее синтеза относительно следующих параметров обучающей выборки: суммарное количество и порядок ввода анкет обучающей выборки; количество анкет обучающей выборки по каждому классу распознавания; суммарное количество признаков во всех анкетах обучающей выборки; суммарное количество признаков по классам распознавания; количество признаков и их порядок в отдельных анкетах обучающей выборки. Это обеспечивает высокую степень качества решения задач распознавания на неполных и разнородных (в вышеперечисленных аспектах) данных как обучающей, так и распознаваемой выборки, т.е. при таких статистических характеристиках потоков этих данных, которые чаще всего и встречается на практике и которыми невозможно или очень сложно управлять.
Получение матрицы знаний (информативностей).
На основе анализа матрицы условных и безусловных вероятностей (таблица 3) наблюдений признаков по классам и всей выборке можно сравнивать признаки друг с другом по их роли для сравнения классов друг с другом и конкретных объектов с обобщенными классами. При этом существует 3 основных группы признаков:
Группа 1-я. Которые в одном классе встречаются, а в других нет. Это детерминистские признаки, обнаружение такого признака у объекта однозначно определяет его принадлежность к соответствующему классу.
Группа 2-я. Которые в одном классе встречаются чаще, чем в других. Это статистические признаки, обнаружение такого признака у объекта несет некоторую информацию о его принадлежности к соответствующему классу.
Группа 3-я. Которые в разных классах встречаются одной и той же вероятностью. Это признаки, обнаружение которых у объекта не несет никакой информации о его принадлежности к тем или иным классам.
Таким образом мы видим, что если используя таблицу 3 анализировать условные вероятности (или процентные распределения) признаков по классам, то можно вынести правдоподобные суждения о принадлежности объектов, обладающих этими признакам к тем или иным классам.
Однако в таком методе сравнения есть по крайней мере два существенных недостатка:
1. Для того, чтобы отнести признак к одной из вышеперечисленных групп необходимо сравнивать вероятности его наблюдения по классам, т.е. каждый раз при таком сравнении выполнять соответствующую необходимую для этого работу.
2. При отнесении признака ко 2-й группе этого самого по себе еще недостаточно для его использования с целью идентификации объекта, а необходимо еще оценить количество информации, которое содержится в факте обнаружения у объекта этого признака о принадлежности этого объекта к каждому из классов, а для этого необходим соответствующий математический и численный метод.
Что касается 1-го недостатка, то о нем можно сказать, что для реальных задач большой размерности выполнение этого сравнения вручную практически невозможно, а значит тем более невозможно и использование результатов этого сравнения для решения задач идентификации, прогнозирования и поддержки принятия решений, а тем более для исследования предметной области путем исследования ее модели. Все это обусловлено тем, что результат сравнения вероятностей встречи признака по классам не представляется при ручной обработке в количественной форме некоторого одного числа: частного критерия, величина и знак которого отражали бы результат такого сравнения.
2-й недостаток преодолевается методом, который предложен А.Харкевичем в выражениях (11) и (12) и уточнен нами в системном обобщении этих выражений (18). В этом методе предложено сравнивать не условные вероятности наблюдения признаков по различным классам друг с другом, а условную вероятность наблюдения признака по классу с безусловной вероятностью его наблюдения по всей выборке.
Это предложение по своей сути полностью соответствует известному статистическому методу отклонений от средних и нормативному подходу, когда в качестве базы сравнения выбирается норма, т.е. среднее по всей группе. На основе этого подхода формируются и критерии сравнения, т.е. можно сказать, что критериальный подход изначально основан на нормативном.
Если такое сравнение провести по всем признакам и классам, то получится матрица, снимающая оба указанных недостатка: используя выражение (18) и данные таблицы 1 непосредственно прямым счетом получаем матрицу знаний (таблица 4):
Таблица 4
Матрица знаний (Информативностей)
Классы |
Значимость фактора |
|||||||
1 |
... |
j |
... |
W |
||||
Значения факторов |
1 |
|
|
|
||||
... |
||||||||
i |
|
|
|
|||||
... |
||||||||
M |
|
|
|
|||||
Степень редукции класса |
1 |
j |
W |
Здесь - это среднее количество знаний в i-м значении фактора:
При расчете матрицы знаний Nj из таблицы 1 могут браться либо из предпоследней, либо из последней строки. В 1-м случае Nj представляет собой "Суммарное количество признаков у всех объектов, использованных для формирования обобщенного образа j-го класса", а во 2-м случае, это "Суммарное количество объектов обучающей выборки, использованных для формирования обобщенного образа j-го класса", соответственно получаем различные, хотя и очень сходные семантические информационные модели, которые мы называем СИМ-1 и СИМ-2. Оба этих вида моделей поддерживаются системой "Эйдос".
Количественные значения коэффициентов Iij таблицы 4 являются знаниями о том, что "объект перейдет в j-е состояние" если "на объект действует i-е значение фактора".
Принципиально важно, что эти весовые коэффициенты не определяются экспертами на основе опыта интуитивным неформализуемым способом, а рассчитываются непосредственно на основе эмпирических данных на основе теоретически обоснованной модели, хорошо зарекомендовавшей себя на практике при решении широкого круга задач в различных предметных областях.
Когда количество информации Iij>0 - i-й фактор способствует переходу объекта управления в j-е состояние, когда Iij<0 - препятствует этому переходу, когда же Iij=0 - никак не влияет на это. В векторе i-го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе объекта управления в каждое из будущих состояний содержится в том факте, что данный фактор действует. В векторе j-го состояния класса (столбец матрицы информативностей) отображается, какое количество информации о переходе объекта управления в соответствующее состояние содержится в каждом из факторов.
Таким образом, матрица информативностей (таблица 4) является обобщенной таблицей решений, в которой входы (факторы) и выходы (будущие состояния объекта управления) связаны друг с другом не с помощью классических (Аристотелевских) импликаций, принимающих только значения: "Истина" и "Ложь", а различными значениями истинности, выраженными в битах и принимающими значения от положительного теоретически-максимально-возможного ("Максимальная степень истинности"), до теоретически неограниченного отрицательного ("Степень ложности").
Фактически предложенная модель позволяет осуществить синтез обобщенных таблиц решений для различных предметных областей непосредственно на основе эмпирических исходных данных и продуцировать на их основе прямые и обратные правдоподобные (нечеткие) логические рассуждения по неклассическим схемам с различными расчетными значениями истинности, являющимся обобщением классических импликаций.
Таким образом данная модель позволяет рассчитать какое количество информации содержится в любом факте о наступлении любого события в любой предметной области, причем для этого не требуется повторности этих фактов и событий. Если же эти повторности осуществляются и при этом наблюдается некоторая вариабельность значений факторов, обуславливающих наступление тех или иных событий, то модель обеспечивает многопараметрическую типизацию, т.е. синтез обобщенных образов классов или категорий наступающих событий с количественной оценкой степени и знака влияния на их наступление различных значений факторов. Причем эти значения факторов могут быть как количественными, так и качественными и измеряться в любых единицах измерения, в любом случае в модели оценивается количество информации которое в них содержится о наступлении событий, переходе объекта управления в определенные состояния или просто о его принадлежности к тем или иным классам.
Данная модель позволяет прогнозировать поведение объекта управления при воздействии на него не только одного, но и целой системы факторов:
В теории принятия решений скалярная функция Ij векторного аргумента называется интегральным критерием. Основная проблема состоит в выборе такого аналитического вида функции интегрального критерия, который обеспечил бы эффективное решение сформулированной выше задачи АСУ.
Учитывая, что частные критерии (18) имеют смысл количества информации, а информация по определению является аддитивной функцией, предлагается ввести интегральный критерий, как аддитивную функцию от частных критериев в виде:
В выражении (41) круглыми скобками обозначено скалярное произведение, т.е. свертка. В координатной форме это выражение имеет вид:
где:
- вектор j-го класса-состояния объекта управления;
- вектор состояния предметной области, включающий все виды факторов, характеризующих объект управления, возможные управляющие воздействия и окружающую среду (массив-локатор), т.е.:
В реализованной модели значения координат вектора состояния предметной области принимались равными либо 1 (фактор действует), либо 0 (фактор не действует).
Таким образом, интегральный критерий представляет собой суммарное количество информации, содержащееся в системе значений факторов различной природы (т.е. факторах, характеризующих объект управления, управляющее воздействие и окружающую среду) о переходе объекта управления в то или иное будущее состояние.
В многокритериальной постановке задача прогнозирования состояния объекта управления, при оказании на него заданного многофакторного управляющего воздействия Ij, сводится к максимизации интегрального критерия:
т.е. к выбору такого состояния объекта управления, для которого интегральный критерий максимален.
Задача принятия решения о выборе наиболее эффективного управляющего воздействия является обратной задачей по отношению к задаче максимизации интегрального критерия (идентификации и прогнозирования), т.е. вместо того, чтобы по набору факторов прогнозировать будущее состояние объекта, наоборот, по заданному (целевому) состоянию объекта определяется такой набор факторов, который с наибольшей эффективностью перевел бы объект управления в это состояние.
Предлагается еще одно обобщение фундаментальной леммы Неймана-Пирсона, основанное на косвенном учете корреляций между информативностями в векторе состояний при использовании средних по векторам. Соответственно, вместо простой суммы количеств информации предлагается использовать корреляцию между векторами состояния и объекта управления, которая количественно измеряет степень сходства этих векторов:
где:
- средняя информативность по вектору класса;
- среднее по вектору идентифицируемой ситуации (объекта).
- среднеквадратичное отклонение информативностей вектора класса;
- среднеквадратичное отклонение по вектору распознаваемого объекта.
Выражение (44) получается непосредственно из (42) после замены координат перемножаемых векторов их стандартизированными значениями:
Необходимо отметить, что выражение для интегрального критерия сходства (42) по своей математической форме является корреляцией двух векторов. Это означает, что если эти вектора являются суммой двух сигналов: полезного и белого шума, то при расчете интегрального критерия белый шум практически не будет играть никакой роли, т.е. его корреляция с самими собой равна нулю по определению. Поэтому интегральный критерий сходства объекта со случным набором признаков с любыми образами классов, или реального объекта с образами классов, сформированными случайным образом, будет равен нулю. Это означает, что выбранный интегральный критерий сходства является высокоэффективным средством подавления белого шума и выделения полезной информации из шума, который неизбежно присутствует в эмпирических данных.
Важно также отметить неметрическую природу предложенного интегрального критерия сходства, благодаря чему его применение является корректным и при неортонормированном семантическом информационном пространстве, каким оно в подавляющем количестве случае и является, т.е. в общем случае.
Подобные документы
Понятие обратной матрицы. Пошаговое определение обратной матрицы: проверка существования квадратной и обратной матрицы, расчет определителя и алгебраического дополнения, получение единичной матрицы. Пример расчета обратной матрицы согласно алгоритма.
презентация [54,8 K], добавлен 21.09.2013Понятие матрицы и ее основные элементы. Пример нахождения ее ранга путем приведения к ступенчатому виду. Описание действий над матрицами. Разбор умножения их на примере. Особенности алгебраического дополнения. Алгоритм определения обратной матрицы.
презентация [617,0 K], добавлен 15.09.2014Понятие, типы и алгебра матриц. Определители квадратной матрицы и их свойства, теоремы Лапласа и аннулирования. Понятие обратной матрицы и ее единственность, алгоритм построения и свойства. Определение единичной матрицы только для квадратных матриц.
реферат [296,6 K], добавлен 12.06.2010Понятие и типы матриц. Определители (детерминанты) квадратной матрицы и их свойства. Алгебраические действия над матрицами. Теоремы Лапласа и аннулирования. Понятие и свойства обратной матрицы, алгоритм ее построения. Единственность обратной матрицы.
курс лекций [336,5 K], добавлен 27.05.2010Общие определения, связанные с понятием матрицы. Действия над матрицами. Определители 2-го и 3-го порядков, порядка n, порядок их вычисления и характерные свойства. Обратные матрицы и их ранг. Понятие и этапы элементарного преобразования матрицы.
лекция [30,2 K], добавлен 14.12.2010Понятие матрицы достижимости и связности. Операция удаления вершины из графа. Алгоритм выделения компонент сильной связности. Разработка и листинг программы на языке Turbo Pascal, осуществляющей вычисление матрицы достижимости по заданному алгоритму.
курсовая работа [584,3 K], добавлен 26.04.2011Понятие матрицы, прямоугольная матрица размера m x n - совокупность mn чисел, расположенных в виде прямоугольной таблицы, содержащей m строк и n столбцов. Численная характеристика квадратной матрицы - ее определитель. Действия над матрицами, ранг матрицы.
реферат [87,2 K], добавлен 01.08.2009Система передачи информации, ее количество и логарифмическая мера. Ансамбль сообщений, виды единиц информации. Свойства количества информации. Энтропия как содержательность и мера неопределенности информации, ее свойства. Понятие избыточности сообщений.
реферат [35,1 K], добавлен 01.08.2009Линейные операции над матрицами. Умножение и вычисление произведения матриц. Приведение матрицы к ступенчатому виду и вычисление ранга матрицы. Вычисление обратной матрицы и определителя матрицы, а также решение систем линейных уравнений методом Гаусса.
учебное пособие [658,4 K], добавлен 26.01.2009Понятие матрицы, ее ранга, минора, использование при действиях с векторами и изучении систем линейных уравнений. Квадратная и прямоугольная матрица. Элементарные преобразования матрицы. Умножение матрицы на число. Класс диагональных матриц, определители.
реферат [102,8 K], добавлен 05.08.2009