Синергетическая теория информации

Квантовые аспекты информации, отражаемой конечными множествами элементов. Бит отражения и его информационная емкость. Оценка информативности признаков и информационные границы их существования. Особенности взаимного отражения системы и части (множества).

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 28.04.2017
Размер файла 190,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Синергетическая теория информации

Вяткин Виктор Борисович

к.т.н.

Екатеринбург, Россия

С позиций синергетической теории информации рассматриваются квантовые аспекты информации, отражаемой конечными множествами элементов. При этом вводятся в рассмотрение такие понятия, как кванты информации и кванты отражения, биты отражения и их квантовая емкость, отраженные образы множеств и информационные границы их существования.

Ключевые слова: КВАНТ, ОТРАЖЕНИЕ, ОБРАЗ, КОНЕЧНОЕ МНОЖЕСТВО, КОЛИЧЕСТВО ИНФОРМАЦИИ, НЕГЭНТРОПИЯ, СИСТЕМА

Введение

Ранее [1-3], на страницах настоящего журнала была представлена синергетическая теория информации, в которой за информацию принимаются сведения о конечном множестве, как едином целом. При этом, независимо от традиционных подходов к определению количества информации [4-6], были получены формула информации , самоотражаемой произвольным конечным множеством А, и формула негэнтропии отражения , то есть количества информации, которую отражают (воспроизводят) друг о друге, как о целостном образовании, два пересекающихся множества А и В:

(1)

(2)

где ; - количество элементов в составе множеств .

В настоящей статье, на основе формул (1) и (2) рассматриваются квантовые аспекты синергетической информации, и проводится соответствующий анализ особенностей отражения друг через друга двух пересекающихся конечных множеств.

Кванты информации

При последовательном увеличении числа элементов конечного множества на единицу, множество пробегает соответствующий ряд состояний, в каждом из которых количество самоотражаемой им информации по отношению к предыдущему состоянию, в соответствии с выражением (1), увеличивается на некоторую величину. Так как количество элементов конечного множества может принимать только целочисленные значения, то это увеличение происходит отдельными порциями или квантами. То есть информация, самоотражаемая множеством А, при увеличении числа его элементов от

до

где - любое целое число, возрастает на квант информации , равный:

(3)

На основе выражения (3) кванту информации можно дать следующее определение: квант информации - это приращение информации, самоотражаемой конечным множеством, обусловленное увеличением числа элементов множества на единицу.

Из формулы (3) видно, что квант информации является переменной величиной, которая монотонно убывает с ростом числа элементов множества. При этом, в силу того, что , первый квант информации появляется при увеличении числа элементов множества от одного до двух. Отсюда следует, что информация , самоотражаемая конечным множеством А с числом элементов , может быть представлена в виде суммы из квантов информации различной величины:

(4)

При этом отметим, что выражение (4) равносильно формуле самоотражаемой информации (1), в чем легко убедиться, представив произведение под знаком логарифма в данном выражении в развернутом виде:

Средняя величина квантов самоотражаемой информации соответственно равна:

(5)

Элементы множества принимают участие в его отражении всей своей совокупностью без какого-либо индивидуального выделения [1] и, соответственно, вклад каждого элемента в самоотражаемую множеством информацию, в общем случае, не может быть оценен с помощью того или иного кванта информации. Строго говоря, для такой оценки не может использоваться и средняя величина информационных квантов (5), так как количество последних на единицу меньше, чем общее число элементов множества и, соответственно, относя эту среднюю величину к каждому элементу множества, при обратном суммировании результатов мы всегда будем получать завышенное значение самоотражаемой информации. Поэтому вклад каждого элемента в самоотражаемую множеством информацию будем оценивать с помощью удельной информации, которую назовем квантом отражения (q). То есть квант отражения множества , состоящего из элементов, равен:

(6)

В соответствии с формулой (6) дадим кванту отражения следующее определение: квант отражения - это часть информации, самоотражаемой конечным множеством, которая приходится на каждый его элемент.

Из сравнения выражений (5) и (6) следует, что при квант отражения по своей величине становится практически неотличимым от среднего значения квантов информации и при увеличении числа элементов асимптотически приближается к нему снизу, что иллюстрирует рис.1.

Рисунок 1. Зависимость и от

Из приведенного рисунка видно, что кванты отражения при имеют максимальное значение (), после которого с ростом числа элементов множества монотонно убывают. Это объясняется тем, что выражение (6) представляет собой сужение функции , , , на множество натуральных чисел при , а число 3 является наиболее близким натуральным числом к точке экстремума данной функции

Квантовые функции (3) - (6) совместно с самоотражаемой информацией (1) дают вполне исчерпывающее информационно-количественное описание отдельно взятого конечного множества одинаковых по некоторому признаку элементов, для стандартизации которого необходимо определиться с тем, что следует считать единицей измерения информации в проводимых информационно-синергетических исследованиях.

квантовый информационный емкость множество

Биты отражения

В традиционных логарифмических мерах информации (комбинаторной и вероятностной) основание логарифмов является произвольным, что допускает использование различных единиц измерения информации (двоичных, десятичных, натуральных и т.п.). Наибольшей популярностью, в силу технического удобства, пользуются логарифмы с основанием два, а получаемые при этом двоичные единицы традиционно именуются битами. То есть, . Так как в комбинаторном и вероятностном подходах информация атрибутивно связана с процедурами выбора [4-6], то содержательно бит обычно интерпретируется как количество информации, получаемой при выборе одной из двух равновероятных возможностей.

В синергетических мерах информации (1) и (2), в свою очередь, основание логарифмов может быть равно только двум [1] и, соответственно, единицей измерения может также служить бит. При этом одному биту соответствует равенство , которое выполняется при .

Вместе с тем, поскольку в синергетическом подходе к количественному определению информации, в отличие от вероятностного и комбинаторного подходов, рассматривается иной (не связанный с выбором) вид информации [1,2], то бит здесь должен иметь и иную содержательную интерпретацию. Поэтому, чтобы отличать друг от друга численно равные количества различных видов информации, будем называть единицу измерения в синергетической теории информации битом отражения, который определим следующим образом: бит отражения - это количество информации, которую отражает о самом себе как едином целом множество из двух элементов. Рассматривая эту единицу измерения информации с квантовых позиций (3), можно также сказать, что бит отражения равен максимальному кванту информации, который образуется при увеличении числа элементов множества от одного до двух.

На основе сказанного бит отражения может быть представлен в следующем виде:

(7)

Из сравнения выражений (6) и (7) следует, что бит отражения является более крупной информационной величиной, чем квант отражения. При этом, если бит отражения всегда равен единице, то величина кванта отражения изменяется в зависимости от числа элементов отражаемого множества. Это позволяет при рассмотрении отражения конкретных множеств характеризовать биты отражения со стороны их квантовой емкости (С), под которой будем понимать количество квантов отражения, соответствующих одному биту. То есть, квантовая емкость одного бита отражения множества с числом элементов равна Следует отметить, что квантовая емкость (8) имеет такую же математическую форму, что и коэффициент эмерджентности Хартли (при ), предложенный в системной теории информации Е.В. Луценко [7] для оценики уровеня системности объектов, состоящих из конечного множества элементов. Это может свидетельствовать о взаимосвязи синергетической и системной теорий информации, анализ которой выходит за рамки настоящей статьи.:

(8)

Из выражения (8) также следует, что квантовая емкость увеличивается с ростом числа элементов и показывает, сколько элементов множества приходится на один бит его отражения. Это открывает путь для непосредственной оценки числа элементов одного множества, отраженного через пересекающееся с ним другое множество.

Отраженные образы множеств

При рассмотрении отражения друг через друга двух пересекающихся конечных множеств A и B (рис.2) перед нами неизбежно встает вопрос о том, в каком виде воспроизводится при этом каждое из множеств. Иначе говоря, нас интересуют отраженные образы множества А через множество В и множества В через множество А .

Рисунок 2. Модель отражения конечных множеств А и В друг через друга

Собственно о множествах A и B, помимо того, что они выделены по некоторым отличительным признакам и , нам известно только то, что количество элементов в их составе равно и . Поэтому поставленный вопрос сводится к задаче определения числа элементов и в составе образов и , соответственно.

Предварительно отметим, что количество элементов в составе каждого из множеств A и B может быть оценено уже с помощью негэнтропии отражения :

(9)

Условие в выражении (9) обусловлено тем, что поскольку , то из формулы (2) следует, что при любом число элементов в составе множеств A и B не может быть меньше двух. Но независимо от данного условия величина не может быть принята за количество элементов в составе отраженных образов и . В качестве причины этого укажем следующее. Во-первых, одному и тому же значению негэнтропии отражения могут соответствовать различные совокупности значений и (даже при постоянстве ), и логично потребовать, чтобы каждая такая совокупность формировала свои отраженные образы и . Во-вторых, в квантовом отношении значения негэнтропии в общем случае неравноценны по отношению к каждому из множеств A и B, что должно также учитываться при определении и .

В соответствии со сказанным естественным решением задачи определения и выглядит произведение квантовой емкости битов отражения на величину негэнтропии отражения. Действительно, квантовая емкость (8) показывает, сколько элементов отражаемого множества приходится на один бит его отражения, а негэнтропия отражения (2) выражает количество этих битов, воспроизведенное через отражающее множество. В соответствии с этим количество элементов в отраженных образах и равно (с округлением до ближнего меньшего целого):

(10)

(11)

Негэнтропийная оценка (9) показывает нижний порог возможных значений числа элементов в составе множеств А и В и, соответственно, число элементов (10) и (11) в отраженных образах данных множеств должно быть не ниже этого порога. Иначе говоря, должны выполняться неравенства:

(12)

Докажем, что эти неравенства действительно выполняются, для чего, на примере , подставим его значение из (10) в (12) и прологарифмируем полученное выражение. В результате этой операции получаем:

Делая необходимые перестановки, приходим к неравенству:

Так как , то последнее неравенство при является очевидным, что доказывает справедливость неравенств (12).

Проведем теперь сравнение отраженных образов и , которое может быть осуществлено с двух сторон: со стороны соотношения образов по числу элементов и со стороны их соответствия исходным множествам А и В. В первом случае, вследствие того, что квантовые емкости и увеличиваются по мере роста числа элементов и , из выражений (10) и (11) следует, что из отраженных образов двух пересекающихся конечных множеств, превосходство по числу элементов имеет образ того множества, у которого большее число элементов. Во втором случае, принимая за меру соответствия образа оригиналу отношение числа его элементов к числу элементов исходного множества, мы приходим к тому, что эта мера равна относительной негэнтропии отражения , характеризующей полноту отражения одного множества через пересекающееся с ним другое множество:

(13)

(14)

Так как и тем больше, чем больше, соответственно, и , то из выражений (13) и (14) следует вывод о том, что при отражении друг через друга двух пересекающихся конечных множеств более адекватный отраженный образ имеет то множество, которое состоит из меньшего числа элементов.

Естественно считать, что отражение пересекающихся множеств А и В, как их воспроизведение друг через друга, существует только тогда, когда их отраженные образы и не являются пустыми множествами, то есть, когда , . В том случае, когда отраженный образ того или иного множества включает в себя только один элемент, негэнтропия отражения , как это следует из (10) и (11), равна соответствующему кванту отражения исходного множества: и .

Сказанное означает, что условием наличия отражения множеств А и В друг через друга являются неравенства и , из чего следует, что отражение каждого из пересекающихся множеств имеет свою информационную (негэнтропийнуй) границу в виде равенства негэнтропии отражения соответствующему кванту отражения. Это приводит нас к выводу о том, что, если величина негэнтропии отражения меньше кванта отражения какого-либо из множеств A и B, то по отношению к этому множеству ее значение представляет собой информационный шум. Образно выражаясь, при выполнении неравенств и множества А и В как бы «ощущают» друг друга, но силы (информации) этого «ощущения» недостаточно для того, чтобы воспроизвести их непустые образы.

Особенности взаимного отражения системы и части

Материал предыдущего раздела относится к наиболее общему случаю пересечения множеств А и В, когда , , . Вместе с тем, в практической деятельности, мы весьма часто имеем дело с ситуацией, когда, например, множество А рассматривается как автономная дискретная система, а множество В выступает в качестве ее части или подсистемы, то есть, когда . Поэтому остановимся на соответствующих моментах.

Прежде всего, отметим, что в данном случае , в силу чего негэнтропия отражения (2) приобретает вид:

(15)

Соответственно, количество элементов в отраженных образах системы А и ее части В согласно (10) и (11) равно:

(16)

Относительная негэнтропия отражения системы и части друг через друга, в свою очередь, равна:

(17)

На основании (16) и (17) ранее сделанные заключения, о соотношении отраженных образов множеств по числу элементов и соответствию их оригиналам, по отношению к системе и части предстают перед нами в следующем виде: образ системы, отраженный через ее часть, содержит большее число элементов, чем образ части, отраженный через систему; и полнота отражения части системой больше, чем полнота отражения системы частью.

Величина негэнтропии отражения системы и части (15), в отличие от общего случая пересечения множеств (2), зависит только от значений и . Вследствие этого, информационным границам отражения системы и части соответствуют строго определенные соотношения и , которые, согласно (6) и (15), имеют вид:

(18)

Наглядное представление о соотношениях (18) дает рис. 3, где приведены графики зависимости , , от при фиксированном .

Рисунок 3. Зависимость от при

Из рисунка видно, что проекции информационных границ отражения и на горизонтальную ось делят область возможных значений на три интервала, каждый из которых, по отношению к отраженным образам и , обладает качественным своеобразием:

(19)

В содержательном плане из выражения (19) следует, что увеличение системы А за счет элементов, обладающих только признаком , сопровождается тем, что часть В, выделенная по признаку , воспроизводит непустой образ системы несоизмеримо дольше, чем система образ части. При этом, уже при переходе числа элементов системы через границу , признак становится для системы в информационном отношении несущественным явлением. Вместе с тем, является очевидным, что эта несущественность признака не имеет отношения к системам с малым числом элементов (подобно тому, как не имеет смысла говорить о выполнении второго начала термодинамики в случае небольших совокупностей молекул идеального газа или, например, судить о законе распределения случайной величины по небольшому числу ее наблюденных значений).

Помимо изложенного, в информационных взаимоотношениях системы и части (множества и подмножества) обращает на себя внимание тот факт, что отношение , фигурирующее в выражениях (15) - (17), при достаточно большом может рассматриваться как вероятность встречи признака среди элементов множества А. В то же время, это отношение, с одной стороны (17), представляет собой относительную негэнтропию отражения части через систему, а с другой стороны (16), равно отношению числа элементов отраженного образа части к числу элементов самой части. То есть:

(20)

Выражение (20) свидетельствует о глубокой взаимосвязи негэнтропии отражения и отраженных образов конечных множеств с вероятностью случайных событий. Вместе с тем детальное рассмотрение этой взаимосвязи выходит за рамки настоящей статьи и является предметом отдельных исследований.

Заключение

В статье рассмотрены квантовые аспекты информации, отражаемой конечными множествами элементов. При этом введены в оборот такие понятия, как квант информации и квант отражения, бит отражения и его информационная емкость, которым даны формализованные определения. Также решена задача оценки количества элементов в отраженных образах пересекающихся конечных множеств и установлены информационные границы существования этих образов. Последнее может использоваться на практике, например, при решении задач распознавания образов (оценка информативности признаков по адекватности воспроизведения ими эталонных множеств объектов распознавания и минимизация признакового пространства с помощью информационных границ отражения).

В целом изложенный материал является развитием синергетической теории информации и расширяет общие представления о количественной стороне феномена информации.

Литература

1. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №44(10).

2. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных систем в плоскости признаков их описания // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1).

3. Вяткин В.Б. Синергетическая теория информации. Часть 3. Информационные функции и энтропия Больцмана // Научный журнал КубГАУ [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №46(2).

4. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. - 1965, т.1, №1 - С. 3-11.

5. Хартли Р.В.Л. Передача информации // Сб.: Теория информации и ее приложения. - М.: Физматгиз, 1959. - С. 5-35.

6. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830с.

7. Луценко Е.В. Автоматизированный системно-когнитивный анализ в управлении активными объектами (системная теория информации и ее применение в исследовании экономических, социально-психологических, технологических и организационно-технических систем): Монография (научное издание). - Краснодар: КубГАУ. 2002. - 605 с.

Размещено на Allbest.ur


Подобные документы

  • Теория множества, основные операции над множествами, мощность множества. Теорема о сравнении множеств. Размер множества в Turbo Pascal, предельно допустимое количество элементов и их порядок. Выполнение действий объединения, исключения и пересечения.

    курсовая работа [376,6 K], добавлен 31.01.2016

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Бит, неопределенность, количество информации и энтропия. Формула Шеннона. Формула Хартли. Логарифмы. Количество информации, получаемой в процессе сообщения. Взаимодействие источника и приемника информации. Количество, информационная емкость ячеек памяти.

    реферат [579,6 K], добавлен 17.07.2008

  • Информация и информационные процессы в природе, обществе, технике. Информационная деятельность человека. Кодирование информации. Способы кодирования. Кодирование изображений. Информация в кибернетике. Свойства информации. Измерение количества информации.

    реферат [21,4 K], добавлен 18.11.2008

  • Влияние вида деятельности предприятия на организацию комплексной системы защиты информации. Состав защищаемой информации. Потенциальные каналы несанкционированного доступа к информации организации. Эффективность системы информационной безопасности.

    отчет по практике [1,3 M], добавлен 31.10.2013

  • Элементы автоматизированной системы обработки экономической информации. Информационная модель программного решения задачи "Учет сбыта и реализации готовой продукции", структура и описание реквизитов входных и выходных документов, справочной информации.

    курсовая работа [55,6 K], добавлен 30.10.2011

  • Информационные системы и технологии в экономике: основные понятия и определения. Составляющие информационных технологий, их классификация. Особенности систем ведения картотек, обработки текстовой информации, машинной графики, электронной почты и связи.

    реферат [14,7 K], добавлен 06.10.2011

  • Понятие информации и ее свойства. Классификация экономической информации, ключевые понятия, определяющие ее структуру. Примеры использования информационных технологий в бизнесе. Экономические информационные системы, их классификация и структура.

    шпаргалка [26,5 K], добавлен 22.08.2009

  • Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

    реферат [41,4 K], добавлен 08.08.2009

  • Задачи и постулаты прикладной теории информации. Разновидности помехоустойчивых кодов. Кодирование информации для канала с помехами. Энтропия при непрерывном сообщении. Количественная оценка информации. Условная и взаимная энтропия и ее свойства.

    курс лекций [3,2 M], добавлен 28.04.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.