К вопросу взаимосвязи комбинаторного, вероятностного и синергетического подходов к определению количества информации

Взаимосвязь комбинаторного, вероятностного и синергетического подходов к определению количества информации. Рассмотрение интегративных кодов элементов дискретных систем. Различные представления об информации приводят к одинаковым формулам ее измерения.

Рубрика Математика
Вид статья
Язык русский
Дата добавления 20.05.2017
Размер файла 953,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Рисунок 9 Выбор элементов из систем A и и подсистемы

Так как , то на основе сказанного третье условие Шеннона может быть представлено в следующем виде.

Если система А, состоящая из N частей, преобразуется без изменения общего числа элементов в систему из двух частей, таких, что одна часть представляет собой подсистему , включающую в себя частей системы А, то средневзвешенная величина системной части интегративного кода элементов системы А должна быть равна взвешенной сумме соответствующих величин системы и подсистемы .

Покажем выполнение этого условия на конкретном примере систем A и и подсистемы , приведенных на рис. 9, в которых отношения числа элементов в частях к общему числу элементов равны вероятностям выборов в примере Шеннона на рис. 8. В самом простом случае такой пример выглядит следующим образом.

Дана система А (рис.9а) с числом элементов , которая по значениям признака разделена на три части с числом элементов , , . Эта система без изменения общего числа элементов преобразуется в систему (рис.9б), состоящую из двух частей и с числом элементов ,

.

При этом часть рассматривается как автономная подсистема (рис.9в). В соответствии с формулой (25) значения средневзвешенных величин системных частей интегративного кода элементов систем A и и подсистемы равны:

(35)

(36)

(37)

Суммируя значения (36) и (37), и применяя к последнему весовой множитель Шеннона из выражения (34), получаем значение (35). То есть, имеем равенство: .

Таким образом, на конкретном примере мы убедились, что средневзвешенная величина системной части интегративного кода элементов дискретной системы удовлетворяет условиям Шеннона, априорно предъявленным к мере информации как снятой неопределенности выбора одной из множества возможностей. Тем самым метафоричность энтропии H по отношению к получает практическое подтверждение.

ЗАКЛЮЧЕНИЕ

В начале 70-х годов прошлого столетия философ Л.А. Петрушенко, характеризуя положение дел в теории информации, писал: «Теория информации в кибернетике напоминает болото, поверх которого заботливыми руками математиков и техников настланы достаточно твердые доски. Ниже, Шенноном и Винером, насыпан плотный слой теорий и постулатов. Еще ниже находится мох догадок. И, наконец, там, совсем глубоко, - трясина гипотез, где все абсолютно шатко и сверкает ледяная вода таких широких обобщений и глубоких абстракций, которые еще не известны современной науке» [30, с.52].

К числу таких ранее не известных «глубоких абстракций» по праву можно отнести впервые рассмотренные в настоящей статье интегративные коды элементов дискретных систем, разделенных на части по значениям какого-либо признака. Анализ этих кодов показал, что в общем случае они формализовано делятся на групповую и системную части, первая из которых характеризует множество элементов с одинаковым значением признака как единое целое, а вторая часть, являясь надстройкой первой, образуется в результате объединения в одну систему различных множеств и по сущности представляет собой системный (эмерджентный) эффект такого объединения. При этом установлено, что через средневзвешенную величину групповой и системной частей интегративного кода в точности выражаются информационные меры комбинаторного, вероятностного и синергетического подходов к определению количества информации. Причем, если меры синергетического подхода выражаются через средневзвешенную величину как групповой, так и системной частей кода, то в мерах комбинаторного и вероятностного подходов фигурирует средневзвешенная величина только системной части.

На основании сказанного в статье сделаны выводы о том, что, во-первых, между указанными подходами к определению количества информации существует интегративно-кодовая взаимосвязь и, во-вторых, что информация в виде сведений о конечном множестве как едином целом, измеряемая в синергетическом подходе, является генетически первичной по отношению к информации как снятой неопределенности выбора одной из множества возможностей, с которой оперируют комбинаторный и вероятностный подходы.

Последний из сделанных выводов позволяет говорить о том, что те «общие» определения информации, которые основаны на таких понятиях, как разнообразие [31, 32], неоднородность [33, 34], запомненный выбор [35, 36], с позиций дискретных систем являются неполными и односторонними. Это следует уже из того факта, что количественная оценка определяемой подобным образом информации опирается на теорию информации в версии Хартли-Шеннона, интегративно-кодовая ограниченность которой показана в настоящей статье.

В статье также впервые дается содержательный ответ на вопрос о том, почему энтропия Шеннона и энтропия отражения, являясь мерами различных видов информации, выражаются одной и той же формулой, полученной к тому же различными путями. Суть данного ответа заключается в том, что обе эти энтропии имеют один и тот же интегративно-кодовый эквивалент в лице средневзвешенной величины системной части интегративного кода элементов дискретной системы, по отношению к которому являются метафорами.

В целом изложенный материал является развитием синергетической теории информации, в которой интегративные коды элементов ранее рассматривались в процессе вывода меры атрибутивной информации конечного множества.

ЛИТЕРАТУРА

1. Хартли Р.В.Л. Передача информации // Сб.: Теория информации и ее приложения. - М.: Физматгиз, 1959. - С. 5-35.

2. Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - 830 с.

3. Колмогоров А.Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. - 1965, т.1, №1 - С. 3-11.

4. Вяткин В.Б. К вопросу информационной оценки признаков при прогнозно-геологических исследованиях // Известия Уральского горного института. Сер.: Геология и геофизика. - 1993, вып. 2. - С. 21-28.

5. Вяткин В.Б. Информационные прогнозно-геологические антиномии // Компьютерное обеспечение работ по созданию государственной геологической карты Российской федерации: Материалы 5-го Всероссийского совещания-семинара МПР РФ по компьютерным технологиям. - Ессентуки, 1998. - С. 116-119.

6. Вяткин В.Б. Теория информации и проблема негэнтропийной оценки признаков // Техногенез и экология: Информационно-тематический сборник - Екатеринбург: УГГГА, 1998 - С. 26 - 36.

7. Вяткин В.Б. Математические модели информационной оценки признаков рудных объектов: Автореф. дис.... канд. техн. наук : 05.13.18 : Екатеринбург: УГТУ-УПИ, 2004. - 27с.

8. Вяткин В.Б. Синергетическая теория информации: общая характеристика и примеры использования. // Наука и оборонный комплекс - основные ресурсы российской модернизации. Материалы межрегиональной научно-практической конференции. - Екатеринбург: УрО РАН, 2002. - С. 361-390.

9. Вяткин В.Б. Синергетическая теория информации. Часть 1. Синергетический подход к определению количества информации // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2008. - №44(10). С. 166-189. Режим доступа: http://ej.kubagro.ru/2008/10/pdf/12.pdf

10. Вяткин В.Б. Синергетический подход к определению количества информации // Информационные технологии. - 2009, № 12. - С. 68-73.

11. Вяткин В.Б. Введение в синергетическую теорию информации // Информационные технологии. - 2010, № 12. - С. 67-73.

12. Вяткин В.Б. Синергетическая теория информации. Часть 2. Отражение дискретных систем в плоскости признаков их описания // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №45(1). С. 154-183. Режим доступа: http://ej.kubagro.ru/2009/01/pdf/12.pdf

13. Колмогоров А.Н. Теория информации и теория алгоритмов. - М.: Наука, 1987. - 304с.

14. Мартин Н., Инглед Дж. Математическая теория энтропии. - М.: Мир, 1988. - 350с.

15. Советский энциклопедический словарь / Гл. ред. А.М. Прохоров. - М.: Сов. энциклопедия, 1989. - 1632с.

16. Вентцель Е.С. Теория вероятностей. - М.: Наука, 1969. - 576с.

17. Добрушин Р.Л. Теория информации (комментарии) / В кн: Колмогоров А.Н. Теория информации и теория алгоритмов. - М.: Наука, 1987. - с. 254-257.

18. Хакен Г. Синергетика. - М.: Мир, 1980. - 404с.

19. Pfaundler M., von Seht L. Weiteres uber Syntropie kindlicher Krankheitzustande // Zeitschr. f. Kinderheilk. - 1921, bd. 30. - S. 298-313.

20. Fantappiи L. Principi di una teoria unitaria del mondo fisico e biologico. - Rome: Accademia d'Italia, 1942.

21. Вяткин В.Б. Синергетическая теория информации: пояснения и терминологические замечания // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2012. - №06(080). С. 557 - 592. Режим доступа: http://ej.kubagro.ru/2012/06/pdf/46.pdf

22. Вяткин В.Б. Информационно-квантовые характеристики и отраженные образы конечных множеств // Информационные технологии. - № 7, 2012. - С. 50-56.

23. Вяткин В.Б. Хаос и порядок дискретных систем в свете синергетической теории информации // Политематический сетевой электронный научный журнал Кубанского государственного аграрного университета (Научный журнал КубГАУ) [Электронный ресурс]. - Краснодар: КубГАУ, 2009. - №03(47). С. 96 - 129. - Режим доступа: http://ej.kubagro.ru/2009/03/pdf/08.pdf

24. Вяткин В.Б. Основное уравнение синергетической теории информации и его интерпретация // Вычислительный интеллект (результаты, проблемы, перспективы): Материалы 2-й Международной научно-технической конференции. - Черкассы: Маклаут, 2013. - С. 345-346.

25. Колмогоров А.Н. К логическим основам теории информации и теории вероятностей // Проблемы передачи информации. - 1969, т. 5, № 3. - С. 3-7.

26. Луценко Е.В. Автоматизированный системно-когнитивный анализ в управлении активными объектами (системная теория информации и ее применение в исследовании экономических, социально-психологических, технологических и организационно-технических систем). Монография (научное издание). - Краснодар: КубГАУ. 2002. - 605с.

27. Орлов А.И., Луценко Е.В. Системная нечеткая интервальная математика. Монография (научное издание). - Краснодар, КубГАУ. 2014. - 600 с.

28. Яглом А.М., Яглом И.М. Вероятность и информация. - М.: Наука, 1973. - 512с.

29. Соколов А.В. Информация как метафора // Труды Санкт-Петербургского государственного университета культуры и искусств. - Том 200, 2013. - с.416-424

30. Петрушенко Л.А. Самодвижение материи в свете кибернетики. - М.: Наука, 1971. - 290с.

31. Эшби У.Р. Введение в кибернетику. - М.: Изд. иностр. лит., 1959. -

32. 432 с.

33. Урсул А.Д. Природа информации. - М.: Политиздат, 1968. - 288 с.

34. Глушков В.М. Мышление и кибернетика // Вопросы философии. - № 1, 1963. - С. 36-48.

35. Гуревич И.М. Информация как универсальная неоднородность // Информационные технологии. - № 4, 2010. - С. 66-74.

36. Кастлер Г. Возникновение биологической организации. - М.: Мир, 1967. - 91с.

37. Чернавский Д.С. Синергетика и информация: Динамическая теория информации. - М.: Либриком, 2013. - 304с.

Literatura

1. Hartli R.V.L. Peredacha informacii // Sb.: Teoriya informacii i ee prilozheniya. - M.: Fizmatgiz, 1959. - S. 5-35.

2. Shennon K. Raboty po teorii informacii i kibernetike. - M.: Izd. inostr. lit., 1963. - 830 s.

3. Kolmogorov A.N. Tri podhoda k opredeleniyu ponyatiya «kolichestvo informacii» // Problemy peredachi informacii. - 1965, t.1, №1 - S. 3-11.

4. Vyatkin V.B. K voprosu informacionnoj ocenki priznakov pri prognozno-geologicheskih issledovaniyah // Izvestiya Ural'skogo gornogo instituta. Ser.: Geologiya i geofizika. - 1993, vyp. 2. - S. 21-28.

5. Vyatkin V.B. Informacionnye prognozno-geologicheskie antinomii // Komp'yuternoe obespechenie rabot po sozdaniyu gosudarstvennoj geologicheskoj karty Rossijskoj federacii: Materialy 5-go Vserossijskogo soveshchaniya-seminara MPR RF po komp'yuternym tekhnologiyam. - Essentuki, 1998. - S. 116-119.

6. Vyatkin V.B. Teoriya informacii i problema negehntropijnoj ocenki priznakov // Tekhnogenez i ehkologiya: Informacionno-tematicheskij sbornik - Ekaterinburg: UGGGA, 1998 - S. 26 - 36.

7. Vyatkin V.B. Matematicheskie modeli informacionnoj ocenki priznakov rudnyh ob"ektov: Avtoref. dis.... kand. tekhn. nauk : 05.13.18 : Ekaterinburg: UGTU-UPI, 2004. - 27s.

8. Vyatkin V.B. Sinergeticheskaya teoriya informacii: obshchaya harakteristika i primery ispol'zovaniya. // Nauka i oboronnyj kompleks - osnovnye resursy rossijskoj modernizacii. Materialy mezhregional'noj nauchno-prakticheskoj konferencii. - Ekaterinburg: UrO RAN, 2002. - S. 361-390.

9. Vyatkin V.B. Sinergeticheskaya teoriya informacii. CHast' 1. Sinergeticheskij podhod k opredeleniyu kolichestva informacii // Politematicheskij setevoj ehlektronnyj nauchnyj zhurnal Kubanskogo gosudarstvennogo agrarnogo universiteta (Nauchnyj zhurnal KubGAU) [EHlektronnyj resurs]. - Krasnodar: KubGAU, 2008. - №44(10). S. 166-189. Rezhim dostupa: http://ej.kubagro.ru/2008/10/pdf/12.pdf

10. Vyatkin V.B. Sinergeticheskij podhod k opredeleniyu kolichestva informacii // Informacionnye tekhnologii. - 2009, № 12. - S. 68-73.

11. Vyatkin V.B. Vvedenie v sinergeticheskuyu teoriyu informacii // Informacionnye tekhnologii. - 2010, № 12. - S. 67-73.

12. Vyatkin V.B. Sinergeticheskaya teoriya informacii. CHast' 2. Otrazhenie diskretnyh sistem v ploskosti priznakov ih opisaniya // Politematicheskij setevoj ehlektronnyj nauchnyj zhurnal Kubanskogo gosudarstvennogo agrarnogo universiteta (Nauchnyj zhurnal KubGAU) [EHlektronnyj resurs]. - Krasnodar: KubGAU, 2009. - №45(1). S. 154-183. Rezhim dostupa: http://ej.kubagro.ru/2009/01/pdf/12.pdf

13. Kolmogorov A.N. Teoriya informacii i teoriya algoritmov. - M.: Nauka, 1987. - 304s.

14. Martin N., Ingled Dzh. Matematicheskaya teoriya ehntropii. - M.: Mir, 1988. - 350s.

15. Sovetskij ehnciklopedicheskij slovar' / Gl. red. A.M. Prohorov. - M.: Sov. ehnciklopediya, 1989. - 1632s.

16. Ventcel' E.S. Teoriya veroyatnostej. - M.: Nauka, 1969. - 576s.

17. Dobrushin R.L. Teoriya informacii (kommentarii) / V kn: Kolmogorov A.N. Teoriya informacii i teoriya algoritmov. - M.: Nauka, 1987. - s. 254-257.

18. Haken G. Sinergetika. - M.: Mir, 1980. - 404s.

19. Pfaundler M., von Seht L. Weiteres uber Syntropie kindlicher Krankheitzustande // Zeitschr. f. Kinderheilk. - 1921, bd. 30. - S. 298-313.

20. Fantappiи L. Principi di una teoria unitaria del mondo fisico e biologico. - Rome: Accademia d'Italia, 1942.

21. Vyatkin V.B. Sinergeticheskaya teoriya informacii: poyasneniya i terminologicheskie zamechaniya // Politematicheskij setevoj ehlektronnyj nauchnyj zhurnal Kubanskogo gosudarstvennogo agrarnogo universiteta (Nauchnyj zhurnal KubGAU) [EHlektronnyj resurs]. - Krasnodar: KubGAU, 2012. - №06(080). S. 557 - 592. Rezhim dostupa: http://ej.kubagro.ru/2012/06/pdf/46.pdf

22. Vyatkin V.B. Informacionno-kvantovye harakteristiki i otrazhennye obrazy konechnyh mnozhestv // Informacionnye tekhnologii. - № 7, 2012. - S. 50-56.

23. Vyatkin V.B. Haos i poryadok diskretnyh sistem v svete sinergeticheskoj teorii informacii // Politematicheskij setevoj ehlektronnyj nauchnyj zhurnal Kubanskogo gosudarstvennogo agrarnogo universiteta (Nauchnyj zhurnal KubGAU) [EHlektronnyj resurs]. - Krasnodar: KubGAU, 2009. - №03(47). S. 96 - 129. - Rezhim dostupa: http://ej.kubagro.ru/2009/03/pdf/08.pdf

24. Vyatkin V.B. Osnovnoe uravnenie sinergeticheskoj teorii informacii i ego interpretaciya // Vychislitel'nyj intellekt (rezul'taty, problemy, perspektivy): Materialy 2-j Mezhdunarodnoj nauchno-tekhnicheskoj konferencii. - CHerkassy: Maklaut, 2013. - S. 345-346.

25. Kolmogorov A.N. K logicheskim osnovam teorii informacii i teorii veroyatnostej // Problemy peredachi informacii. - 1969, t. 5, № 3. - S. 3-7.

26. Lucenko E.V. Avtomatizirovannyj sistemno-kognitivnyj analiz v upravlenii aktivnymi ob"ektami (sistemnaya teoriya informacii i ee primenenie v issledovanii ehkonomicheskih, social'no-psihologicheskih, tekhnologicheskih i organizacionno-tekhnicheskih sistem). Monografiya (nauchnoe izdanie). - Krasnodar: KubGAU. 2002. - 605s.

27. Orlov A.I., Lucenko E.V. Sistemnaya nechetkaya interval'naya matematika. Monografiya (nauchnoe izdanie). - Krasnodar, KubGAU. 2014. - 600 s.

28. Yaglom A.M., Yaglom I.M. Veroyatnost' i informaciya. - M.: Nauka, 1973. - 512s.

29. Sokolov A.V. Informaciya kak metafora // Trudy Sankt-Peterburgskogo gosudarstvennogo universiteta kul'tury i iskusstv. - Tom 200, 2013. - s.416-424.

30. Petrushenko L.A. Samodvizhenie materii v svete kibernetiki. - M.: Nauka, 1971. - 290s.

31. EHshbi U.R. Vvedenie v kibernetiku. - M.: Izd. inostr. lit., 1959. - 432 s.

32. Ursul A.D. Priroda informacii. - M.: Politizdat, 1968. - 288 s.

33. Glushkov V.M. Myshlenie i kibernetika // Voprosy filosofii. - № 1, 1963. - S. 36-48.

34. Gurevich I.M. Informaciya kak universal'naya neodnorodnost' // Informacionnye tekhnologii. - №4, 2010. - S. 66-74.

35. Kastler G. Vozniknovenie biologicheskoj organizacii. - M.: Mir, 1967. - 91s.

36. Chernavskij D.S. Sinergetika i informaciya: Dinamicheskaya teoriya informacii. - M.: Librikom, 2013. - 304s.

Размещено на Аllbеst.ru


Подобные документы

  • Система передачи информации, ее количество и логарифмическая мера. Ансамбль сообщений, виды единиц информации. Свойства количества информации. Энтропия как содержательность и мера неопределенности информации, ее свойства. Понятие избыточности сообщений.

    реферат [35,1 K], добавлен 01.08.2009

  • Рассмотрение различных примеров комбинаторных задач в математике. Описание способов перебора возможных вариантов. Использование комбинаторного правила умножения. Составление дерева вариантов. Перестановки, сочетания, размещения как простейшие комбинации.

    презентация [291,3 K], добавлен 17.10.2015

  • Измерения физических величин, их классификация и оценка истинного значения; обработка результатов. Понятие доверительного интервала: распределение Гаусса и Стьюдента. Понятие случайной величины и вероятностного распределения; методы расчета погрешностей.

    методичка [459,2 K], добавлен 18.12.2014

  • Определение понятий множества и факториала. Условия равности двух кортежей. Содержание основных разделов комбинаторики - перечислительного, экстремального и вероятностного. Сущность теории Рамсея. Сведения о размещении, перестановке и сочетании элементов.

    реферат [509,5 K], добавлен 21.02.2012

  • Динамическая модель как теоретическая конструкция, описывающая изменение состояний объекта. Характеристика основных подходов к построению: оптимизационный, описательный. Рассмотрение способов построения математических моделей дискретных объектов.

    контрольная работа [769,7 K], добавлен 31.01.2013

  • Исследование методики математической обработки многократно усеченной информации. Особенности графического изображения опытной информации. Определение среднего значения показателя надежности, абсолютной характеристики рассеивания и коэффициента вариации.

    курсовая работа [116,1 K], добавлен 16.01.2014

  • Исторический обзор формирования тригонометрии как науки от древности до наших дней. Введение понятия тригонометрических функций на уроках алгебры и начал анализа по учебникам А.Г. Мордковича, М.И. Башмакова. Решения линейных дифференциальных уравнений.

    дипломная работа [2,6 M], добавлен 02.07.2011

  • История развития систем счисления. Непозиционная, позиционная и десятичная система счисления. Использование систем счисления в компьютерной технике и информационных технологиях. Двоичное кодирование информации в компьютере. Построение двоичных кодов.

    курсовая работа [5,3 M], добавлен 21.06.2010

  • Построение статистического ряда исходной информации. Определение среднего значения показателя надежности и среднеквадратического отклонения. Проверка информации на выпадающие точки. Определение доверительных границ при законе распределения Вейбулла.

    контрольная работа [65,7 K], добавлен 31.01.2014

  • Исторический обзор формирование тригонометрии как науки. Различные способы введения понятия тригонометрических функций. Анализ школьных учебников М.И. Башмакова и А.Г. Мордковича по данной тематике. Перспективы использования материала для преподавания.

    дипломная работа [2,7 M], добавлен 02.07.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.