Теория информации

Разница между информацией и энтропией. Системы, которые соответствуют эргодической теории. Построение хода Хэмминга для передачи 4-х разрядной информационной комбинации, процесс обнаружения ошибки. Возможности предсказания поведения вероятностных систем.

Рубрика Математика
Вид контрольная работа
Язык русский
Дата добавления 23.12.2023
Размер файла 76,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Содержание

1. Какая разница между информацией и энтропией? Покажите это на примере формул Шеннона для информации и второго закона термодинамики для энтропии

2. В каких единицах определяется количество информации и ее объем? Определите количество информации и ее объем в любом выбранном вами четверостишии. Каким кодом наиболее просто передать эту информацию?

3. Построить ход Хэмминга для передачи 4-х разрядной информационной комбинации 0101. Показать процесс обнаружения ошибки

1. Какая разница между информацией и энтропией? Покажите это на примере формул Шеннона для информации и второго закона термодинамики для энтропии

Попытки найти возможность для выделения количества информации были еще в 20-х гг.

Фишер - в 1924 г. предложил формулу:

(1)

N - число возможных сообщений (событий), которое должно соответствовать количеству информации, содержащейся в этих сообщениях.

m - число равновероятных событий из N-возможных событий, которые произошли в данном опыте.

n - длина слова или число символов сообщений о каком-то событии m.

n=1 N=m

Xm {a,a…a} a - событие

Рассмотрим случай, когда мы имеем одинаковые и равновероятные события.

При выборе одного события:

m=1, N=1, N0

Формула Фишера не справедлива для случая, когда мы имеем выбор одного из одинаковых равновероятных событий.

Поэтому Хартли в 1928 г. предложил другую формулу:

(2)

Математика совпадает с логикой, мы получили 0 информации при выборе одного из одинаковых и равновероятных событий.

К. Шеннон - «Информация появляется в результате снятия неопределенностей. При этом, чем меньше вероятность появления того или иного события, тем больше информации несет сообщение о появлении этого события».

(3)

ni/N - вероятность

i=(1,2,3…k)

Р. Эшби - «Количество информации в системе или комплексе событий, тем больше, чем больше разнообразия содержится в этой системе».

В.М. Глушков - «В природе информация существует потому, что имеется неравномерность распределения энергии и вещества в системе».

(4)

Исходя из этой формулы Шеннон дал определение единицы количества информации:

Бит (bit - (bi)nary digi(t)) - получается при однократном выборе одного из двух равновероятных событий.

(5)

Число единиц информации в сообщении в битах равно числу разрядов или знаков двоичного числа, которым может быть передана информация.

С помощью формулы Шеннона мы можем определить длину слова или количество символов во вторичном алфавите, которое необходимо для передачи любого символа первичного алфавита.

(6)

m1 - количество символов первичного алфавита (количество разнообразных событий)

m2 - количество символов вторичного алфавита, при помощи которых мы кодируем символы первичного алфавита.

Пример № 1

m1=32, (0,1) m2=2

m1=m2n 32=2n n=5

(7)

IA=log2m1=log232=5 бит

IA=mlog2m2=5log22=5 бит

(8) - количество энтропии

Рассмотрим случай с разновероятностными событиями:

N=(N1+N2+…+Nk)

f1,f2,…fk - частота появления

P1,P2,…Pk(Pi) - вероятность появления

Теория информации рассматривает возможности предсказания поведения вероятностных систем, то есть возможность предсказания поведения того или иного вероятностного события. Для многих случайных процессов предсказуемость их поведения может быть установлена математически. Это базируется на эргодической теории, (ergoc лат - следовательно) которая говорит, что:

имеется определенная вероятность (предсказанная) появления какого-либо события в случайном процессе, которая инвариантна по отношению к начальным условиям существования этой вероятностной системы и к определенным видам преобразования этой системы.

В технике мы рассматриваем системы, которые соответствуют эргодической теории. Это стационарные случайные процессы и стохастические случайные процессы.

В стационарных случайных процессах дисперсия и среднее квадратичное отклонение постоянны.

В стохастических случайных процессах которые являются менее предсказуемыми, мы можем из общего числа каких-либо событий, имеющих определенный интервал появления или частоту появления, определить частоту появления того или иного события, которое является пределом максимальной частоты появления событий в данной группе.

Инвариантна - т.е. независима.

«Математика, подобна жерновам мельницы, она перемелет все, что угодно, но инженеру нужно смотреть на то, что он туда засыпал».

Поведение вероятностных систем определяется двумя факторами: структурой этой системы и влиянием случайных возмущений на поведение данной системы, внешних и внутренних.

Шеннон дал общую формулу для определения количества информации, содержащейся в сообщении о появлении одного из разновероятностных событий.

Допустим событие с вероятностью Р имеет Ii=Pilog2Pi это сообщение встречается Ni раз Ini=NiP1log2Pi

Рассмотрим всю группу событий и определим для нее количество информации:

(9) - общая формула Шеннона для определения количества информации.

По этой же формуле мы определяем энтропию, содержащуюся в любой системе.

При Ni=const, N1=N2=Nk получим:

(10)

(11)

Формула Хартли является частным случаем формулы Шеннона. В формуле Шеннона для разновероятностных событий заложено доказательство того, что информация это не энтропия.

(12)

- формула Больцмана для энтропии в термодинамике (13)

n1=x1+x; n2=x2+x.

- формула Шеннона для информации (14)

Следовательно, математическое выражение энтропии в термодинамике и количество информации одинаковы и отличаются только знаком.

2. В каких единицах определяется количество информации и ее объем? Определите количество информации и ее объем в любом выбранном вами четверостишии. Каким кодом наиболее просто передать эту информацию?

Общее число неповторяемых сообщений из алфавита m1, соответствует комбинированию символов вторичного алфавита по n символов в каждом сообщении.

(1)

Неопределенность, приходящаяся на символ первичного алфавита из m1 равновероятных символов, когда они взаимозависимы.

(2)

(3)

I1=log2m1 бит/симв

I2=lgm1 дит/симв

I3=lnm1 нат/симв

log2m1=3.32lgm1; 1 бит0.3 дит.

log2m1=1.443lnm1; 1 бит0.695 нат.

(4)

Если энтропия - мера неопределенности, заложенная в каком-либо алфавите, то информация - мера снятия неопределенности при появлении какого-либо сообщения о выборе одного из символов алфавита.

Количество информации - произведение общего числа сообщений (К) на среднюю энтропию (Н), приходящуюся на одно сообщение. I=KH

Объем информации отличается от количества информации:

(5)

(6)

Это произведение количества переданных символов на среднюю длину кода для неравномерных кодов (6).

Количество символов в коде вторичного алфавита (5).

Количество информации определяется относительно символов первичного алфавита, объем - относительно вторичного.

Если H=Hmax, то Hmax>HQ=IQ>I, то есть коды имеют избыточность.

3. Построить ход Хэмминга для передачи 4-х разрядной информационной комбинации 0101. Показать процесс обнаружения ошибки

Согласно первой таблице, наименьшая длина всей кодовой комбинации будет равна n=7; nk=3.

Так как в семизначной кодовой комбинации 3 контрольных символа добавляется, мы их расставляем по номерам контрольной позиции - 1,2,4 и составляем макет кода.

К1 К2 0 К3 1 0 1

Согласно табл. № 3 составим позиции кодовой комбинации путем сложения значений 0 или 1 для проверки комбинации.

N позиции

Макет кода

Код

1

К1

0

2

К2

1

3

0

0

4

К3

0

5

1

1

6

0

0

7

1

1

П1 П3 П5 П71 0 1 1; К1=0

П2 П3 П6 П72 0 0 1; К2=1

П4 П5 П6 П73 1 0 1; К3=0

Предположим, что в канале связи из-за помех в кодовой комбинации была принята следующая комбинация:

0 1 0 0 1 0 1

0 1 0 0 1 1 1

Правило обнаружения ошибки в коде Хемминга.

Проводим по каждой контрольной комбинации проверку на четность, подставляя значения из полученного ошибочного сообщения.

П1 П3 П5 П7=0 0 1 1 - четная.

Определяем значение 1-го разряда номера ошибочной позиции, в младший разряд пишем 0.

П2 П3 П6 П7=1 0 1 1 - нечетная.

В следующий разряд пишем 1.

П4 П5 П6 П7=0 1 1 1 - нечетная.

В следующий разряд - 1.

Согласно таблице № 4 - 110 соответствует в позиции а6=110.

Правильная посылка: 0100101.

Для обнаружения двойной ошибки применяется дополнительная проверка с помощью проверки на четность всей строки с применением добавочного контрольного символа.

При проверке на четность мы обнаруживаем ошибки, а проверка на определение номера позиции укажет эти ошибочные позиции.

Если проверка по номеру позиции указывает на ошибку, а проверка на четность всей строки ее не указывает, значит в посылке допущено две ошибки.

информация энтропия вероятностный эргодический

Размещено на Allbest.ru


Подобные документы

  • Основные понятия, которые касаются центральной предельной теоремы для независимых одинаково распределенных случайных величин и проверки статистических гипотез. Анализ сходимости последовательностей случайных величин и вероятностных распределений.

    курсовая работа [582,0 K], добавлен 13.11.2012

  • Принципы решения задач по основным разделам теории вероятностей: случайные события и их допустимость, непроизвольные величины, распределения и числовые характеристики градировки, основные предельные теоремы для сумм независимых вероятностных величин.

    контрольная работа [129,1 K], добавлен 03.12.2010

  • Общая характеристика сходимости последовательностей случайных величин и вероятностных распределений. Значение метода характеристических функций в теории вероятностей. Методика решения задач о типах сходимости. Анализ теоремы Ляпунова и Линдеберга.

    курсовая работа [2,6 M], добавлен 22.07.2011

  • Свойства дискретного преобразования Фурье, представленные в виде математических формул, которые наиболее адекватно соответствуют цифровой технике обработки информации. Алгоритм быстрого преобразования Фурье (БПФ), его значение для программирования.

    учебное пособие [223,6 K], добавлен 11.02.2014

  • Теория полуколец находит своё применение в теории автоматов, компьютерной алгебре и других разделах математики. Построение классического полукольца частных. Построение полного полукольца частных. Связь между полным и классическим полукольцами частных.

    реферат [227,2 K], добавлен 27.05.2008

  • Однородный Марковский процесс. Построение графа состояний системы. Вероятность выхода из строя и восстановления элемента. Система дифференциальных уравнений Колмогорова. Обратное преобразование Лапласа. Определение среднего времени жизни системы.

    контрольная работа [71,2 K], добавлен 08.09.2010

  • Некоторые математические вопросы теории обслуживания сложных систем. Организация обслуживания при ограниченной информации о надёжности системы. Алгоритмы безотказной работы системы и нахождение времени плановой предупредительной профилактики систем.

    реферат [1,4 M], добавлен 19.06.2008

  • Теория графов как раздел дискретной математики, исследующий свойства конечных множеств с заданными отношениями между их элементами. Основные понятия теории графов. Матрицы смежности и инцидентности и их практическое применение при анализе решений.

    реферат [368,2 K], добавлен 13.06.2011

  • Диаграмма рассеивания как точки на плоскости, координаты которых соответствуют значениям случайных величин X и Y, порядок ее построения и назначение. Нахождение коэффициентов и построение графика линейного приближения, графика квадратичного приближения.

    курсовая работа [1,1 M], добавлен 03.05.2011

  • Сущность теории динамических систем и роль связи структуры системы с её динамикой. Конечные динамические системы и сокращение мономиальных систем. Проблема изучения Булевых мономиальных систем и линейных систем над конечными коммутативными кольцами.

    курсовая работа [428,2 K], добавлен 08.12.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.