Теория и практика информации и кодирования
Условная энтропия и энтропия объединения. Построение каналов матрицы и определение частиц условной энтропии, их особенности и характеристика. Вычисление информационных потерь при передаче сообщений по каналам связи с шумами, особенности и сущность.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | контрольная работа |
Язык | русский |
Дата добавления | 05.03.2009 |
Размер файла | 101,4 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
- 2 -
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ УКРАИНЫ
Севастопольский национальный технический университет
Кафедра технической кибернетики
Контрольная работа
по дисциплине:
«Теория информации и кодирования»
Выполнил:
ст. гр. А-31з
Брусинов Сервер Энверович
Проверил:
доцент кафедры:
Мирянов Вячеслав Иванович
Севастополь 2006
ТЕМА 1. КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ.
Задача 6
Определить объём и количество информации в принятом тексте:
«Товарищ, верь: взойдёт она,
Звезда пленительного счастья,
Россия вспрянет ото сна…»
Решение
Число принятых символов, включая пробел,
k=80
Объём информации
Q=klср =80*7=560 бит.
Количество информации для:
· равновероятностного алфавита:
H1=log2 m=log 32=5 бит/символ,
I1=kH1 =80*5=400 бит;
· неравновероятностного алфавита:
Н2= бит/символ
I2=kH2=80*4.36?348,8 бит.
ТЕМА 2. УСЛОВНАЯ ЭНТРОПИЯ И ЭНТРОПИЯ ОБЪЕДИЕНИЯ
Задача 1
В результате статистических испытаний канала связи № 1 со стороны источника сообщений были получены следующие условные вероятности: 0,9; 0,1; 0; 0,1; 0,8; 0,1; 0;0,1; 0,9.
При испытании канала связи № 2 со стороны приёмника сообщений получины условные вероятности: 0,9; 0,08; 0; 0,1; 0,8; 0,08; 0;0,12; 0,92.
Построить соответствующие канальные матрицы и определить частные условные энтропии относительно сигнала а2 (со стороны источника сообщений) и сигнала b3( со стороны приёмника).
Решение
Построим канальную матрицу со стороны источника сообщений:
B A |
b1 |
b2 |
… |
bj |
… |
bm |
|
a1 |
…, |
…, |
|||||
a2 |
…, |
…, |
|||||
… |
………...… |
………...… |
………...… |
………...… |
………...… |
………...… |
|
ai |
…, |
…, |
|||||
… |
………...… |
………...… |
…, |
………...… |
…, |
………...… |
|
am |
…, |
…, |
Подставим значения:
Построим канальную матрицу со стороны приёмника сообщений:
В А |
b1 |
b2 |
… |
bj |
… |
bm |
|
a1 |
…, |
…, |
|||||
a2 |
…, |
…, |
|||||
… |
………...… |
………...… |
………...… |
………...… |
………...… |
………...… |
|
ai |
…, |
…, |
|||||
… |
………...… |
………...… |
…, |
…, |
………...… |
||
am |
…, |
…, |
Подставим значения:
Найдём частные условные энтропии относительно:
· сигнала а2 (со стороны источника сообщений)
· сигнала b3( со стороны приёмника).
ТЕМА 3. ВЫЧИСЛЕНИЕ ИНФОРМАЦИОННЫХ ПОТЕРЬ ПРИ ПЕРЕДАЧЕ СООБЩЕНИЙ ПО КАНАЛАМ СВЯЗИ С ШУМАМИ
Задача 3
Можно ли назвать полным информационное описание канала связи, предоставленного матрицей вида ?
Решение
Для полного и всестороннего описания канала связи необходимо задать: канальную матрицу вида и безусловные вероятности вида или канальную матрицу вида и безусловные вероятности вида , или канальную матрицу вида . В последнем случае сумма значений матрицы по столбцам дает безусловные
вероятности вида , а сумма по строкам даёт безусловные вероятности вида . Условные вероятности могут быть найдены из выражений:
.
Зная условные и безусловные вероятности, можно найти H(A),H(B),H(A/B) и H(B/A).
Если уровень помех настолько высок, что с равной вероятностью можно ожидать переход любого символа источника сообщения в произвольный символ первичного алфавита, то энтропия канала связи будет равна , а количество информации I=H(A)-, при этом значении I может быть отрицательной величиной, что означает, что канал связи вносит дезинформацию.
Задача8
Канал связи описан матрицей:
.
Определить полные информационные потери при передаче N символов по данному каналу связи.
Решение
Безусловные вероятности источника и приёмника определяем как сумму цифр соответственно по строкам и столбцам заданной матрицы:
p(a1)=0.24, p(a2)=0.34, p(a3)=0.38, p(a4)=0.12
p(b1)=0.13, p(b2)=0.29, p(b3)=0.41, p(b4)=0.25,
Найдём энтропию источника сообщений:
Найдём энтропию приёмника:
Совместная энтропия источника и приёмника:
Найдём информационные потери:
,где k=N=>
ТЕМА 3. ВЫЧИСЛЕНИЕ ИНФОРМАЦИОННЫХ ПОТЕРЬ ПРИ ПЕРЕДАЧЕ СООБЩЕНИЙ ПО КАНАЛАМ СВЯЗИ С ШУМАМИ
Задача8
Чему равна пропускная способность канала связи, описанного следующей матрицей:
?
Решение
Найдём безусловные вероятности источника и приёмника:
p(a1)=0.2, p(a2)=0.3, p(a3)=0.5,
p(b1)=0.4, p(b2)=0.3, p(b3)=0.3;
Находим условные вероятности видов p(A/B) и p(B/A) и строим соответствующие матрицы условных вероятностей:
Найдём энтропию источника сообщений:
Найдём энтропию приёмника:
Условные энтропии:
Пропускная способность:
ТЕМА 5. ОПРЕДЕЛЕНИЕ ИЗБЫТОЧНОСТИ СООБЩЕНИЙ. ОПТИМАЛЬНОЕ КОДИРОВАНИЕ.
Задача 15
Первичный алфавит имеет следующие вероятности появления букв в текстах: A1=0,02; A2=0,5; A3=0,03; A4=0,15; A5=0,04; A6=0,12; A7=0,04; A8=0,1. Построить ОНК методом Шеннона - Фано и методом Хаффмана. Сравнить Эффективность полученных кодов.
Решение
№1Строим ОНК методом Шеннона-Фано.
А |
Вероятность |
Число знаков в кодовом слове |
pili |
||||||
A2 |
0.5 |
0 |
1 |
0.5 |
|||||
A4 |
0.15 |
1 |
0 |
0 |
3 |
0.45 |
|||
A6 |
0.12 |
1 |
3 |
0.36 |
|||||
A8 |
0.1 |
1 |
0 |
3 |
0.3 |
||||
A7 |
0.04 |
1 |
0 |
0 |
5 |
0.2 |
|||
A5 |
0.04 |
1 |
5 |
0.2 |
|||||
A3 |
0.03 |
1 |
0 |
5 |
0.15 |
||||
A1 |
0.02 |
1 |
5 |
0.1 |
Определим среднюю длину кода(lср), энтропию (H) и коэффициент относительной эффективности (Kо.э):
№2 Строим ОНК методом Хаффмана:
- 2 -
А |
Вероятность |
код |
Число знаков в кодовом слове |
pili |
|
A2 |
0.5 |
1 |
1 |
0.5 |
|
A4 |
0.15 |
001 |
3 |
0.45 |
|
A6 |
0.12 |
011 |
3 |
0.36 |
|
A8 |
0.1 |
010 |
3 |
0.3 |
|
A7 |
0.04 |
00011 |
5 |
0.2 |
|
A5 |
0.04 |
00010 |
5 |
0.2 |
|
A3 |
0.03 |
00001 |
5 |
0.15 |
|
A1 |
0.02 |
00000 |
5 |
0.1 |
Определим среднюю длину кода(lср) и коэффициент относительной эффективности (Kо.э):
3) Сравним эти два метода; методы будут равноэффективными, если выполнится условие: .
и рассчитаны в предыдущем пункте. Таким образом, проверяем условие: 2.2458<2.26=2.26. Условие выполняется. Метод Хаффмана и метод Шеннона - Фано равноэффективные; кроме того, и коэффициенты относительной эффективности в обоих методах равны т.е. коды равноэффективны.
ТЕМА 6. ОБНАРУЖЕНИЕ И ИСПРАВЛЕНИЕ ОШИБОК В СООБЩЕНИЯХ
Задача 4
1. Чему равно кодовое расстояние между комбинацией 10010111 и комбинациями 11111111, 00000000, 00010111?
Решение
Для того чтобы определить кодовое расстояние между двумя комбинациями двоичного кода, достаточно просуммировать эти комбинации по модулю 2 и посчитать число единиц в полученной комбинации.
Задача 16
Построить порождающую матрицу группового кода для . Учесть условие максимальной простоты декодера.
Решение
Так как число информационных разрядов кода , то число строк порождающей матрицы С должно быть равно 11.
Число столбцов матрицы С равно длине кода n:
n=nИ+nК ,
где nk - число корректирующих разрядов; d0 =3;
,
тогда n=11+4=15
Минимальная простота дешифратора достигается при минимальном количестве сумматоров по модулю 2 в декодере, что возможно при минимальном весе комбинаций проверочной матрицы П; вес каждой комбинации проверочной матрицы П: WП ? d0 - 1; WП ?2; выбираем четырёхзначные двоичные комбинации весом W=2, 3, 4, и используем те комбинации, в которых содержится меньшее число единиц, а именно: 0011; 0101; 0110; 1001; 1010; 1100; 0111; 1011; 1101; 1110; 1111.Искомая матрица имеет вид:
ТЕМА 7. ОБНАРУЖЕНИЕ И ИСПРАВЛЕНИЕ ОШИБОК ПРИ ПЕРЕДАЧЕ И МЕХАНИЗИРОВАННОЙ ОБРАБОТКЕ ИНФОРМАЦИИ НА СТАНДАРТНОЙ АППАРАТУРЕ С ПРИМЕНЕНИЕМ СТАНДАРТНЫХ НОСИТЕЛЕЙ.
Задача 1
Какие из приведенных ниже кодовые комбинации содержат ошибку, если известно, что они передавались стандартным телеграфным кодом №3: 0101010; 1101001; 1011100; 1000110; 1110100?
Решение
Необходимым условием отсутствия ошибки, в стандартном телеграфным коде №3, является соблюдение соотношения 3:4(три единицы и четыре нуля).
Задача 6
Построить кодовые комбинации для цифр: 16, 18, 20, 21, 22 таким образом, чтобы в них был предусмотрен контроль по модулю 7.
Решение
Контроль по модулю заключается в том, что для обнаружения ошибок используется признак делимости, а в качестве проверочных разрядов к кодовой комбинации дописывается разрешенный остаток от деления.
В качестве делителя следует использовать простые числа 2, 3, 5, 7, 11, 13, … . Запись соответствия числа заданному условию по признаку делимости имеет вид
(модуль М).
Читается эта запись так: число А сравнимо с числом К по модулю М[1]
Подставим наши значения:
Передаваемые цифровые коды будут иметь вид соответственно:
162; 184; 206; 210;221.
Задача 7
Модуль, на который должна без остатка делиться сумма цифр в принятом сообщении, равен 10. Используя метод контроля по сумме, определить, какие из приведенных ниже кодов содержат ошибки: 24510; 32195; 27435; 53724; 57350.
Решение
№ |
Принятое сообщение |
Информационная часть |
Сумма |
Проверочный разряд |
||
какой должен быть |
какой есть |
|||||
1 |
24510 |
2451 |
2+4+5+1=12 |
8 |
0 |
|
2 |
32195 |
3219 |
3+2+1+9=15 |
5 |
5 |
|
3 |
27435 |
2743 |
2+7+4+3=16 |
4 |
5 |
|
4 |
53724 |
5372 |
5+3+7+2=17 |
3 |
4 |
|
5 |
57350 |
5735 |
5+7+3+5=20 |
0 |
0 |
Соответственно, ошибка присутствует в 1, 2, 3 кодах.
ТЕМА 8. СЖАТИЕ ИНФОРМАЦИИ
Задача 6
Восстановить исходный массив чисел по следующему ниже сжатому массиву:
2 4 6 8 1 3 5 7
7 2
1
Решение
Сжатый массив:
2 4 6 8 1 3 5 7
7 2
1
Промежуточный этап
развёртывания массива:
Исходный массив:
1. Задача 7
Сжать приведенный ниже массив, используя знак раздела и знак конца строки К:
6 3 1 8 1 2 7
6 3 1 8 1 8 6
2 1 1 8 1 2 4
3 1 1 8 1 2 9
4 1 1 8 1 2 9
4 1 1 8 1 2 9
5 1 1 8 1 2 9
Решение
Исходный массив:
Сжатый массив:
Подобные документы
Определение энтропии и количества информации в сообщениях. Определение энтропии сложного сообщения, вырабатываемого двумя зависимыми источниками. Экономное кодированиее информации в системах цифрового спутникового телевидения и Internet, сотовой связи.
реферат [34,9 K], добавлен 11.02.2009- Количественное определение информации. Энтропия и производительность дискретного источника сообщений
Определение количества информации, содержащейся в каждом из символов источника при их независимом выборе. Двоичная единица информации. Информационные характеристики дискретного источника. Зависимость энтропии при равновероятном распределении вероятностей.
контрольная работа [480,4 K], добавлен 05.11.2013 Ограниченный динамический диапазон источников сообщений и конечная разрешающая способность получателей информации – людей и исполнительных механизмов. Равномерное и неравномерное квантование сообщений. Искажения при квантовании. Потеря информации.
реферат [37,3 K], добавлен 10.02.2009Структурная схема одноканальной системы передачи дискретных сообщений. Выбор оптимального типа кодирования. Код Хаффмана. Минимальная длина кодовой комбинации равномерного кода. Энтропия источника сообщений. Расчет информационной скорости на выходе.
курсовая работа [110,9 K], добавлен 08.11.2012Системы передачи дискретной информации – системы, в которых реализации сообщений являют собой последовательности символов алфавита источника. Информационные характеристики непрерывных сообщений. Дифференциальная энтропия источника непрерывных сообщений.
реферат [166,3 K], добавлен 01.02.2009Разработка модели системы передачи дискретных сообщений. Принципы кодирования источника при передаче информации. Расчёт вероятностей двоичных символов; энтропии и избыточности кода. Импульсная и комплексно-частотная характеристика согласованного фильтра.
курсовая работа [293,3 K], добавлен 27.03.2016Стратегии управления ошибками при передаче информации по каналам связи: эхо-контроль и автоматический запрос на повторение. Анализ зависимости величины эффективности использования канала связи от его пропускной способности и длины передаваемых пакетов.
курсовая работа [467,3 K], добавлен 20.11.2010Методы повышения верности при передаче дискретных сообщений по каналам с различными помехами. Основные и дополнительные функции современного модема для передачи данных по каналам телефонной связи. Схема каналообразующей аппаратуры.
контрольная работа [1,8 M], добавлен 26.01.2007Классическое шифрование передачи криптографического ключа. Протоколы квантовой криптографии, их сущность и содержание. Анализ возможности передачи конфиденциальной информации по квантовым каналам связи. Способы исправления ошибок при передаче информации.
курсовая работа [394,3 K], добавлен 08.05.2015Функции основных блоков структурной схемы системы передачи дискретных сообщений. Определение скорости передачи информации по разным каналам. Принципы действия устройств синхронизации, особенности кодирования. Классификация систем с обратной связью.
курсовая работа [478,7 K], добавлен 13.02.2012