О разложении конечного бернуллиевского источника многозначных последовательностей

Метод оптимального кодирования на основе разложения бернуллиевского вероятностного источника, генерирующего сообщения конечной длины, на два взаимосвязанных, в сумме обладающих энтропией исходного; возможность разработки универсального оптимального кода.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 26.10.2010
Размер файла 31,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

О РАЗЛОЖЕНИИ КОНЕЧНОГО БЕРНУЛЛИЕВСКОГО

ИСТОЧНИКА МНОГОЗНАЧНЫХ ПОСЛЕДОВАТЕЛЬНОСТЕЙ

А.А. Борисенко, проф.

Одной из важнейших задач в теории информации, существовавшей в прошлом и оставшейся актуальной и сегодня, является задача сжатия сообщений. На ее решение направлены значительные усилия. Количество методов и алгоритмов по теории и практике сжатия растет со все возрастающей быстротой. К задачам сжатия относятся сейчас не только задачи уменьшения длины передаваемых или хранимых сообщений, а и задачи построения оптимальных вопросников, поиска кратчайшего пути на графе, определения сложности комбинаторных объектов.

Основное место в теории сжатия занимает задача оптимального кодирования источников сообщений. Они делятся на два класса - комбинаторные и вероятностные. Вероятностные источники в отличие от комбинаторных должны иметь хотя бы два сообщения, отличающиеся друг от друга неравными нулю величинами своих вероятностей. Если при этом вероятности генерируемых знаков в сообщениях источника не зависят от значений предыдущих знаков, то такой источник называется бернуллиевским [1]. Этот источник сравнительно грубо моделирует реальные процессы генерирования информации, но в силу своей эффективности и простоты довольно широко распространен на практике.

В данной работе предлагается метод оптимального кодирования, использующий в своей основе разложение бернуллиевского вероятностного источника, генерирующего сообщения конечной длины, на два взаимосвязанных, в сумме обладающих энтропией исходного источника. При этом один из этих источников, являющийся основным, преобразуется в комбинаторный, а другой остается вероятностным, но генерирует сообщения отличные от исходных. Это приводит, во-первых, к значительному уменьшению общего числа слагаемых в выражениях для энтропии источников и, значит, к уменьшению вычислительных сложностей их определения и, во-вторых, к возможности разработки универсального оптимального кода с равномерными кодовыми комбинациями. Универсальность такого кода проявляется в том, что генерируемые им равномерные коды являются оптимальными для любого распределения вероятностей сообщений, что позволяет производить одну и ту же процедуру оптимального кодирования для различных вероятностей исходных сообщений.

Рассмотрим обычный конечный стационарный вероятностный бернуллиевский источник, для которого дан алфавит букв сообщений

А=а1, а2,..., аi,..., ак,

генерируемых источником А, с вероятностями соответственно

(a1),(a2),...,(ai),...,(ak),

образующими последовательности (слова)

L= (l1, l2,..., ln), lA, =1,2,..., n.

Для такого источника вероятность любой буквы li в последовательности Lj не зависит от ее местоположения и предшествующих ей букв и не изменяется в течение неопределенно долгого времени.

Энтропия источника А*

H(А*)=log2Pj, (1)

где Pj - вероятность генерирования источником А* последовательности Lj букв ai A, j=1,2,...,kn.

Каждая последовательность Lj содержит в определенном порядке r1 букв а1, r2 - букв а2 и т.д. до rk букв ak. При этом

.

Вероятность ее генерирования

Pj = r1(a1) r2(a2) ... ri(ai) ... rk(ak). (2)

Для бернуллииевского источника число последовательностей Lj с вероятностью Pj будет ровно столько, сколько перестановок с повторениями можно получить из r1, r2, ..., r k букв:

П(r 1, r 2, ... , r k) = , (3)

r 1 0, r 2 0,..., r i 0,..., r k 0; r 1+ r 2+ ... + r k = n.

При этом выбор признака множества слов, задаваемого значениями r1,

r 2,..., r k , будет происходить с вероятностью

r1,r2,..., r k = Рj П(r1,r2,...,r k)= . (4)

Выбор слова Lj уже с этого множества будет происходить с вероятностью

Рj r1,r2,...,r k = .(5)

Теорема. Энтропия H(А*) вероятностного стационарного бернуллиевского источника А* равна сумме энтропий вероятностного бернуллиевского источника В:

Н(В)= log2 r1,r2,...,r k ,(6)

ri 0

генерирующего последовательности чисел r1, r2,..., rk, и энтропии комбинаторного источника А:

Н(А В)= log2 П(r1,r2,...,rk), (7)

т.е. требуется доказать, что

H(А*) = Н(А В)+Н(В) . (8)

Доказательство. Если источник А* выдал слово длиной n, то путем элементарного подсчета легко определяются числа r1, r2,..., r k , содержащихся в нем букв a1, a2,..., aк и соответственно с помощью формул (2,4) вычисляется его энтропия Н(В).

Энтропия источника А, при условии, что от источника В получены значения чисел r1, r2,..., r k букв в генерируемом источником А* слове, равна

Н(А В)= ??Hj r1,r2,...,r k , (9)

ri 0

где

Hj r1,r2,...,r k = ? r1,r2,...,rk log2 Рj r1,r2,...,r k- (10)

энтропия слов Lj, входящих во множество, состоящее из слов, содержащих r1, r2,..., r k букв a1, a2,..., aк .

В соответствии с (5)

Hj r1,r2,...,r k =? х

х = log2 П(r1,r2,...,rk).

Тогда

Н(А В)= ?log2 П(r1,r2,...,r k) . (11)

ri 0

Энтропия объединения

H(А,В) = Н(А В)+Н(В) =

= ?log2 П(r1,r2,...,r k) ?

ri 0

?log2 r1,r2,...,r k =

ri 0

= ?log2 Рj .

ri 0

Так как каждому значению r1,r2,...,rk соответствует П(r1,r2,...,r k) вероятностей Рj источника А*, то

Н(А В)+Н(В)= log2 Рj = H(А*). Теорема доказана

Следствием теоремы является предлагаемый ниже метод оптимального кодирования сообщений равномерными кодами. Его первым шагом является выделение с источника А* источника В.

Процедура построения источника В состоит в подсчете значений r1,r2,...,r k в генерируемых источником А* последовательностях букв L. Тем самым определяется класс эквивалентности, к которому относится та или иная генерируемая последовательность Li, и формируется источник А. Этот класс содержит П(r1,r2,...,rk) последовательностей L, и поэтому полученный источник А генерирует последовательности с вероятностями равными 1/ П(r1,r2,...,r k).

Вторым шагом рассматриваемого метода будет оптимальное кодирование равномерных сообщений источника В одинаковой длины любым известным методом, например, одним из методов нумерационного кодирования [2].

Третий шаг содержит оптимальное кодирование вероятностного источника В одним из известных алгоритмов оптимального неравномерного кодирования [3], для чего нужно определить вероятности r1,r2,...,rk векторов (r1,r2,...,r k).

Четвертый шаг состоит в формировании результирующего сжатого отображения, генерируемой источником А последовательности, что производится путем объединения последовательностей букв от источника А и В в одну последовательность.

В случае К=2 П(r1, r2,..., rk) = П(r1, r2) =.

Это значит, что рассматриваемый метод является обобщением соответствующего метода для сжатия двоичных последовательностей [4].

Особенностью предлагаемого метода оптимального кодирования сообщений путем разложения исходного источника А* на взаимозависимые А и В является то, что влияние источника В с увеличением длины кодируемых сообщений снижается и теоретически при n им можно пренебречь. Тогда эффективность сжатия (оптимального кодирования) будет определяться только эффективностью кодирования источника А, которая при соответствующем распределении вероятностей r1,r2,...,rk может достигать больших значений.

Из этого можно сделать вывод о целесообразности использования предложенного метода сжатия для сообщений большой длины, например, для задач обработки видеоизображений.

SUMMARY

The method of optimum coding of discrete sources of information by means of source decomposition into two mutually complemental ones, one of which determines the letters” number in sequenses, generated by the basic source,and the other one determines the coded messages, which take into account these numbers , is suggested.

Such decomposition gives an opportunity to present one probability source by two sources, one of which is compound , and accordingly to apply a structural methods of information compression for even codes.

СПИСОК ЛИТЕРАТУРЫ

Кричевский Р.Е. Сжатие и поиск информации. -М.: Радио и связь, 1989.- 268 с.

Амелькин В.А. Методы нумерационного кодирования.- Новосибирск: Наука, 1986.- 158 с.

Кузмин И.В., Кедрус В.А. - К.: Вища шк., 1986.- 238 с.

Борисенко А.А. О разложении бернуллиевских источников информации // Вiсник Сумського державного університету.- 1995.-№3. - С. 57-59.


Подобные документы

  • Общее число неповторяющихся сообщений. Вычисление скорости передачи информации и пропускной способности каналов связи. Определение избыточности сообщений и оптимальное кодирование. Процедура построения оптимального кода по методике Шеннона-Фано.

    курсовая работа [59,4 K], добавлен 17.04.2009

  • Методы арифметического кодирования. Основные функции программ, реализующие алгоритмы кодирования по методам Хаффмана, Голомба, Фибоначчи и Элиаса. Разработка программно-аппаратных средств оптимального арифметического кодирования и их экономический расчет.

    дипломная работа [1,1 M], добавлен 26.05.2012

  • Определение оптимального плана выпуска продукции частного предприятия по изготовлению мебели с применением метода линейного программирования (симплекс-метод). Построение схемы движения информации в подсистеме оптимального плана выпуска продукции.

    лабораторная работа [301,5 K], добавлен 08.06.2009

  • Определение понятий кода, кодирования и декодирования, виды, правила и задачи кодирования. Применение теорем Шеннона в теории связи. Классификация, параметры и построение помехоустойчивых кодов. Методы передачи кодов. Пример построения кода Шеннона.

    курсовая работа [212,6 K], добавлен 25.02.2009

  • Кодирование и декодирование, преобразование дискретного сообщения в дискретный сигнал. Построение математической модели корректирующего кода. Образующая матрица информационного кода. Модульная структура программы. Спецификация на программные модули.

    курсовая работа [98,9 K], добавлен 28.11.2014

  • Методы кодирования изображения: кодированием длины серии, частотно-зависимое кодирование, метод Лемпеля-Зива. Размер строки при 16-битном цвете. Расчет размера всего исходного изображения. Примеры качественного и некачественного сжатия изображения.

    презентация [2,0 M], добавлен 22.10.2013

  • Выбор и обоснование основных параметров кода. Коды Рида-Маллера первого порядка. Кодирование информации путем умножения исходного информационного сообщения на порождающую матрицу. Разработка структурной и функциональной схем кодера Рида-Маллера.

    курсовая работа [555,2 K], добавлен 24.03.2013

  • Методы косвенного анализа структуры знаковых последовательностей на основе состава. Анализ строя цепей событий. Выравнивание аминокислотных и нуклеотидных последовательностей. Обоснование выбора средств разработки. Программные средства разработки.

    дипломная работа [3,2 M], добавлен 21.06.2013

  • Описание метода сжатия информации на основе двоичных кодирующих деревьев Хаффмана. Среда разработки Delphi версии 7.0. Понятия объектно-ориентированного программирования. Программа, разработанная в Delphi. Реализация на Delphi метода кодирования Хаффмана.

    курсовая работа [2,1 M], добавлен 26.03.2013

  • Математическая модель алгоритма с модификацией муравьиной колонии. Выбор аппаратных и программных средств для разработки программы. Особенность построения оптимального маршрута обхода пациентов. Характеристика тестирования и отладки данного проекта.

    дипломная работа [1,9 M], добавлен 17.11.2017

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.