Загальні відомості про технологію кодування
Поняття кодування інформації і форми його використання. Особливості видів кодування інформації: кодування чисел, цифрове кодування інформаційних об'єктів, класифікаційне, кодування дискретних повідомлень, завадостійке кодування, кодування символів.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | реферат |
Язык | украинский |
Дата добавления | 03.08.2009 |
Размер файла | 720,5 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
5.1Загальні відомості про технологію кодування. Технологія кодування чисел
Кодування інформації представлення відомостей в деякій стандартній формі. Одні і ті ж відомості можуть бути представлені в декількох різних формах, і навпаки, різні відомості можна представити в схожій формі. Наприклад, можна використовувати словесний опис нової марки автомобіля, а можна представити його вигляд в декількох детальних фотографіях. Інший приклад медичні довідки однієї форми мають однаковий зовнішній вигляд, але описують різні хвороби, оскільки видані різним людям.
З появою комп'ютерів виникла необхідність кодування всіх видів інформації, з якою має справу і окрема людина і все людство в цілому. Але вирішувати задачу кодування інформації людство почало задовго до появи комп'ютерів: грандіозні досягнення людства ? писемність і арифметика ? не що інше, як системи кодування мови і числової інформації.
Розрізняють наступні види кодування інформації: кодування чисел, цифрове кодування інформаційних об'єктів, класифікаційне, кодування дискретних повідомлень, завадостійке кодування, кодування інформаційних символів на фізичному рівні та т. ін.
Кодування чисел
Щоб використовувати числа, потрібно їх якось називати і записувати, потрібна система нумерації. Різні системи рахунку і запису чисел тисячоліттями співіснували і змагалися між собою, але до кінця “доком'ютерної епохи” особливу роль при рахунку стало грати число “десять”, а найпопулярнішою системою кодування виявилася позиційна десяткова система. У цій системі значення цифри в числі залежить від її місця (позиції) усередині числа. Десяткова система числення прийшла з Індії (не пізніші VI століття нашої ери). Алфавіт цієї системи: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9} всього 10 цифр, таким чином основа системи числення 10. Число записується як комбінація одиниць, десятків, сотень, тисяч і так далі. Приклад: 1998 = 8*100 + 9*101 + 9*102 + 1*103.
Помітимо, що вибір числа 10 як основа системи числення пояснюється традицією, а не якимись чудовими властивостями числа 10. Взагалі, представлення числа N в р-річній системі числення, це:
N = an*pn + an-l*pn-l + ...+ al*pl + ao.
У Вавилоні, наприклад, використовувалася 60-річна система числення, алфавіт містив цифри від 1 до 59, числа 0 не було, таблиці множення були дуже громіздкими, тому дуже скоро вона була забута, але відгомони її минулої поширеності можна спостерігати і зараз розподіл години на 60 хвилин, розподіл круга на 360 градусів.
Двійкова система числення
Двійкова система числення була придумана математиками і філософами ще до появи комп'ютерів (XVII XIX вв.). Видатний математик Лейбніц говорив: “Обчислення за допомогою двійок... є для науки основним і породжує нові відкриття... При зведенні чисел до простих основ, якими є 0 і 1, скрізь з'являється чудовий порядок”. Пізніше двійкова система була забута, і лише в 1936 1938 роках американський інженер і математик Клод Шеннон знайшов чудові застосування двійкової системи при конструюванні електронних схем.
При роботі з комп'ютерами іноді доводиться мати справу з двійковими числами, оскільки двійкові числа закладені в конструкцію комп'ютера. Двійкова система зручна для комп'ютера, але незручна для людини -- дуже довгі числа незручно записувати і запам'ятовувати. На допомогу приходять системи числення, споріднені двійковою -- восьмирічна і шістьнадцатерічна.
Наприклад, в шістьнадцатерічній системі для запису чисел призначені 10 арабських цифр і букви латинського алфавіту {А, В, С, D, Е, F}. Щоб записати число в цій системі числення, зручно скористатися двійковим представленням числа. Візьмемо для прикладу те ж число 2000 або 11111010000 в двійковій системі. Розіб'ємо його на четвірки знаків, рухаючись справа наліво, в останній четвірці зліва припишемо незначущий 0, щоб кількість знаків в тріадах була по чотири: 0111 1101 0000. Почнемо переклад числу 0111 в двійковій системі відповідає число 7 в десятковій (710=1*20+1*21+1*22), в шістьнадцатерічній системі числення цифра 7 є; числу 1101 в двійковій системі відповідає число 13 в десятковій (13 = 1*20 + 0*21 + 1*22 + 1*23), в шістьнадцатерічній системі цьому числу відповідає цифра D, і, нарешті, число 0000 в будь-якій системі числення 0. Запишемо тепер результат:
111110100002 = 7D016.
5.2Технологія кодування інформаційних об'єктів
Кодування координат
Закодувати можна не тільки числа, але і іншу інформацію. Наприклад, інформацію про те, де знаходиться деякий об'єкт. Величини, що визначають положення об'єкту в просторі, називаються координатами. У будь-якій системі координат є початок відліку, одиниця вимірювання, масштаб, напрям відліку, або осі координат. Приклади систем координат Декартові координати, полярна система координат, шахи, географічні координати.
Кодування музики
Як всякий звук, музика є не чим іншим, як звуковими коливаннями, Зареєструвавши які достатньо точно, можна цей звук безпомилково відтворити. Потрібно тільки безперервний сигнал, яким є звук, перетворити в послідовність нулів і одиниць. За допомогою мікрофону звук можна перетворити на електричні коливання, зміряти амплітуду коливань через рівні проміжки часу (декілька десятків тисяч раз в секунду). Кожне вимірювання записується в двійковому коді. Цей процес називається дискретизацією. Пристрій для виконання дискретизації АЦП (аналогово-цифровий перетворювач). Відтворення такого звуку ведеться за допомогою ЦАП (цифро-аналогового перетворювача). Одержаний ступінчастий сигнал згладжується і перетворюється в звук за допомогою підсилювача і динаміка. На якість відтворення впливають частота дискретизації і розрізнювання (розмір осередку, відведеного під запис значення амплітуди). Зрозуміло, що музичний твір містить в собі безліч різних звуків, тому для того, щоб зберігати такий об'єм інформації, потрібно багато місця, такий запис важко обробляти, оскільки в музиці ще дуже багато відтінків. З цих причин зручніше використовувати для кодування музики нотний запис ? свого роду алгоритм музиканту. У 1983 році провідні виробники електронних музичних інструментів і композиторів домовилися про систему команд універсального синтезатора. Це угода стандарт MIDI (Musical Instrument Digital Interface). При такому кодуванні запис компактний, легко міняється інструмент виконавця, тональність звучання, один і той же запис відтворюється як на синтезаторі, так і на комп'ютері.
Кодування тексту
Текст закодувати досить просто. Для цього достатньо абияк перенумерувати всі букви, цифри, розділові знаки і інші використовувані при письмі символи. Для зберігання одного символу найчастіше використовується восьми розрядна комірка один байт, іноді два байти (ієрогліфи, наприклад). У байт можна записати 256 різних чисел, значить, це дозволить закодувати 256 різних символів. Відповідність символів і їх кодів задається в спеціальній таблиці. Коди записуються в шістьнадцатерічній системі, оскільки для запису числа з восьми розрядів потрібно всього дві шістьнадцатерічних цифри.
Кодування зображень
Цифрові персональні комп'ютери добре працюють з числами, але не уміють обробляти безперервні величини. Але людське око можна обдурити: зображення, складене з великого числа окремих дрібних деталей, сприймається як безперервне. Якщо розбити картинку вертикальними і горизонтальними лініями на маленькі мозаїчні квадратики, одержимо так званий растр двовимірний масив квадратиків. Самі квадратики елементи растру або пікселі (picture's element) елементи картинки. Колір кожного пікселя кодується числом, тоді, задавши по порядку номера кольорів (зліва направо або зверху вниз), можна описати будь-яку картинку. Частина інформації неминуче загубіться, але чим більше растр (дрібніші пікселі), тим точніше відтворюється картинка.
Для опису чорно-білих зображень використовуються відтінки сірого кольору, тобто при кодуванні враховується тільки яскравість. Вона описується одним числом, тому для кодування одного пікселя потрібно від 1 до 8 біт: чорний колір 0, білий колір N = 2k l, де k число розрядів, які відводяться для кодування кольору. Наприклад, при довжині комірки в 8 біт це 256 1 = 255. Людське око в змозі розрізнити від 100 до 200 відтінків сірого кольору, тому восьми розрядів цілком вистачає.
Кольорові зображення сприймаються нами як сума трьох основних кольорів червоного, зеленого і синього. Наприклад, бузковий = червоний + синій; жовтий = червоний + зелений; оранжевий = червоний + зелений, але в іншій пропорції. Тому достатньо закодувати колір трьома числами яскравістю його червоної, зеленої і синьої складових. Цей спосіб кодування називається RGB (RedGreenBlue). Його використовують в пристроях, здатних випромінювати світло (монітори). При малюванні на папері діють інші правила, оскільки фарби самі по собі не випускають світло, а тільки поглинають деякі кольори спектру. Якщо змішати червону і зелену фарби, то вийде коричневий, а не жовтий колір. Тому при друці кольорових зображень використовують метод CMY (CyanMagentaYellow) блакитний, бузковий, жовтий кольори. При такому кодуванні червоний = бузковий + жовтий; зелений = голубий + жовтий.
Кодування фільмів
Фільм є послідовністю кадрів, які швидко змінюють один одного і на яких зображені послідовні фази руху. Оскільки відомі принципи кодування окремих кадрів, то закодувати фільм як послідовність таких кадрів просто. Звук записують незалежно від зображення. При демонстрації фільму важливо тільки добитися синхронізації звуку і зображення (у кіно для цього використовують хлопавку по клацанню хлопавки поєднуються звук і зображення).
Закодований фільм несе в собі інформацію про розмір кадру в пікселях і кількість використовуваних кольорів; частоту і розрізнювання для звуку; способі запису звуку (покадровий або безперервний для всього фільму). Після цього слідує послідовність закодованих картинок і звукових фрагментів.
5.3Стиснення даних як технологія вторинного кодування. Алгоритм Хаффмена
Передача і зберігання інформації вимагають достатньо великих витрат. На жаль, велика частина даних, які потрібно передавати по каналах зв'язку і зберігати, має не найкомпактніше представлення. Швидше, ці дані зберігаються у формі, що забезпечує їх найбільш просте використання, наприклад: звичайні книжкові тексти, ASCII коди та коди Windows - 1251 текстових редакторів, двійкові коди даних ЕОМ, окремі відліки сигналів в системах збору даних і т.д. Проте таке найбільш просте у використанні представлення даних вимагає удвічі - втричі, а іноді і в сотні разів більше місця для їх збереження і смуги частот для їх передачі, ніж насправді потрібно. Тому стиснення даних, як одна із форм кодування, - це один з найбільш актуальних напрямків сучасної теорії інформації.
Кодування джерела повідомлень (стиснення, компресія) проводиться з метою забезпечення компактного представлення даних, скорочення об'єму інформації, що виробляється джерелом, та з метою підвищення швидкості передачі інформаційних повідомлень по каналах зв'язку.
Зворотною операцією при цьому є декомпресія - спосіб відновлення стислих даних в початкові.
Існують два типи систем стиснення даних як без втрати якості (коли передавана/зберігається інформація в стислому вигляді після декомпресії абсолютно ідентична початковою), так і з втратою якості (коли дані після декомпресії відрізняються від оригінальних).
Виділяються такі основні види упаковки:
- десяткова упаковка призначена для упаковки символьних даних, що складаються тільки з чисел. Замість використовуваних 8 біт під символ можна цілком раціонально використовувати всього лише 4 біти для десяткових і шістнадцатеричних цифр, 3 біти для восьмеричних і т.д. При подібному підході вже відчувається стиснення мінімум 1:2.
- статистичне кодування засноване на тому, що не всі елементи даних зустрічаються з однаковою частотою (або вірогідністю). При такому підході коди вибираються так, щоб елементу, що найчастіше зустрічається, відповідав код з якнайменшою довжиною, а якнайменше частому - з найбільшою. Окрім цього, коди підбираються так, щоб при декодуванні можна було однозначно визначити елемент початкових даних. При такому підході можливе тільки біт-орієнтоване кодування, при якому виділяються дозволені і заборонені коди. Якщо при декодуванні бітової послідовності код виявився забороненим, то до нього необхідно додати ще один біт початкової послідовності і повторити операцію декодування. Найпоширенішими прикладами такого кодування є алгоритми Шеннона і Хаффмена, останній з яких ми і розглядатимемо.
Алгоритм Хаффмена є деревоподібним кодом, заснованим на статистичному кодуванні.
Деревоподібним кодом називають код, кодові слова якого містить тільки ті, що відповідають кінцевим вершинам кодового дерева.
Вузли дерева розміщуються на ярусах. На початковому (нульовому) ярусі розташований один вузол, який називається коренем дерева. Вузли наступних ярусів пов'язані з вузлами попередніх ярусів ребрами. У випадку двійкового коду з кожного вузла виходить не більше двох ребер. Ребрам приписані кодові символи. У даному прикладі прийнято, що ребру, що веде нагору, приписується символ 0, а ребру, що веде вниз - символ 1. Таким чином, кожній вершині дерева відповідає послідовність, що зчитується уздовж шляху, що зв'язує даний вузол з коренем дерева.
Кінцевим вузлом називається вузол, якщо з нього не виходить жодного ребра.
Розберемося детальніше в реалізації коду Хаффмена.
Хай є джерело даних, яке передає символи з різним ступенем вірогідності, тобто кожному відповідає своя вірогідність (або частота) , при чому існує хоча б одна пара і ,, такі, що і не рівні. Таким чином утворюється набір частот , при чому , оскільки передавач не передає більше ніяких символів окрім як .
Наша задача - підібрати такі кодові символи з довжинами , щоб середня довжина кодового символу не перевищувала середньої довжини початкового символу. При цьому потрібно враховувати умову, що якщо і , то .
Хаффмен запропонував будувати дерево, в якому вузли з найбільшою вірогідністю якнайменше віддалені від коріння. Звідси і витікає сам спосіб побудови дерева:
1.Вибрати два символи і ,, такі, що і зі всього списку є мінімальними.
2.Звести гілки дерева від цих двох елементів в одну точку з вірогідністю , помітивши одну гілку нулем, а іншу - одиницею (за власним розсудом).
3.Повторити пункт 1 з урахуванням нової точки замість і , якщо кількість точок, що вийшли, більше одиниці. Інакше ми досягли коріння дерева.
Тепер спробуємо скористатися одержаною теорією і закодувати інформацію, передану джерелом, на прикладі семи символів.
Розберемо детально перший цикл. На малюнку зображена таблиця, в якій кожному символу відповідає своя вірогідність (частота). Згідно пункту 1 ми вибираємо два символи з таблиці з якнайменшою вірогідністю. У нашому випадку це і . Згідно пункту 2 зводимо гілки дерева від і у одну точку і позначаємо гілку, що веде до , одиницею, а гілку, що веде до ,- нулем. Над новою точкою приписуємо її вірогідність (в даному випадку - 0.03). Надалі дії повторюються вже з урахуванням нової точки і без урахування і .
Після багатократного повторення висловлених дій будується наступне дерево:
По побудованому дереву можна визначити значення кодів , здійснюючи спуск від коріння до відповідного елементу , при цьому приписуючи до одержуваної послідовності при проходженні кожної гілки нуль або одиницю (залежно від того, як іменується конкретна гілка). Таким чином таблиця кодів виглядає таким чином:
1 |
011111 |
0,01 |
6 |
|
2 |
1 |
0,40 |
1 |
|
3 |
0110 |
0,08 |
4 |
|
4 |
011110 |
0,02 |
6 |
|
5 |
010 |
0,10 |
3 |
|
6 |
00 |
0,35 |
2 |
|
7 |
01110 |
0,04 |
5 |
Тепер спробуємо закодувати послідовність з символів.
Хай символу відповідає (як приклад) число і. Хай є послідовність 12672262. Потрібно одержати результуючий двійковий код.
Для кодування можна використовувати таблицю кодових символів із врахуванням, що відповідає символу . У такому разі код для цифри 1 буде послідовністю 011111, для цифри 2 - 1, для цифри 6 - 00, а для цифри 7 - 01110. Таким чином, одержуємо наступний результат:
Дані |
12672262 |
Довжина коду |
|
Початкові |
001 010 110 111 010 010 110 010 |
24 біт |
|
Кодовані |
011111 1 00 01110 1 1 00 1 |
19 біт |
В результаті кодування ми виграли 5 біт і записали послідовність 19 бітами замість 24.
Проте це не дає повної оцінки стиснення даних. Повернемося до математики і оцінимо ступінь стиснення коду. Для цього знадобиться ентропійная оцінка.
Ентропію для нашого випадку можна представити у вигляді:
.
Ентропія має чудову властивість: вона дорівнює мінімальній допустимій середній довжині кодового символу у бітах. Сама ж середня довжина кодового символу обчислюється по формулі
.
Підставляючи значення у формули і , одержуємо наступний результат:
,
.
Величини і дуже близькі, що говорить про реальний виграш у виборі алгоритму. Тепер порівняємо середню довжину початкового символу і середню довжину кодового символу через відношення:
.
Таким чином, ми одержали стиснення в співвідношенні 1:1,429, що дуже непогане.
І наприкінці, вирішимо останню задачу: дешифровка послідовності бітів.
Хай для нашої ситуації є послідовність бітів:
001101100001110001000111111
Необхідно визначити початковий код, тобто декодувати цю послідовність.
Звичайно, в такій ситуації можна скористатися таблицею кодів, але це достатньо незручно, оскільки довжина кодових символів непостійна. Набагато зручніше здійснити спуск по дереву (починаючи з коріння) за наступним правилом:
1.Початкова точка - корінь дерева.
2.Прочитати новий біт. Якщо він нуль, то пройти по гілці, поміченій нулем, інакше - одиницею.
3.Якщо точка, в яку ми потрапили, кінцева, то ми визначили кодовий символ, який слідує записати і повернутися до пункту 1. Інакше слід повторити пункт 2.
Розглянемо приклад декодування першого символу. Ми знаходимося в точці з вірогідністю 1.00 (коріння дерева), прочитуємо перший біт послідовності і відправляємося по гілці, поміченій нулем, в точку з вірогідністю 0.60. Оскільки ця точка не є кінцевою в дереві, то прочитуємо наступний біт, який теж рівний нулю, і відправляємося по гілці, поміченій нулем, в точку , яка є кінцевою. Ми дешифрували символ - це число 6. Записуємо його і повертаємося в початковий стан (переміщаємося в коріння).
Таким чином декодована послідовність приймає вигляд.
Дані |
001101100001110001000111111 |
Довжина коду |
|
Кодовані |
00 1 1 0110 00 01110 00 1 00 011111 1 |
27 біт |
|
Початкові |
6 2 2 3 6 7 6 2 6 1 2 |
33 біт |
В даному випадку виграш склав 6 біт при достатньо невеликій довжині послідовності.
Висновок напрошується сам собою: алгоритм простий. Проте слід зробити зауваження: даний алгоритм хороший для стиснення текстової інформації (дійсно, реально ми використовуємо при набиванні тексту приблизно 60 символів з доступних 256, тобто вірогідність зустріти інші символи близька до нуля), але достатньо поганий для стиснення програм (оскільки в програмі всі символи практично рівноімовірні). Отже ефективність алгоритму дуже сильно залежить від типу даних, що стискаються.
Розглянемо ще один приклад реалізації стиснення такого алгоритму. Хай повідомлення є текстом, який складається із дванадцяти символів із ймовірностями, які визначені і відображені в таблиці 1.
Таблиця 1
Символ |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
|
Імовірність |
0,01 |
0,01 |
0,01 |
0,01 |
0,02 |
0,02 |
0,02 |
0,1 |
0,1 |
0,1 |
0,2 |
0,4 |
Надалі будується “дерево” коду згідно із алгоритмом Хаффмена. Як відомо, на кожному кроці алгоритму здійснюється аналіз ймовірностей усіх символів (які на цьому кроці позначені зеленими колами), починаючи із пари символів, які мають найменші імовірності. Вразі наявності декількох символів із однаковою імовірністю, вибір пари здійснюється довільно. Нехай на першому кроці, в наслідок аналізу чотирьох найменших та однакових ймовірностей, вибрано перший та другий символи. Ці символи утворюють новий вузол (узагальнений символ), імовірність появи якого дорівнює сумі ймовірностей тих символів, які його утворили (0,01+ 0,01 = 0,02). Ребрам, які поєднують ці вузли привласнюють значення “1” чи “0” (довільно, за бажанням виконавця). Звернемо увагу, що на рисунках, які демонструють алгоритм, значення ребер привласнено (для спрощення рисунків!) лише на перших двох кроках алгоритму. Після цього розглянуті вузли (на першому кроці - перший та другий) із розгляду виключаються, що на рисунках показано виділенням таких вузлів червоним кольором.
Перший - четвертий кроки алгоритму
На наступному кроці відбувається такий же аналіз ймовірностей, і, в наслідок аналізу двох найменших та однакових ймовірностей (третьої та четвертої), визначається наступний новий вузол (узагальнений символ) із відповідною ймовірністю (0,01+ 0,01 = 0,02).
На третьому кроці відбувається аналіз чотирьох вузлів із найменшими ймовірностями (по 0,02) і визначається наступний новий вузол (узагальнений символ) із відповідною ймовірністю (0,02+ 0,02 = 0,4).
Цей процес продовжується до повного перебору усіх вузлів, в наслідок чого утвориться корінь дерева із імовірністю, яка дорівнює 1 (одиниці).
Четвертий -шостий кроки алгоритму
Шостий -сьомий кроки алгоритму
Сьомий - дев'ятий кроки алгоритму
Дев'ятий - десятий кроки алгоритму
Десятий - одинадцятий кроки алгоритму
Здійснивши тепер перехід по ребрам із кореня дерева до того вузла, яким позначено кожен із символів, і, послідовно записавши коди відповідних ребер, отримаємо коди кожного із символів.
Із рисунків видно, що коди перших шести символів будуть шестирозрядними, розрядність решти символів буде зменшуватися, аж до одного розряду для символу із найбільшою імовірністю.
Подобные документы
Аналіз деяких питань кодування інформації по каналах зв'язку з перешкодами. Дослідження елементів теорії кодування. Сутність групового коду – блокового коду, у якого кодові слова утворюють групу. Особливості кодів Хеммінга та квазідосконалого кодування.
реферат [114,4 K], добавлен 21.09.2010Кодування - елемент сфери телекомунікацій, захисту інформації. Навички вибору й оцінки ефективності процедур кодування даних. Аналіз можливостей багаторівневої амплітудної маніпуляції гармонічних сигналів. Потенційна пропускна спроможність каналу зв'язку.
курсовая работа [1,9 M], добавлен 12.12.2010Коди Боуза-Чоудхури-Хоквингема (БЧХ) - великий клас кодів, здатних виправляти кілька помилок, вони займають помітне місце в теорії і практиці кодування. Приклади практичного застосування кодів БХЧ. Алгоритми кодування та декодування циклічних кодів.
реферат [676,5 K], добавлен 22.12.2010Особливості кодування повідомлення дискретного джерела рівномірним двійковим кодом, середня ймовірність помилки. Обчислення пропускної здатності неперервного сигналу, швидкості передавання інформації, оцінка ефективності використання каналу зв’язку.
контрольная работа [678,1 K], добавлен 10.05.2013Поняття дискретного сигналу. Квантування неперервних команд за рівнем у пристроях цифрової обробки інформації, сповіщувально-вимірювальних системах, комплексах автоматичного керування тощо. Кодування сигналів та основні способи побудови їх комбінацій.
реферат [539,1 K], добавлен 12.01.2011Поняття сигналу, їх види - аналогові і цифрові. Фізичні процеси передачі інформації. Смуга пропускання і пропускна здатність. Цифрове та логічне кодування бітових даних. Гальванічна розв’язка електричних кіл ліній передачі даних комп’ютерних мереж.
презентация [1,3 M], добавлен 18.10.2013Метод простого накладення і кодування фронтів передачі низькошвидкісних даних по цифровому каналу. Застосування принципу ковзного індексу - кодування фронтів інформаційних імпульсів. Передача сигналів: телевізійних, частотних груп і звукового мовлення.
реферат [1014,1 K], добавлен 06.03.2011Схема цифрової системи передачі інформації. Кодування коректуючим кодом. Шифрування в системі передачі інформації. Модулятор системи передачі. Аналіз роботи демодулятора. Порівняння завадостійкості систем зв’язку. Аналіз аналогової системи передачі.
курсовая работа [1,6 M], добавлен 04.02.2013Процес перетворення неперервних повідомлень у дискретні за часом та рівнем. Квантування - процес виміру миттєвих відліків. Перетворення аналогового сигналу в сигнал ІКМ. Інформаційні характеристики джерела повідомлення. Етапи завадостійкого кодування.
курсовая работа [915,1 K], добавлен 07.02.2014Коректуючі властивості мінімального інтервалу декодування. Визначення ймовірності помилкового декодування єдиного кодуючого формату. Використання МІД як єдиного кодуючого формату. Основні особливості коректуючих властивостей структурно-логічних кодів.
контрольная работа [1,1 M], добавлен 27.10.2009