Теоретические основы кодирования информации

Рассмотрение понятия и свойств информации; особенности ее хранения и обработки. Изучение правил представления чисел, математических и специальных символов в памяти компьютера. Принципы кодирования растровых и векторных изображений, звука, видеоинформации.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 19.04.2011
Размер файла 294,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Колебание, которое имеет наиболее низкую частоту, называют основным тоном, другие - обертонами (ober - с немецкого над, выше) - тонами более высоких частот. Тембр - разное количество обертонов, присущих тому или иному звуку, которое придает ему особую окраску. Отличие одного тембра от другого обусловлено не только числом, но и интенсивностью обертонов, сопровождающих звучание основного тона. Именно по тембру мы легко можем отличить звуки рояля и скрипки, гитары и флейты, узнать голос знакомого человека.

Музыкальный звук можно характеризовать тремя качествами:

- тембром, т. е. окраской звука, которая зависит от формы колебаний,

- высотой, определяющейся числом колебаний в секунду (частотой основного тона),

- и громкостью, зависящей от интенсивности колебаний.

А как же происходит кодирование звука? С самого детства мы сталкиваемся с записями музыки на разных носителях: грампластинках, кассетах, компакт-дисках и т.д. В настоящее время существует два основных способах записи звука: аналоговый и цифровой.

Для того чтобы записать звук на какой-нибудь носитель, его нужно преобразовать в электрический сигнал. Это делается с помощью микрофона. Самые простые микрофоны имеют мембрану, которая колеблется под воздействием звуковых волн. К мембране присоединена катушка, перемещающаяся синхронно с мембраной в магнитном поле. В катушке возникает переменный электрический ток. Изменения напряжения тока точно отражают звуковые волны.

Переменный электрический ток, который появляется на выходе микрофона, называется аналоговым сигналом. Применительно к электрическому сигналу "аналоговый" обозначает, что этот сигнал непрерывен по времени и амплитуде. Он точно отражает форму звуковой волны, которая распространяется в воздухе. Звук представляет собой достаточно сложное непрерывное колебание воздуха.

Оказывается, что такие непрерывные сигналы можно с достаточной точностью представлять в виде суммы некоторого числа простейших синусоидальных колебаний. Причем каждое слагаемое, то есть каждая синусоида, может быть точно задана некоторым набором числовых параметров - амплитуды, фазы и частоты, которые можно рассматривать как код звука в некоторый момент времени. Такой подход к записи звука называется преобразованием в цифровую форму, оцифровыванием или дискретизацией, так как непрерывный звуковой сигнал заменяется дискретным (то есть состоящим из раздельных элементов) набором значений сигнала в некоторые моменты времени.

Количество отсчетов сигнала в единицу времени называется частотой дискретизации. В настоящее время при записи звука в мультимедийных технологиях применяются частоты 8, 11, 22 и 44 кГц. Так, частота дискретизации 44 килогерца означает, что одна секунда непрерывного звучания заменяется набором из сорока четырех тысяч отдельных отсчетов сигнала. Чем выше частота дискретизации, тем лучше качество оцифрованного звука.

Как отмечалось выше, каждый отдельный отсчет можно описать некоторой совокупностью чисел, которые затем можно представить в виде некоторого двоичного кода. Качество преобразования звука в цифровую форму определяется не только частотой дискретизации, но и количеством битов памяти, отводимых на запись кода одного отсчета. Этот параметр принято называть разрядностью преобразования. В настоящее время обычно используется разрядность 8, 16 и 24 бит. На описанных выше принципах основывается формат WAV (от WAVeform-audio - волновая форма аудио) кодирования звука. Получить запись звука в этом формате можно от подключаемых к компьютеру микрофона, проигрывателя, магнитофона, телевизора и других стандартно используемых устройств работы со звуком. Однако формат WAV требует очень много памяти. Так, при записи стереофонического звука с частотой дискретизации 44 килогерца и разрядностью 16 бит - параметрами, дающими хорошее качество звучания, - на одну минуту записи требуется около десяти миллионов байтов памяти.

Кроме волнового формата WAV, для записи звука широко применяется формат с названием MIDI (Musical Instruments Digital Interface - цифровой интерфейс музыкальных инструментов). Фактически этот формат представляет собой набор инструкций, команд так называемого музыкального синтезатора - устройства, которое имитирует звучание реальных музыкальных инструментов. Команды синтезатора фактически являются указаниями на высоту ноты, длительность ее звучания, тип имитируемого музыкального инструмента и т. д. Таким образом, последовательность команд синтезатора представляет собой нечто вроде нотной записи музыкальной мелодии. Получить запись звука в формате MIDI можно только от специальных электромузыкальных инструментов, которые поддерживают интерфейс MIDI. Формат MIDI обеспечивает высокое качество звука и требует значительно меньше памяти, чем формат WAV.

1.4.5 Цифровое видео и цифровое телевидение

Кодирование видеоинформации еще более сложная проблема, чем кодирование звуковой информации, так как нужно позаботиться не только о дискретизации непрерывных движений, но и о синхронизации изображения со звуковым сопровождением. Используемый для этого формат называется AVI (Audio-Video Interleaved - чередующееся аудио и видео). Основные мультимедийные форматы AVI и WAV очень требовательны к памяти. Поэтому на практике применяются различные способы компрессии, то есть сжатия звуковых и видеокодов. В настоящее время стандартными стали способы сжатия, предложенные MPEG (Moving Pictures Experts Group - группа экспертов по движущимся изображениям). В частности, стандарт MPEG описывает несколько популярных в настоящее время форматов записи звука.

Так, например, при записи в формате МР3 при практически том же качестве звука требуется в десять раз меньше памяти, чем при использовании формата WAV. Существуют специальные программы, которые преобразуют записи звука из формата WAV в формат МР3. Совсем недавно был разработан стандарт MPEG-4, применение которого позволяет записать полнометражный цветной фильм со звуковым сопровождением на компакт-диск обычных размеров и качества.

§1.5 Проблема измерения количества информации

В философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Как мы уже указывали в § 1.1, объективная информация является неотъемлемой составляющей реального мира и является неисчерпаемой (и поэтому бесконечной по размеру) даже для отдельного атома вещества. Исходя из этого положения, делаем заключение, что измерение объективной информации (вследствие её бесконечности) занятие, аналогичное изобретению вечного двигателя. Это можно пояснить и таким примером: том книги содержит информацию (объективную), но если смотреть на закрытую книгу, то никаких символов не увидишь и сигналов не обнаружишь, а в темноте и из открытой книги не получит информацию даже зрячий и умеющий читать символы этого языка человек.

Субъективная информация зависит от наличия у субъекта органов чувств, способных принимать сигналы от объекта, умения понимать (анализировать) эти сигналы и хранить полученную информацию, а также наличие условий, при которых от объекта исходят эти сигналы. Субъективная информация всегда неполная (и очень ограниченная) часть объективной. Субъективная информация является информацией, закодированной словами, и зависит от словарного запаса этого субъекта. Так, рассказывая о боксёрском поединке, нет необходимости наносить удары кулаками слушателю, а ведь такая информация не может точно отобразить сигналы, полученные одним боксёром от другого. Субъективная информация принадлежит человеку и отражает его взгляд на объективные явления (его отношение к этим явлениям).

Люди не знают, где они хранят свою информацию, как происходит её "запись и считывание", какие "программы" производят обработку этой информации. Она является составляющей частью бесконечной объективной информации об этом конкретном человеке, как объекте материального мира. Поэтому измерять (или как-либо по иному оценивать) субъективную информацию тоже бессмысленно, а результаты будут также бессмысленны и субъективны.

Решая различные задачи, человек использует только субъективную информацию (полученную им самим или информацию, заимствованную у других субъектов) об окружающем нас мире.

Если вывести за пределы обсуждения философское определение информации, то, что же является предметом изучения в учебном курсе информатики.

С точки зрения кибернетики информацией является содержание передаваемых сигнальных последовательностей.[7, стр. 258].

Обратим особое внимание на то, что:

1. информацией является содержание (смысл) передаваемых сигнальных последовательностей, а не каждый сигнал в этой последовательности;

2. нет упоминания об объектах и субъектах, вместо этого в кибернетике рассматриваются категории источника и приёмника информации.

В отличие от сформулированного в кибернетике определения, также называемый "кибернетическим", алфавитный подход [5, стр. 132…141] демонстрирует тождественность информации и сигнала (символа алфавита). Также многие источники эксплуатируют понятия субъекта и объекта, не раскрывая значение, которое они вкладывают в эти слова (но совсем не такое, как у терминов философии). Складывается мнение, что объективная информация - синоним слова "правда" (то есть понятие "объект" подменяется на понятие "объективность"). А субъективная - это отношение человека к полученному сообщению, а не содержание памяти этого человека о предмете или явлении.

Рассмотрим аргументацию следующего утверждения: "Подбрасывание монеты и слежение за результатом её падения дает определённую информацию. Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит. Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит. Выбор одного из двух возможных вариантов позволяет также различать двоичные цифры 0 и 1, логические истину и ложь, а также два любых других равновероятных события".

Несомненно, монета и шарик - классика теории вероятности (ТВ). Но двоичная позиционная система счисления и Бумлевская алгебра - это другие разделы математики. Никогда истинность или ложность утверждения не определяется результатом бросания монеты. Если человек говорит неправду, то, в рамках математической логики, нет вероятности признания этого правдой, даже если совсем маленькая ложь спрятана в массиве правды. Ответ однозначный и точно вычисляется - "ложь". Также и в двоичной арифметике 1+1 всегда равно 10, и никакой вероятности (даже одной миллионной доли), что это не так. Напишите любой двоичный код и объясните, почему он случайно чему-либо соответствует и зачем тогда нужны кодировочные таблицы?

Да, для вычисления в ТВ полной группы возможных исходов для серии N независимых опытов двух равновероятных событий и для расчёта возможного количества различных сочетаний размещения в N ячейках хранения информации двух её состояний (обозначаемых 0 и 1) используется одна и та же формула. Но для передачи информационного сообщения необходимо только одно из всех возможных сочетаний, с вероятностью 100%, а вероятность всех остальных (в Юникоде их число на единицу меньше 216=65536) возможностей равна нулю.

В других областях науки использование одинакового математического аппарата не приводило к заимствованию выводов и заключений из чужой области. А в информатике без всякого обоснования вводится аксиома о равной вероятности двух двоичных чисел (возможно потому, что у монеты из задачки по курсу теории вероятности тоже два возможных значения результата падения), распространяется этот вывод на произвольное количество сигналов и привлекается математический аппарат теории вероятности (ТВ). При этом примеры, приведённые для иллюстрации понятий в ТВ, выдаются за реальные события в материальном мире. Хотя, как известно, реальные события подвержены причинно-следственным отношениям и почти никогда - случайным (именно поэтому формулы ТВ редко применяются в расчётах). Далее утверждается, что ТВ и определяет ценность информации - чем меньше вероятность того, что по улице пройдёт динозавр, тем больше и важнее информация об этом. Кстати, это классический пример неправильного использования положений ТВ: "есть только два возможных исхода - либо пройдёт, либо нет, - и поэтому они равновероятны" (есть только один возможный исход, а второй - невероятный, его вероятность равна нулю). Допустимость использования теории вероятности и алфавитного подхода в информатике следовало бы доказать или хотя бы объяснить.

Носителем информации является не символ, а понятие (образ), закодированное в слове, которое составляют символы алфавита. Если последовательность сигналов передала смысл (последовательность может даже состоять из одного сигнала - например: красный цвет светофора), то информация передана источником. Если мы не можем понять смысл книги, написанной на неизвестном нам языке, то и информация не будет принята.

Отрыв понятия "информация" от смысла, содержащегося в последовательности сигналов, и наделение сигнала статусом носителя информации, противоречит определению информации с точки зрения кибернетики, сделанному выше. Это даёт начало многочисленным ошибочным мнениям на тему того, что такое информация, можно ли её оценивать и измерять (что закономерно - ведь ставится вопрос об измерении бессмысленной, то есть оторванной от смысла сообщения, информации). Приведём отрывок текста, иллюстрирующего ошибочное мнение о зависимости размера и важности информации от оценки её данным конкретным человеком:

"Часто приходится слышать, что сообщение несет мало информации или, наоборот, содержит исчерпывающую информацию. При этом разные люди, получившие одно и то же сообщение (например, прочитав статью в газете), по-разному оценивают количество информации, содержащейся в нем. Это означает, что знания людей об этих событиях (явлениях) до получения сообщения были различными. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя. Если в результате получения сообщения достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что получена исчерпывающая информация. Это означает, что нет необходимости в дополнительной информации на эту тему. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация)"*.

Смысл измерения объёма информации возникает в информационных процессах передачи и хранения информации. В этих информационных процессах понятия "информация" и "информационное сообщение" становятся синонимами. Так как передаются сигналы, а хранятся символы, то можно и важно знать их количество (объём хранимого или передаваемого сообщения).

Да и считать становится возможным: количество участков на оптическом диске, способном отражать или не отражать свет, магнитных или немагнитных участков на магнитном носителе информации, количество страниц или букв в книгах. Так как объём занимает любое сообщение, то любое сообщение несёт информацию - новое и старое, нужное и ненужное и его информационный объём не зависит от мнения 6 миллиардов жителей планеты (хотя смысл этого сообщения, конечно же, адресован не каждому человеку).

*Поясним утверждение об ошибочности приведённой цитаты некоторыми примерами:

1. Статья о футбольном матче Словения - Россия (стыковочный матч за право выхода в турнир чемпионата мира 18 ноября 2009 года) несёт целый газетный лист текста (по 2 байта на каждую букву, пробел и знак препинания и даже пустая строка несёт столько же информации, как и полностью заполненная). Телерепортаж о матче занимает 2 часа эфирного времени (желающие могут самостоятельно подсчитать информационный объём сигналов телевещания, многократно превышающий объём газетной публикации). А ведь весь массив этой информации сводится к реализации одного из двух "равновероятностных" событий (свершилось событие 2):

1) Сборная России поедет на чемпионат мира; 2) Сборная России не поедет на чемпионат мира.

И, следовательно, размер этой информации - 1 бит. Причём эта информация - полная и исчерпывающая. Какая цифра действительно соответствует реальному событию и какой смысл в спекуляциях на тему о размере объективной и субъективной информации? И ещё о теории вероятности, проигрыш не был случайным, а явился следствием объективных причин недостаточной подготовки сборной России к этому матчу и отражает объективную картину соотношения сил двух сборных - то есть и одного бита (неопределённости) не было.

2. Человек смотрит на светофор и видит, что на нём горит красный цвет, а его оппонент, стоящий на перпендикулярной улице, имеет наглость утверждать, что на светофоре в это же время горит зелёный. Чья информация лжива и не соответствует действительности? Со светофором всё ясно, и оба человека правы, но как часто возникают конфликты в жизни при точно таких же обстоятельствах и виноваты ли в этом свойства наблюдаемого объекта (объективная информация)? Субъективная информация всегда неполная часть объективной, а иногда даже, вследствие заблуждений или ошибок человека, не соответствует ей.

3. Другой пример: Убийц двух милиционеров в электропоезде Московского отделения РЖД осенью 2009 года видел при выходе из электрички случайный прохожий на перроне. Он не обратил на них никакого внимания и не имел о них почти никакой информации. Однако милиция, при помощи гипнотизёра, сумела помочь этому свидетелю вспомнить такие детали, которые уже через два месяца привели к аресту в соседней области двух преступников, сознавшихся в совершении преступления. Каким образом гипнотизёр "нашёл в мозге свидетеля" то, чего в нём вроде бы, по мнению субъекта, и не было. То есть, субъект не имеет информации о своих собственных познаниях.

4. И последнее: На вопрос учителя о столице Швейцарии ученик Петров ответил - Берн (не сообщив учителю ничего нового, т.е. нулевая информация), а ученик Васечкин дал ответ - Цюрих (эта информация, несомненно, новая для учителя и не лишена смысла - ведь там расположены ведущие мировые финансовые центры и их банки, а город - самый большой в Швейцарии по числу жителей). Так почему же учитель должен поставить Петрову пятёрку, а Васечкину двойку? Права ли английская пословица, что лучшая новость - это отсутствие новостей?

Ещё раз напомним, что бит - наименьшая единица представления информации. Единица измерения "информации" называется бит (bit) - сокращение от английских слов Binary digIT - двоичная цифра.

В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет сохранить один вариант из двух возможных, то байт, соответственно, 1 из 256 (28) возможных вариантов. Байт - наименьшая единица обработки и передачи информации согласно американскому символьному стандарту ASCII, смотри таблицу 2, страница 23.

Наряду с байтами для измерения количества носителей информации используются более крупные единицы:

1 Кбайт (один килобайт) = 210 байт = 1024 байта;

1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта.

Проще всего объём, занимаемый информацией (сообщением), оценить по объёму, занимаемому в памяти компьютера, соответствующим файлом. Ведь кроме текста сообщения хранится и передаётся информация о том, с помощью какого приложения создан этот файл, с использованием какой кодировочной таблицы и множество другой важной информации. Оценим объём файла, созданного в приложении Word, содержащего текст, набранный шрифтом Courier New (равное количество колонок в каждой строке), в нашем случае - 37 строк по 66 символов в строке - итого 2442 символа на странице в коде ASCII. Объём полностью заполненной страницы такого текста 2442*1= 2442 байта. Запомним файлы в двух различных форматах .txt и .doc.

Таблица 3 Данные по объёму текста и объёмам файлов, содержащих 0, 1, 10 и 100 одинаковых страниц текста.

Число страниц текста

Объём текста, байт

Объём файла .txt, байт

Объём на гибком диске (1 сектор - 512 б)

Объём на жестком диске (1 кластер - 16 Кб)

Объём файла .doc (с форматированием текста+Юникод), байт

0

0

8 (1 ячейка)

1 сект.- 512 б

16Кб (1 кластер)

22016

1

2442

2357

5 сект.- 2560 б

16Кб (1 кластер)

27648

10

24420

23563

47 сект.- 24064 б

32Кб (2 кластера)

84480

100

244200

235626

461 сект.- 230,5 Кб

240 Кб(15 кл-ров)

658944

В тексте, результаты сохранения которого в файле приведены в таблице 3, есть красная строка в начале и неполная строка в конце каждого абзаца, реальное количество символов на странице меньше рассчитанного количества (столбцы 2 и 3).

На гибком диске файл занимает объём секторами по 512 байт, а на жестком диске с файловой системой FAT 32 - кластерами по 16 Кб (min - 4 Кб). Сохранение файла в Word резко увеличивает его объём - 1символ=2 байтам и форматирование текста.

Надо также обратить внимание на возможность сжатия исходных файлов специальными программами-архиваторами. Это позволяет снизить занимаемый объём на диске в несколько раз (для изображений в десятки раз) без потери (или с допустимым уровнем потерь информации). То есть, один и тот же текст (одинаковые символы) или изображение могут быть закодированы, и занимать, например, 168 Мбайт памяти, а может занимать и 16,8 Мбайт, а может и 1,68 Мбайт памяти. Очевидно, что информация одна и та же и объём её (смысл) одинаков, а вот число носителей информации может быть различной.

По нашему мнению вообще некорректно говорить об объёме информации, правильно говорить об объёме, занимаемом кодом этой информации при хранении (объём файла) или при передаче информационных сообщений.

Возможно, что примеры для расчётов объёма кодированной информации призваны оживить процесс преподавания, переключить внимание учащихся на выполнение арифметических операций*.

*Например, рассмотрим такой расчёт объёма информации:

Книга содержит 100 страниц; на каждой странице - 35 строк, в каждой строке - 50 символов. Объем информации, содержащийся в книге, рассчитывается следующим образом:

Решение: Страница содержит 35 ? 50 = 1750 байт (символов) информации. Объем всей информации в книге (в разных единицах): 50 ? 100 = 175 000 байт (символов).

175 000 / 1024 = 170,8984 Кбайт.

170,8984 / 1024 = 0,166893 Мбайт.

Переведём ответ на русский язык: Книга из 100 страниц содержит 100 страниц текста!

1. Можно предположить, что данная в примере книга написана на языке кодов ASCII. Любой следующий символ опять займёт 8 носителей информации на компьютере в коде ASCII, хотя теория вероятности не имеет к коду ASCII никакого отношения. Тогда страница - 1750 байт.

2. Если типографская вёрстка сделана на программе, использующей современный стандарт Юникод (каждый символ - 2 байта), то объём "информации" в книге вырастет в два раза и составит уже 0,334 Мбайт, 3500 байт на одной странице.

3. А вдруг, книга напечатана на "русском" алфавите (из которого выброшена лишняя 33-я буква). Тогда объём информации в этой книге сразу же упадёт:50?6/8?1312 байт на страницу (шесть, а не пять бит, как обычно в задачах, так как учтены и строчные и заглавные буквы).

4. Если ученик будет выписывать цитату из этой книги в свою тетрадь, то он "потеряет" очень большое количество "информации", даже при дословном цитировании? Но, если он решит сфотографировать часть текста и вставить цитату в виде фотографии, то объём "информации" возрастёт многократно.

Если задача имеет более чем один правильный ответ, то она некорректна и не должна быть использована при обучении учеников.

Размещено на Allbest.ru


Подобные документы

  • Понятие информации и основные принципы ее кодирования, используемые методы и приемы, инструментарий и задачи. Специфические особенности процессов кодирования цифровой и текстовой, графической и звуковой информации. Логические основы работы компьютера.

    курсовая работа [55,8 K], добавлен 23.04.2014

  • Сущность и содержание двоичного кодирования, цели и задачи, этапы реализации данного процесса, оценка его эффективности. Принципы и особенности кодирования чисел и символов, а также рисунков и звука. Используемые методы и приемы, применяемые инструменты.

    презентация [756,5 K], добавлен 29.10.2013

  • Представление информации в двоичной системе. Необходимость кодирования в программировании. Кодирование графической информации, чисел, текста, звука. Разница между кодированием и шифрованием. Двоичное кодирование символьной (текстовой) информации.

    реферат [31,7 K], добавлен 27.03.2010

  • Кодирование как процесс представления информации в виде кода. Кодирование звуковой и видеоинформации, характеристика процесса формирования определенного представления информации. Особенности универсального дружественного интерфейса для пользователей.

    контрольная работа [20,3 K], добавлен 22.04.2011

  • Понятие и сущность процесса кодирования информации, его закономерности и направления использования на современном этапе. Порядок составления и содержание таблицы кодировки. Методика и инструменты компьютерного представления изображений, а также звука.

    презентация [896,4 K], добавлен 22.10.2013

  • Двоичный код, особенности кодирования и декодирования информации. Система счисления как совокупность правил записи чисел с помощью определенного набора символов. Классификация систем счисления, специфика перевода чисел в позиционной системе счисления.

    презентация [16,3 K], добавлен 07.06.2011

  • Рассмотрение понятия и методов обработки данных; единицы их представления. Сущность информации; ее основные свойства - объективность, достоверность, доступность и актуальность. Принципы кодирования целых и действительных чисел, а также текстовых данных.

    контрольная работа [432,2 K], добавлен 10.02.2012

  • Понятие и способы дискретизации аналоговых сигналов. Ознакомление с примерами аналого-цифрового преобразование звука. Изучение способов кодирования цифровых изображений, видеоданных и текста. Рассмотрение теоремы Котельникова и теории информации.

    презентация [1,2 M], добавлен 15.04.2014

  • Описание устройств ввода графической, звуковой информации, их назначение, классификация, конструкция, характеристики. Графические планшеты, сканнеры. Анализ способов представления и кодирования информации. Программные средства для архивации данных.

    контрольная работа [31,2 K], добавлен 22.11.2013

  • Исследование процессов, методов и средств технологии хранения информации. Изучение единиц измерения памяти и классификации запоминающих устройств. Характеристика основных способов кодирования данных на компьютере на сегодняшний день, таблиц кодировок.

    курсовая работа [86,9 K], добавлен 07.12.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.