Принципы кодирования информации

Определение и свойства информации, даваемые различными науками, отличие от сведений данных и знаний. Понятие кодирования, представление числовых, символьных и графических данных. Вероятностный и объемный подходы к измерению количества информации.

Рубрика Программирование, компьютеры и кибернетика
Вид практическая работа
Язык русский
Дата добавления 12.11.2010
Размер файла 53,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Министерство образования и науки

Российской Федерации

филиал ГОУ ВПО «ЮУРГУ» в г. Златоусте

Кафедра математики и вычислительной техники

Практическая работа №2

по информатике

Выполнил: ст. гр. НЗД-102

Салташева Ю.Б.

Проверил:

Соколова Е.В.

Златоуст 2010

1. Понятия информации, даваемые различными науками. Отличие

от сведений данных и знаний

Существует множество определений и взглядов на понятие "информация". Так, например, наиболее общее философское определение звучит следующим образом: "Информация есть отражение реального мира. Информация - отраженное разнообразие, то есть нарушение однообразия. Информация является одним из основных универсальных свойств материи". В узком, практическом толковании определение понятия "информация" представляется так: "Информация есть все сведения, являющееся объектом хранения, передачи и преобразования".

Автор теории информации К. Шеннон (1916) определил понятие информации как коммуникацию, связь, в процессе которой устраняется неопределенность. Шеннон предложил в к. 40-х годов единицу измерения информации - бит. Каждому сигналу в теории приписывалась априорная вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя (т.е. чем неожиданнее новость, тем больше ее информативность).

Информация равна нулю, когда возможно только одно событие. С ростом числа событий она увеличивается и достигает максимального значения, когда события равновероятны. При таком понимании информация - это результат выбора из набора возможных альтернатив. Однако математическая теория информации не охватывает все богатство содержания информации, поскольку она не учитывает содержательную сторону сообщения.

Дальнейшее развитие математического подхода к понятию "информация" отмечается в работах логиков (Р. Карнап, И. Бар-Хиллел) и математиков (А.Н. Колмогоров). В этих теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Понятие "информация" в данном случае определяется как абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.

С кибернетической точки зрения информация (информационные процессы) есть во всех самоуправляемых системах (технических, биологических, социальных). При этом одна часть кибернетиков определяет информацию как содержание сигнала, сообщения, полученного кибернетической системой из внешнего мира. Здесь сигнал отождествляется с информацией, они рассматриваются как синонимы. Другая часть кибернетиков трактуют информацию как меру сложности структур, меру организации. Вот как определяет понятие "информация" американский ученый Б.Винер, сформулировавший основные направления кибернетики, автор трудов по математическому анализу, теории вероятностей, электрическим сетям и вычислительной техники: информация - это обозначение содержания, полученного из внешнего мира.

В физике информация выступает в качестве меры разнообразия. Чем выше упорядоченность (организованность) системы объекта, тем больше в ней содержится "связанной" информации. Отсюда делается вывод, что информация - фундаментальная естественнонаучная категория, находящаяся рядом с такими категориями как "вещество" и "энергия", что она является неотъемлемым свойством материи и потому существовала и будет существовать вечно. Так, например, французский физик Л. Бриллюэн (1889-1969), основоположник зонной теории твердых тел, автор трудов по квантовой механике, магнетизму, радиофизики, философии естествознания, теории информации определяет информацию как отрицание энтропии (энтропия - мера неопределенности, учитывающая вероятность появления и информативность тех или иных сообщений).

С 50-60-х годов терминология теории информации стала применяться и в физиологии (Д. Адам). Была обнаружена близкая аналогия между управлением и связью в живом организме и в информационно-технических устройствах. В результате введения понятия "сенсорная информация" (т.е. оптические, акустические, вкусовые, тепловые и прочие сигналы, поступающие к организму извне или вырабатываемые внутри его, которые преобразуются в импульсы электрической или химической природы, передающиеся по нейронным цепям в центральную нервную систему и от нее - к соответствующим эффекторам) появились новые возможности для описания и объяснения физиологических процессов раздражимости, чувствительности, восприятия окружающей среды органами чувств и функционирования нервной системы.

В рамках генетики было сформулировано понятие генетической информации - как программа (код) биосинтеза белков, материально представленных полимерными цепочками ДНК. Генетическая информация заключена преимущественно в хромосомах, где она зашифрована в определенной последовательности нуклеидов в молекулах ДНК. Реализуется эта информация в ходе развития особи (онтогенеза).

Таким образом, систематизируя вышеизложенное, можно сделать вывод, что для инженеров, биологов, генетиков, психологов понятие "информации" отождествляется с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах. Радиотехники, телемеханики, программисты понимают под информацией рабочее тело, которое можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Это рабочее тело состоит из упорядоченных дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника.

С правовой точки зрения информация определяется как "некоторая совокупность различных сообщений о событиях, происходящих в правовой системе общества, ее подсистемах и элементах и во внешней по отношению к данным правовым информационным образования среде, об изменениях характеристик информационных образований и внешней среды, или как меру организации социально-экономических, политических, правовых, пространственных и временных факторов объекта. Она устраняет в правовых информационных образованиях, явлениях и процессах неопределенность и обычно связана с новыми, ранее неизвестными нам явлениями и фактами".

Информация с экономической точки зрения - это стратегический ресурс, один из основных ресурсов роста производительности предприятия. Информация - основа маневра предпринимателя с веществом и энергией, поскольку именно информация позволяет устанавливать стратегические цели и задачи предприятия и использовать открывающиеся возможности; принимать обоснованные и своевременные управленческие решения; координировать действия различных подразделений, направляя их усилия на достижение общих поставленных целей. Например, маркетологи Р.Д. Базел, Д.Ф. Кокс, Р.В. Браун определяют понятие "информация" следующим образом: "информация состоит из всех объективных фактов и всех предположений, которые влияют на восприятие человеком, принимающим решение, сущности и степени неопределенностей, связанных с данной проблемой или возможностью (в процессе управления). Все, что потенциально позволит снизить степень неопределенности, будь то факты, оценки, прогнозы, обобщенные связи или слухи, должно считаться информацией".

В менеджменте под информацией понимаются сведения об объекте управления, явлениях внешней среды, их параметрах, свойствах и состоянии на конкретный момент времени. Информация является предметом управленческого труда, средством обоснования управленческих решений, без которых процесс воздействия управляющей подсистемы на управляемую и их взаимодействие невозможен. В этом смысле информация выступает основополагающей базой процесса управления.

Значение информации для бизнеса определили Д.И. Блюменау и А.В. Соколов: "информация - это продукт научного познания, средство изучения реальной действительности в рамках, допустимых методологией одного из информационных подходов к исследованию объектов различной природы (биологических, технических, социальных). Подход предполагает описание и рассмотрение этих объектов в виде системы, включающей в себя источник, канал и приемник управляющих воздействий, допускающих их содержательную интерпретацию". Если попытаться объединить предложенные подходы, то получится следующее:

Данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий. Однако данные не тождественны информации. Станут ли данные информацией, зависит от того, известен ли метод преобразования данных в известные понятия. То есть, чтобы извлечь из данных информацию необходимо подобрать соответствующий форме данных адекватный метод получения информации. Данные, составляющие информацию, имеют свойства, однозначно определяющие адекватный метод получения этой информации. Причем необходимо учитывать тот факт, что информация не является статичным объектом - она динамически меняется и существует только в момент взаимодействия данных и методов. Все прочее время она пребывает в состоянии данных. Информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.

Одни и те же данные могут в момент потребления представлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов.

По своей природе данные являются объективными, так как это результат регистрации объективно существующих сигналах, вызванных изменениями в материальных телах или полях. Методы являются субъективными. В основе искусственных методов лежат алгоритмы (упорядоченные последовательности команд), составленные и подготовленные людьми (субъектами). В основе естественных методов лежат биологические свойства субъектов информационного процесса. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Переходя к рассмотрению подходов к определению понятия "знания" можно выделить следующие трактовки. Знания - это:

* вид информации, отражающей знания, опыт и восприятие человека - специалиста (эксперта) в определенной предметной области;

* множество всех текущих ситуаций в объектах данного типа и способы перехода от одного описания объекта к другому;

* осознание и толкование определенной информации, с учетом путей наилучшего ее использования для достижения конкретных целей, характеристиками знаний являются: внутренняя интерпретируемость, структурируемость, связанность и активность.

Основываясь на приведенных выше трактовках рассматриваемых понятий, можно констатировать тот факт, что знание - это информация, но не всякая информация - знание. Информация выступает как знания, отчужденные от его носителей и обобществленные для всеобщего пользования. Другими словами, информация - это превращенная форма знаний, обеспечивающая их распространение и социальное функционирование. Получая информацию, пользователь превращает ее путем интеллектуального усвоения в свои личностные знания. Здесь мы имеем дело с так называемыми информационно-когнитивными процессами, связанными с представлением личностных знаний в виде информации и воссозданием этих знаний на основе информации.

В превращении информации в знание участвует целый ряд закономерностей, регулирующих деятельность мозга, и различных психических процессов, а также разнообразных правил, включающих знание системы общественных связей, - культурный контекст определенной эпохи. Благодаря этому знание становится достоянием общества, а не только отдельных индивидов. Между информацией и знаниями имеется разрыв. Человек должен творчески перерабатывать информацию, чтобы получить новые знания.

Таким образом, учитывая вышеизложенное, можно сделать вывод, что фиксируемые воспринимаемые факты окружающего мира представляют собой данные. При использовании данных в процессе решения конкретных задач - появляется информация. Результаты решения задач, истинная, проверенная информация (сведения), обобщенная в виде законов, теорий, совокупностей взглядов и представлений представляет собой знания.

2. Свойства информации

Свойства информации:

­ достоверность;

­ полнота;

­ ценность;

­ своевременность;

­ понятность;

­ доступность;

­ краткость; и др.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

3. Принципы кодирования цифровой, символьной, графической

информации

Кодирование - это представление информации в виде определенных символических структур. Чаще всего использую одномерное представление, когда сообщение записывается в виде цепочки символов (например, в письменных текстах, при передаче по каналу данных, при обработке в СВТ).

Также используют многомерные представления (например, всевозможные схемы, рисунки, макеты и т.д.). В узком смысле под кодированием понимают от исходного представления к другому представлению, более удобному для последующей передачи, обработки или хранения.

Представление числовой информации.

Для представления чисел в ЭВМ используются битовые наборы - последовательность 0 и 1 фиксированной длины. Позиции в битовых наборах называются разрядами. Прямой код - способ представления натуральных двоичных чисел, главным образом для положительных. Бывают 8,16,32 и так далее разрядные прямые коды. Прямой код для числа 53 ищется так: переводим число в двоичный вид, доводим его до 8-разрядного представления, приписывая два ноля впереди: 00110101 - такое представление и называется прямым кодом. Существует беззнаковое и знаковое представление числа. В беззнаковом 8-разрядном представлении можно записать числа от 0 до 255, а при знаковом от -128 до 127. Старший член определяет знак числа: если отрицательное, то 1, если положительное, то 0. Обратный код. Для получения обратного кода значение всех бит инвертируется, то есть все нули заменяются на единицы, а единицы на нули. Полученная запись называется К-разрядным обратным кодом исходного числа. Дополнительный код положительного числа равен прямому коду этого числа, а отрицательного обратный код +1.

Для представления действительных чисел используется более эффективный формат с плавающей запятой (точкой). В этом случае число А представляется в виде

А=±МЧ2±Р

М - двоичная мантисса числа, находящаяся в диапазоне -1<М<1,

Р - двоичный порядок числа.

Из N разрядов, предназначенных для хранения числа, записанного в формате с плавающей запятой, два бита отводятся на знаки мантиссы и порядка, m разрядов - для хранения мантиссы, p разрядов - для хранения порядка, т.е. N=m+p+2. В персональных компьютерах действительные числа могут представляться с одинарной (N=32, m=23, p=7) и двойной (N=64, m=52, p=10) точностью. Относительная точность представления чисел находится в диапазоне от 2-m до 2-m-1, т.е. определяется числом разрядов мантиссы. Максимальное представляемое число равно 2p-1 - 1, т.е. определяется количеством разрядов порядка.

Представление символьных данных.

Текстовая информация представляет собой последовательность символов, поэтому для ее представления в виде двоичного кода достаточно иметь двоичный код каждого символа из используемого алфавита. В компьютерах для кодирования символов используются коды постоянной длины, т.е. код любого символа алфавита содержит одно и то же число битов. Используя различные коды из n бит, можно закодировать 2n символов. В частности, если код символа занимает 1 байт, алфавит может содержать не более 28=256 символов. Такого количества символов вполне достаточно для представления текстовой информации, включая прописные и строчные буквы русского и латинского алфавитов, цифры, математические символы и другие знаки.

Каждому символу соответствует свой двоичный код согласно кодовой таблице. Кодируются также служебные знаки, соответствующие клавишам клавиатуры, нажатием которых выполняются некоторые операции, например, конец строки (Enter), удаление последнего символа (Backspace).

В большинстве современных компьютеров используются кодовые таблицы, основанные на американском стандартном коде для обмена информацией ASCII (American Standart Code for Information Interchange). Коды от 0 до 127 являются интернациональными, причем коды от 0 до 31 соответствуют различным операциям, а остальные - символам латинского алфавита, знакам препинания и арифметических операций, другим знакам. Коды с 128 по 255 являются национальными, т.е. в различных национальных кодировках одному и тому же коду соответствуют , как правило, различные символы. К сожалению, в настоящее время существует несколько русскоязычных национальных кодировок (КОИ-8, СР-1251 ISO и др.), каждая из которых задается своей собственной кодовой таблицей.

В последнее время появился новый международный стандарт Unicode, согласно которому на хранение символа отводится не один, а два байта, поэтому с его помощью можно закодировать не 256, а 216=65536 различных символов. Начиная с 1997 г. эту кодировку поддерживают последние версии платформы Microsoft Windows&Office, а также программы-навигаторы Интернет и почтовые программы.

Представление графических данных.

При кодировании изображений используют два подхода: точечная графика и векторная графика. В точечной графике изображения строятся из большого числа отдельных точек (пикселей). Для каждого пикселя в числовой форме, т.е. в виде кода задаются координаты на экране и на бумаге, а также свойства: такие, как яркость и цвет. Недостаток такого кодирования - большой объем данных, плюс: можно кодировать любые произвольные изображения. В векторной графике изображения строятся из стандартных геометрических фигур. Для каждой фигуры в числовой форме задается ее тип, координаты и свойства: толщина линий, цвет, заливка. Плюс: маленький объем данных для кодирования. Минус: область применения ограничена геометрически правильными изображениями.

4. Единицы измерения. Вероятностный и объемный подходы

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H = f (N), (1.1)

а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее H1;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через H2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = H1 - H2 (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим «З».

Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равно N в степени М:

X=NM. (1.3)

Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем - «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип аддитивности энтропии»):

f(6M) = M f(6)

Данную формулу можно распространить и на случай любого N:

F(NM) = M f(N) (1.4)

Прологарифмируем левую и правую части формулы (1.3): ln X = M ln N, М = ln X/1n M. Подставляем полученное для M значение в формулу (1.4):

Обозначив через К положительную константу, получим: f(X) = К lп Х, или, с учетом (1.1), H=K ln N. Обычно принимают К = 1 / ln 2. Таким образом

H = log2 N. (1.5)

Это - формула Хартли.

Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)1N. При этом вероятность i-го исхода Рi равняется, очевидно, 1/N.

Таким образом,

Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Рi могут быть различны). Формула (1.6) называется формулой Шеннона.

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(0) = Р(1) = 0,5), то количество информации на один знак при двоичном кодировании будет равно

H = 1оg2 2 = 1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

Объемный подход.

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

· 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

· 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

· 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

· 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

· 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.


Подобные документы

  • Информация и ее свойства. Единицы измерения данных. Вероятностный и объемный подход к измерению количества информации, способы ее передачи. Рассмотрение поставщиков финансовой информации в Интернете; технологии финансовых инвестиций в компьютерной сети.

    контрольная работа [61,5 K], добавлен 08.06.2013

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Понятие информации и основные принципы ее кодирования, используемые методы и приемы, инструментарий и задачи. Специфические особенности процессов кодирования цифровой и текстовой, графической и звуковой информации. Логические основы работы компьютера.

    курсовая работа [55,8 K], добавлен 23.04.2014

  • Информация и информационные процессы в природе, обществе, технике. Информационная деятельность человека. Кодирование информации. Способы кодирования. Кодирование изображений. Информация в кибернетике. Свойства информации. Измерение количества информации.

    реферат [21,4 K], добавлен 18.11.2008

  • Представление информации в двоичной системе. Необходимость кодирования в программировании. Кодирование графической информации, чисел, текста, звука. Разница между кодированием и шифрованием. Двоичное кодирование символьной (текстовой) информации.

    реферат [31,7 K], добавлен 27.03.2010

  • Вычисление количества информации, приходящейся на один символ по формуле Шеннона. Изменения информационной энтропии в текстах экономического, естественнонаучного и литературного содержания. Максимальное количество информации на знак по формуле Хартли.

    лабораторная работа [28,2 K], добавлен 06.12.2013

  • Описание устройств ввода графической, звуковой информации, их назначение, классификация, конструкция, характеристики. Графические планшеты, сканнеры. Анализ способов представления и кодирования информации. Программные средства для архивации данных.

    контрольная работа [31,2 K], добавлен 22.11.2013

  • Энтропия и количество информации. Комбинаторная, вероятностная и алгоритмическая оценка количества информации. Моделирование и кодирование. Некоторые алгоритмы сжатия данных. Алгоритм арифметического кодирования. Приращаемая передача и получение.

    курсовая работа [325,1 K], добавлен 28.07.2009

  • Символьное и образное представление информации. Единицы ее измерения. Язык как способ символьного представления информации. Знак как элемент конечного множества. Алфавитный подход к измерению информации. Решение задач на определение ее количества.

    презентация [178,2 K], добавлен 12.12.2012

  • Представление графических данных. Растровая, векторная и фрактальная виды компьютерной графики. Цвет и цветовые модели: метод кодирования цветовой информации для ее воспроизведения на экране монитора. Основные программы для обработки растровой графики.

    реферат [429,7 K], добавлен 01.08.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.