Виды и свойства информации

Определение термина "информация", ее классификация по способу восприятия, форме представления, назначению и значению. Свойства информации: полнота, точность, своевременность, доступность и др. Определение термина "информационная энтропия", ее свойства.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 20.03.2017
Размер файла 245,6 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Информация(от лат. informatio, разъяснение, изложение, осведомленность) -- любые сведения и данные, отражающие свойства объектов в природных, социальных и технических системах и передаваемые звуковым, графическим (в т. ч. письменным) или иным способом без применения или с применением технических средств.

Информацию можно разделить на виды по различным критериям:

1. по способу восприятия:

· Визуальная -- воспринимаемая органами зрения.

· Аудиальная -- воспринимаемая органами слуха.

· Тактильная -- воспринимаемая тактильнымирецепторами.

· Обонятельная -- воспринимаемая обонятельнымирецепторами.

· Вкусовая -- воспринимаемая вкусовымирецепторами.

2. по форме представления:

· Текстовая-- передаваемая в виде символов, предназначенных обозначать лексемы языка.

· Числовая-- в виде цифр и знаков, обозначающих математические действия.

· Графическая-- в виде изображений, предметов, графиков.

· Звуковая-- устная или в виде записи и передачи лексем языка.

3. по назначению:

· Массовая-- содержит тривиальные сведения и оперирует набором понятий, понятным большей частисоциума.

· Специальная -- содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

· Секретная -- передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

· Личная(приватная) -- набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

4. по значению:

· Актуальная -- информация, ценная в данный момент времени.

· Достоверная -- информация, полученная без искажений.

· Понятная -- информация, выраженная на языке, понятном тому, кому она предназначена.

· Полная -- информация, достаточная для принятия правильного решения или понимания.

· Полезная -- полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

5. по истинности:

· истинная

· ложная

Информация обладает следующими свойствами:

1. достоверность

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация обладает свойством устаревать, т. е. перестает отражать истинное положение дел.

2. полнота

Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

3. точность

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления.

4. ценность

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

5. своевременность

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

6. понятность

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

7. доступность

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

8. краткость

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозможных инструкциях.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений. Это позволяет количественно измерять информацию. Существует формула, которая связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение: N = 2i(формула Хартли). Иногда записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность p = 1 / N, то N = 1 / pи формула имеет вид:

I = log2 (1/p) = - log2 p

Если события неравновероятные, то:

hi = log2 1/pi = - log2 pi

где pi - вероятность появления в сообщении i-го символа алфавита.Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита

H = S pi hi = - S pi log2 pi

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi = 1 / N

В этом случае формула Шеннона превращается в формулу Хартли.

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица названа битом.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей - байт, причем:

1 байт = 8 битов = 23битов.

В информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и т. д., что соответствует десятичным приставкам "Кило" (103), "Мега" (106), "Гига" (109) и т. д.

В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент 2n

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 килобайт (Кбайт) = 210байт = 1024 байт;

1 мегабайт (Мбайт) = 210Кбайт = 1024 Кбайт;

1 гигабайт (Гбайт) = 210Мбайт = 1024 Мбайт.

Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации Icв сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:

Ic= IзK

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода

Двоичный компьютерный код

1

0

1

0

1

Количество информации

1 бит

1 бит

1 бит

1 бит

1 бит

Информациомнная энтропимя -- мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Энтропия -- это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Энтропия стала использоваться как мера полезной информации в процессах передачи сигналов по проводам. Под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. Если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле:

H + Y = 1

где Н - энтропия, Y- информация. Этот вывод количественно был обоснован Бриллюэном .

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом.

H = ?Pi log2 1/Pi = -?Pi log2 Pi

где Н - энтропия Шеннона, Pi- вероятность некоторого события.

Информационная двоичная энтропия для независимых случайных событий свозможными состояниями (отдо ,-- функция вероятности) рассчитывается по формуле:

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только-e состояние.

Таким образом, энтропия события является суммой с противоположным знаком всех произведений относительных частот появления события , умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

Свойства. Энтропия является количеством, определённым в контексте вероятностной модели для источника данных. Например, кидание монеты имеет энтропию:

бит на одно кидание (при условии его независимости), а количество возможных состояний равно:возможных состояния (значения) ("орёл" и "решка").

У источника, который генерирует строку, состоящую только из букв «А», энтропия равна нулю:

а количество возможных состояний равно:возможное состояние (значение) («А») и от основания логарифма не зависит. Это тоже информация, которую тоже надо учитывать. Примером запоминающих устройств в которых используются разряды с энтропией равной нулю, но с количеством информации равным 1 возможному состоянию, т.е. не равным нулю, являются разряды данных записанных в ПЗУ, в которых каждый разряд имеет только одно возможное состояние.

Некоторые биты данных могут не нести информации. Например, структуры данных часто хранят избыточную информацию, или имеют идентичные секции независимо от информации в структуре данных.

Количество энтропии не всегда выражается целым числом битов.

Математические свойства:

· Неотрицательность: .

· Ограниченность: Если все элементов из равновероятны,.

Если независимы, то

· Энтропия -- выпуклая вверх функция распределения вероятностей элементов.

Если имеют одинаковое распределение вероятностей элементов, то .

· Эффективность

Алфавит может иметь вероятностное распределение далекое от равномерного. Если исходный алфавит содержит символов, тогда его можно сравнить с «оптимизированным алфавитом», вероятностное распределение которого равномерное. Соотношение энтропии исходного и оптимизированного алфавита -- это эффективность исходного алфавита, которая может быть выражена в процентах. Эффективность исходного алфавита с символами может быть также определена как его арная энтропия.

Энтропия ограничивает максимально возможное сжатие без потерь (или почти без потерь), которое может быть реализовано при использовании теоретически -- типичного набора или, на практике, --кодирования Хаффмана, кодирования Лемпеля -- Зива -- Велча или арифметического кодирования.

Кодирование информации. Информация характеризуется содержанием (значением) и формой его представления. Она может быть представлена в аналоговой или дискретной формах. При аналоговом представлении физическая величина, используемая в качестве ее носителя, изменяется непрерывно (электрическое напряжение или ток). При дискретном (цифровом) представлении информации физическая величина, используемая в качестве ее носителя, принимает конечное множество значений.

Под кодированием понимается использование различных способов представления дискретной информации, специально приспособленных для конкретных ситуаций, связанных с ее передачей, хранением и переработкой. Другими словами, кодирование - это установление взаимно-однозначного соответствия между элементами данных и совокупностями символов в некотором алфавите, называемых кодами(кодовыми комбинациями, словами кода).

Решать задачу кодирования информации человечество начало задолго до появления компьютеров. Письменность и арифметика есть не что иное, как системы кодирования речи и числовой информации.

Постепенно люди пришли к выводу, что числа - это удобная форма представления самой различной информации. Так повелось с самых ранних стадий развития человеческой цивилизации. Но чтобы использовать числа, нужно их как-то называть и записывать, нужна система нумерации, или система счисления.

Изобретение компьютера привело к необходимости кодировать (представлять в формальном, стандартизованном виде) все типы информации.

В ЭВМ стандартом представления информации является ее двоичное кодирование, т. е. представление чисел, текстов, звука, изображения в виде цепочек нулей и единиц определенной длины. Следствием такой универсальности представления данных является невозможность определения того, какая именно информация (число, символ, команды и т.п.) хранится в ячейке памяти.

Система счисления - это совокупность приемов наименования и записи чисел в виде, удобном для прочтения и выполнения операций.

Система счисления называется позиционной, если любое число в ней изображается в виде последовательности цифр, количественное значение каждой из которых зависит от того, какое место (позицию) занимает она в коде числа.

В противном случае (если каждой цифре соответствует значение, не зависящее от ее положения в коде числа), система счисления называется непозиционной.

Основные достоинства любой позиционной системы счисления - простота выполнения арифметических операций и ограниченное количество символов, необходимых для записи любого числа, что облегчает занесение чисел на физический носитель.

Основанием позиционной системы счисления называется количество различных символов, используемых для изображения числа в данной системе счисления. информация восприятие доступность энтропия

Основание в любой системе записывается как 10, но в разных системах оно имеет разное количественное значение, так как показывает, во сколько раз изменяется количественное значение цифры при перемещении ее на соседнюю позицию. Другими словами, единицы различных разрядов представляют собой различные степени основания системы счисления.

Например, в десятичном числе 333 цифры 3, находящиеся на разных позициях, имеют различные количественные значения - 3 сотни, 3 десятка, 3 единицы, при перемещении цифры на соседнюю позицию ее вес (числовой эквивалент) изменяется в 10 раз.

Наименование системы счисления соответствует ее основанию (десятичная, двоичная, пятеричная и т.д.).

Позиционных систем счисления очень много, так как за основание системы можно принять любое число, большее или равное 2. Из всех позиционных систем счисления наиболее распространенной, за исключением десятичной, является двоичная система. Именно она используется для внутреннего представления данных в компьютере.

Символы, при помощи которых записывается число, называют цифрами.

Совокупность различных цифр, используемых в позиционной системе счисления для записи чисел, называется алфавитом системы счисления. Для десятичной системы счисления алфавит состоит из цифр 0, 1, 2, 3, 4, 5, 6, 7, 8 и 9. Алфавит двоичной системы счисления включает всего две цифры: 0 и 1.

Базисом позиционной системы счисления называют последовательность чисел, задающих «вес» единицы каждого разряда. Например, базис десятичной системы счисления определяется последовательностью 1, 10, 102, 103, ... , 10n, ... ; базис двоичной системы счисления - последовательностью 1, 2, 22, 23, ... , 2n, ... . Базисы позиционных систем счисления образуют геометрические прогрессии со знаменателями, равными основаниям системы.

Сформулируем правило записи числа в развернутом виде.

В позиционной системе счисления каждое число может быть единственным образом представлено в виде суммы произведений его десятичных знаков на степени основания, соответствующие позициям этих знаков:

A q =(an-1q n-1+ an-2qn-2+...+ a0q0+ a-1q-1+ a-2q-2+...+ a-mq-m)

Такую форму записи называют также многочленной или степенной.

Здесь:

A q- само число;

q- основание системы счисления;

a i- цифры данной системы счисления (i- позиция цифры в записи числа);

n- число разрядов целой части числа;

m- число разрядов дробной части числа.

Например, десятичное число A 10 = 4718,63в развернутой форме запишется так: А 10= 4103+ 7102+ 1101+ 8100+ 610-1+ 310-2.

Свернутой формойзаписи числа (естественной, цифровой) называется его представление в виде:

A = a n-1 a n-2 ... a 1 a 0 , a -1 ... a -m... .

В приведенном примере 4718,63- естественная запись числа (запись числа в свернутой, цифровой, форме).

Связь между системами счисления. Одно и то же число может быть записано в различных системах счисления. Существуют правила, определяющие порядок перевода числа из одной системы счисления в другую.

Правило перевода чисел из двоичной системы в десятичную(перевод по степенному ряду) можно сформулировать следующим образом: все цифры числа и основание двоичной системы заменяются их десятичными эквивалентами; число представляется в виде суммы произведений степеней на значения соответствующих позиций; затем производится арифметический подсчет.

Например: переведем двоичное число 1010110,11 в десятичную систему счисления. Для этого выполним преобразования: 1010110,112 = 1 2 6 + 1 2 4 + 1 2 2 + 1 2 1 +1 2 -1 + 1 2 - 2 = 86,7510, т.е. 1010110,112 = 86,7510

Правила перевода чисел из десятичной системы в двоичную различны для целой и дробной частей числа. Эти правила сформулированы ниже.

Для перевода целого числа(или целой части смешанного числа) используется алгоритм последовательного деления исходного числа, а затем образующихся частных от деления на основание новой системы (т.е. на 2), причем действия производятся в старой (десятичной) системе. Деление прекращается, как только очередное частное от деления станет равным 0. Остатки от деления, выписанные в обратном порядке, образуют результат.

Например, десятичное число 11 в двоичную систему счисления переводится следующим образом: число 11 в десятичной записи делим на 2; остаток от деления запоминаем, а частное снова делим на два; процесс деления продолжается, пока частное от деления не станет равным 0; двоичное число «склеивается» из остатков от деления, которые могут быть только нулями или единицами, причем остатки включаются в число в порядке, обратном тому, в каком они были получены (стрелкой показан порядок записи двоичных цифр). Собирая остатки от деления в направлении, указанном стрелкой, получим 1011:

Таким образом, 1110=10112. Аналогично: 110=12, 210=102, 310=112, 410=1002, 510=1012, 610=1102, 710=1112, 810=10002, 910=10012, 1010=10102, 1110=10112, 1210=11002, 1310=11012, 1410=11102, 1510=11112и т.д.

Для перевода дробной части используется алгоритм последовательного умножения на основание новой системы (2), действия производятся в старой (десятичной) системе, целые части полученных произведений дают запись результата.

Например, переведем десятичную дробь 0,875 в двоичную систему счисления. В данном случае результатом является двоичное число 0,1112(действительно:0,1112 =020+12 -1+12 -2 +12 -3 =0,5+0,25+0,125=0,875). Умножение естественным образом прекращается, когда дробная часть становится равной 0.

Но что будет, если попробовать перевести в двоичную систему, например, число 0,7? Когда в этом случае прекратить умножение? Этот процесс может продолжаться бесконечно, давая все новые и новые знаки в изображении двоичного эквивалента числа 0,710. Так, за четыре шага мы получаем число 0,10112, а за семь шагов - число 0,10110012, которое является более точным представлением числа 0,710 в двоичной системе счисления, и т.д. Такой бесконечный процесс обрывают на некотором шаге, когда считают, что получена требуемая точность представления числа.

Таким образом, видно, что от выбора системы счисления зависит точность представления чисел, удобство их обработки. Компьютеры работают с данными, которые закодированы определенным образом, следовательно, при разработке аппаратных средств вычислительной техники необходимо выбрать оптимальный способ кодирования данных.

Системы счисления, используемые в ЭВМ. От того, какая система счисления будет использована в ЭВМ, зависит скорость вычислений, емкость памяти, сложность алгоритмов выполнения операций. Дело в том, что для физического представления чисел необходимы элементы, способные находиться в одном из нескольких устойчивых состояний. Число этих состояний должно быть равно основанию принятой системы счисления, тогда каждое состояние будет представлять соответствующую цифру из алфавита данной системы счисления.

Десятичная система счисления, привычная для нас, не является наилучшей для использования в ЭВМ, так как при реализации в ЭВМ этой системы счисления необходимы функциональные элементы, имеющие ровно десять устойчивых состояний. Создание электронных элементов, имеющих много устойчивых состояний, затруднительно.

Наиболее простыми с точки зрения технической реализации являются двухпозиционные элементы, способные находиться в одном из двух устойчивых состояний, например: электромагнитное реле замкнуто или разомкнуто, ферромагнитная поверхность намагничена или размагничена, магнитный сердечник намагничен в одном направлении или в противоположном, транзисторный ключ находится в проводящем состоянии или запертом и т.д. Одно из этих устойчивых состояний представляется цифрой 0, другое - цифрой 1.

С двоичной системой связаны и другие преимущества. Она обеспечивает максимальную помехоустойчивость в процессе передачи информации. В ней предельно просто выполняются арифметические действия и возможно применение аппарата булевой алгебры для выполнения логических преобразований.

Благодаря этим особенностям двоичная система стала стандартом при построении ЭВМ.

Недостаток двоичной системы счисления - большое число разрядов двоичного кода и его зрительная однородность.

Как правило, пользователь ЭВМ вводит исходную информацию и получает результат решения задачи в более привычной для него форме (например: числа представляются в десятичной системе счисления, используются символьные данные и т.д.).

То, какие типы данных представимы в ЭВМ (т.е. поддерживаются ее аппаратурой, могут храниться и обрабатываться с ее помощью), зависит от ее аппаратуры.

Современные компьютеры обычно позволяют работать с двоичными целыми и действительными числами, двоично-десятичными числами, символьными данными и т.д.

Внутреннее представление данных в памяти компьютера. Обрабатываемые с помощью компьютера данные записываются в специальных запоминающих устройствах, называемых памятью. Двоичное кодирование используется для представления в компьютере как числовой, так и текстовой, графической, звуковой информации. Форматы представления данных в памяти компьютера определяют диапазоны значений, которые эти данные могут принимать, скорость их обработки, объем памяти, который требуется для хранения данных.

Существуют две формы представления числовых данных, предназначенные для целых и действительных чисел соответственно.

Целые числа точно представляются в памяти компьютера и позволяют выполнять операции без погрешностей. Целочисленная арифметика позволяет реализовать операции деления нацело с остатком (причем можно в качестве результата получить как частное от деления, так и остаток). Именно целые числа используются при решении многих экономических задач и задач управления (примерами данных, представленных целочисленными величинами, являются количество акций, сотрудников, транспортных средств, деталей, единиц боевой техники и т.п.; целые числа служат для нумерации элементов в различных наборах данных, для обозначения даты и времени, для кодирования текста, изображения и звука), реализации средств криптографической защиты информации (защиты с помощью шифрования), в программах электронной почты и в средствах навигации в Internet для записи адреса и т.д. Поэтому аппаратурой компьютеров обычно поддерживается несколько форматов представления целочисленных данных и множество операций над ними.

Целые числа в памяти компьютера всегда хранятся в формате с фиксированной точкой, что, безусловно, ограничивает диапазон чисел, с которыми может работать компьютер, и требует учета особенностей организации выполнения арифметических действий в ограниченном числе разрядов.

Рассмотрим подробнее это представление.

Все числа, которые хранятся в памяти компьютера, занимают определенное количество двоичных разрядов. Это количество определяется форматом числа. Обычно для представления целых чисел используются несколько форматов (например, в IBM-совместимых персональных компьютерах поддерживается три формата: байт (8 разрядов), слово (16 разрядов), двойное слово (32 разряда)). Целые числа вписываются в разрядную сетку, соответствующую формату. Для целых чисел разрядная сетка имеет вид:

где b i- разряды двоичной записи целого числа (запись числа имеет видb n-2b n-3...b 1b 0, разделитель между целой и дробной частью числа зафиксирован послеb0, дробной части нет);S- разряд, отведенный для представления знака числа (для положительных чисел знак «+» кодируется цифрой 0, а знак «-» для отрицательных - цифрой 1);n- количество двоичных разрядов в разрядной сетке.

Если двоичная запись числа оказывается короче отведенной для его хранения в памяти компьютера разрядной сетки, то старшие разряды заполняются нулями.

Например, число 1110=10112в формате байта будет записано так:

(старший (знаковый) разряд заштрихован). В формате слова (16 разрядов) то же число будет выглядеть так:

Отрицательные числа для упрощения выполнения операций хранятся в дополнительном коде, который получается путем обращения (инверсии) всех разрядов в двоичной записи числа, вписанной в разрядную сетку, и добавления 1. Например, число -1110в формате байта в памяти компьютера будет получено следующим образом.

Вычисляется прямой код:

затем выполняется инверсия полученного прямого кода (получается обратный код):

к обратному коду прибавляется 1:

получается дополнительный код - запись отрицательного числа -1110в памяти компьютера:

Такая запись чисел ограничивает диапазоны значений, с которыми может работать компьютер. Например, для чисел в формате байта представимы значения от -128 (-27) до 127 (27-1), для чисел в формате слова - от -32 768 (-215) до 32 767 (215-1), а длинные целые числа в формате двойного слова могут принимать значения из диапазона от -2 147 483 648 до 2 147 483 647.

Если по условиям задачи используются только положительные значения, то их можно хранить в формате чисел без знака - старший разряд рассматривается как разряд, содержащий двоичную цифру записи числа, а не знак. При этом диапазон представимых положительных чисел увеличивается. Например, в байт можно записать числа от 0 до 255 (28-1), а в слово - значения от 0 до 65535 (216-1).

Особенности представления чисел в памяти компьютера могут привести и к ошибкам при обработке данных.

Рассмотрим пример. Предположим, что программа выполняет функции подсчета каких-либо объектов, и для хранения количества этих объектов используется представление данных в формате целого числа со знаком, записанного в байт. Рассмотрим ситуацию, когда количество объектов уже стало равным 127 и увеличивается еще на 1. Результат должен быть равен 128, но сможем ли мы его получить с помощью компьютера, если работаем со знаковыми числами в формате байта?

Целое число 127 в памяти компьютера будет представлено цепочкой нулей и единиц 01111111. При добавлении единицы будет получено число 10000000:

(действия в двоичной системе счисления выполняются так же, как и в десятичной, но используются только две цифры, поэтому, если при сложении разрядов получается значение большее 1, происходит перенос в старший разряд). Но старший разряд является знаковым! Поэтому в результате сложения компьютер получит целое число -128, записанное своим дополнительным кодом. И именно это отрицательное число будет затем использовано во всех вычислениях.

Этот пример демонстрирует возможность появления ошибок при выполнении программ вследствие неправильно выбранных форматов для представления данных.

Таким образом, при выполнении программ может возникнуть ситуация, когда полученные результаты не смогут «вписаться» в отведенную для них разрядную сетку, произойдет ее «переполнение».

Разработчики программ должны отслеживать такие ситуации и предотвращать подобные ошибки, а пользователи должны четко формулировать требования к условиям эксплуатации программ, их входным данным и результатам. Игнорирование этих требований может создать серьезные проблемы.

Поэтому при разработке программного обеспечения очень важно знать, с какими диапазонами значений будет работать программа. Это позволит правильно определить форматы представления чисел и предупредить возможные ошибки при обработке данных.

Каждый раз при вводе данных в компьютер происходит преобразование числовых данных, введенных пользователем с клавиатуры в виде строки символов, представляющей десятичную запись числа, во внутреннее двоичное представление числа. При выводе результатов осуществляются обратные преобразования. Эти преобразования требуют времени. Поэтому для систем, в которых вводится и выводится большой объем информации, осуществляется ее поиск, происходит замедление выполнения программ вследствие постоянных переводов информации из одной формы представления в другую. Для представления данных в таких системах (а именно к ним относится большинство программ для решения экономических задач и задач управления) используется еще одна форма представления данных в памяти компьютера - двоично-десятичные данные.

При использовании двоично-десятичнойформы представления данных десятичные числа также представляются с помощью двоичных кодов, но в двоичную систему переводится не все число, а каждая его цифра отдельно. Так как используется всего десять десятичных цифр от 0 до 9, а для представления старшей цифры 9 достаточно четырех двоичных цифр (910=10012), то каждая десятичная цифра в записи числа кодируется четырьмя двоичными цифрами в его двоично-десятичном представлении в памяти компьютера. Например, число 105910представляется в памяти компьютера следующим образом:

Двоично-десятичные данные могут использоваться не только для представления целых чисел, но и для представления чисел, имеющих дробную часть.

Знак числа и позиция десятичного разделителя в нем кодируются отдельно. Для двоично-десятичных чисел также существуют различные форматы записи чисел в памяти компьютера. Конкретные форматы определяются его архитектурными особенностями.

При использовании двоично-десятичного представления проще выполняется преобразование данных при вводе/выводе, но усложняются алгоритмы выполнения операций. Поэтому такая форма представления применяется там, где данные не подвергаются сложной обработке, где нет объемных вычислений.

Решение проблем математического моделирования в естественных науках, экономике и технике, работа с системами автоматического проектирования, электронными таблицами невозможны без использования вещественных (действительных) чисел.

Для представления этих чисел разработана специальная форма - данные в памяти компьютера хранятся в форме с плавающей точкой. Такое представление основано на записи числа в экспоненциальном виде, где разряды в записи числа представляются мантиссой M, а положение точки определяется указанием порядка p:M 10 p.

При использовании такой формы представления часть разрядов разрядной сетки, в которую помещается число в памяти компьютера, отводится для хранения порядка числа p, а остальные разряды - для хранения мантиссы M:

Порядок числа и его мантисса хранятся в двоичном коде, поэтому перед их определением число переводится в двоичную систему.

Точность вычислений зависит от длины мантиссы, а порядок числа определяет допустимый диапазон представления действительных чисел. Например, в IBM-совместимых персональных компьютерах используются три формата представления данных в форме с плавающей точкой (32 разряда, 64 разряда и 80 разрядов), позволяющие представлять три диапазона положительных вещественных чисел: от 1,510 45 до 3,41038, от 510324 до 1,710308 и от 1,9104951 до 1,1104932. Для представления положительных чисел в знаковый разряд записывается значение 0, а отрицательных чисел - 1. Порядок и мантисса записываются как целые числа.

Такая форма представления чисел усложняет функциональную схему компьютера, так как операции над числами с плавающей точкой значительно сложнее. Для ускорения обработки числовых данных в его состав включаются специальные устройства.

Особенности представления вещественных чисел в памяти компьютера определяют свойства машинных чисел: при переводе дробной части десятичного числа в формат с плавающей точкой происходит его округление до количества разрядов, определяемых длиной мантиссы; ограниченная длина мантиссы приводит к погрешности при выполнении операций («лишние» разряды отсекаются или происходит округление); вещественные числа нельзя сравнивать на равенство, их можно только проверять на принадлежность определенным диапазонам.

Текстовые данные рассматриваются как последовательность отдельных символов, каждому из которых ставится в соответствие двоичный код некоторого неотрицательного целого числа.

Существуют разные способы кодирования символов.

Наиболее распространенной до последнего времени была кодировка ASCII(AmericanStandardCodeforInformationInterchange). При использовании этой кодировки для представления каждого символа используется ровно 8 разрядов (один байт). Таким образом, имеется возможность кодирования 256 символов (они получают коды от 0 до 255). С помощью такой кодировки можно хранить только символы текста (без элементов форматирования или оформления).

Для отображения текстового документа с разбивкой его на строки, с выравниванием и т.п. в него наряду с обычными символами, представляющими буквы, цифры, знаки препинания, разделители, включаются специальные (управляющие) символы (например: «перевод строки», «возврат каретки», «табуляция» и т.д.).

Соответствие символов и их кодов можно установить с помощью специальной таблицы. В России используются элементы таблицы альтернативной модифицированной кодировки, в первой части которой размещены символы ASCII(цифры, буквы латинского алфавита, знаки препинания, управляющие символы), а во второй половине - буквы русского алфавита, символы псевдографики, которые позволяют включить в текст простейшие рисунки и таблицы, составленные из вертикальных и горизонтальных линий).

ASCII позволяет закодировать только 256 символов. Это неудобно, так как существуют языки, где символов больше. Поэтому разрабатываются другие коды (наборы символов), например двухбайтовые наборы символов (DBCS-double-bytecharactersets). В этом двухбайтовом коде символы представляются одним и двумя байтами, что неудобно для организации обработки такой информации (для каждого символа сначала нужно определить длину его кода, а уж потом сам символ).

Наиболее перспективным для использования является Unicode- стандарт, разработанный несколькими фирмами (сначала -AppleиXerox). В этом коде все символы состоят из 16 битов. Это позволяет кодировать свыше 65 тыс. символов (216). В этом коде для каждого алфавита определены свои кодовые позиции(codepoints), т.е. все 65536 символов (кодов) разбиты на отдельные группы (например: 0100-017F - европейские латинские, 0180-01FF- расширенные латинские, 0250-02AF- стандартные фонетические, 0370-03FF- греческий, 0400-04FF- кириллица и т.д.). Около 29 000 кодовых позиций пока не заняты, но зарезервированы для использования. Таким образом, Unicode допускает обмен данными на разных языках - каждому коду соответствует единственный символ, коды не пересекаются для разных языков.

На Unicode целиком построена операционная система Windows NT. У Windows 95/98 16 битное «наследство», поэтому вся внутренняя работа в этой ОС построена на использовании ANSI-строк (ANSI-AmericanNationalStandardsInstitute), в которых каждый символ записан в один байт.

ANSI-текст (или текст ASCII) - это текст без форматирования (с ним работает, например, приложение «Блокнот» в Windows 9х).

Если для представления информации в разных информационных системах используются разные кодировки, эти программы «не поймут» друг друга, поэтому может оказаться, что данные, подготовленные в одном месте, не смогут прочитать в другом. Например, текст, введенный с помощью программы «Блокнот» в Windows, нельзя будет прочитать в MSDOS.

Способ представления графических изображений, отображаемых на экране, называют матричным. При этом экран дисплея ЭВМ рассматривается как двумерный массив отдельных точек (пикселов), состояние каждой из которых (цвет и яркость) кодируется неотрицательным целым двоичным числом.

Звук представляет собой непрерывный сигнал, колебания частиц среды, распространяющиеся в виде волн и воспринимаемые органами слуха. Чтобы закодировать звук, его надо сначала подвергнуть дискретизации. Этот процесс состоит в измерении и запоминании в памяти компьютера характеристик звуковой волны (амплитуды и периода) в виде двоичного кода, он выполняется аналого-цифровым преобразователем несколько десятков тысяч раз в секунду через равные промежутки времени. При воспроизведении двоичные коды подаются на вход цифро-аналогового преобразователя с той же частотой, что и при дискретизации, преобразуются в электрическое напряжение, а затем с помощью усилителя и динамика - в звук. Такой способ звукозаписи, называемый цифровым, требует большого объема памяти компьютера, у оцифрованного звука трудно менять тональность или тембр. Для кодирования музыки чаще используется не запоминание параметров звуковых волн, а запись последовательности команд, например: какую клавишу нажать, какова сила давления, сколько времени удерживать клавишу нажатой и т.д. Такая MIDI-запись аналогична нотной записи. Она компактна, в ней легко производится смена инструмента или тональность мелодии.

Размещено на Allbest.ru


Подобные документы

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Сущностные характеристики информации. Классификация информации по форме представления, области возникновения, способу передачи и восприятия и способам кодирования. Анализ основных единиц измерения информации, служащих для измерения объёма информации.

    реферат [77,6 K], добавлен 04.10.2011

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Задачи и постулаты прикладной теории информации. Разновидности помехоустойчивых кодов. Кодирование информации для канала с помехами. Энтропия при непрерывном сообщении. Количественная оценка информации. Условная и взаимная энтропия и ее свойства.

    курс лекций [3,2 M], добавлен 28.04.2009

  • Понятие и назначение носителя информации, его разновидности и характерные особенности, возможности применения. Аппаратура систем обработки информации в технике и управлении. Виды информации в зависимости от формы ее представления, ее свойства и значение.

    контрольная работа [263,6 K], добавлен 08.03.2010

  • Количество информации и ее мера. Определение количества информации, содержащегося в сообщении из ансамбля сообщений источника. Свойства количества информации и энтропии сообщений. Избыточность, информационная характеристика источника дискретных сообщений.

    реферат [41,4 K], добавлен 08.08.2009

  • Способы передачи и хранения информации наиболее надежными и экономными методами. Связь между вероятностью и информацией. Понятие меры количества информации. Энтропия и ее свойства. Формула для вычисления энтропии. Среднее количество информации.

    реферат [99,7 K], добавлен 19.08.2015

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Информатика - техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. Формы представления информации, ее свойства. Кодирование информации, единицы ее измерения.

    презентация [117,7 K], добавлен 28.03.2013

  • Понятие информации как одно из фундаментальных в современной науке и базовое для информатики. Дискретизация входной информации как условие пригодности для компьютерной обработки. Понятия, виды, свойства информации, ее классификация. Информация и рынок.

    курсовая работа [31,0 K], добавлен 12.10.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.