Информатика и вычислительная техника

Понятие и характерные черты информации. Виды сигнала как материального носителя информации. Правила выполнения простейших арифметических действий. Рассмотрение особенностей структурного, статистического и семантического подходов к измерению информации.

Рубрика Программирование, компьютеры и кибернетика
Вид учебное пособие
Язык русский
Дата добавления 23.06.2018
Размер файла 758,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

исходный информационный проверочные результирующий

символ разряд разряды код

a 0 00 000

b 1 11 111

Очевидно, кодовое расстояние равно 3, а построенные кодовые комбинации являются разрешенными.

Определим общее число всевозможных комбинаций, если число разрядов кода равно 3:

000 - разрешенная кодовая комбинация,

001

010

011

100

101

110

111 - разрешенная кодовая комбинация.

Определим подмножества кодовых комбинаций, которые отстояли бы от каждой разрешенной на минимальное расстояние, равное 1:

для 000 для 111

001 011

010 101

100 110

Пусть передается кодовая комбинация 000 (символ a) и на нее накладывается ошибка кратности 1. В табл. 2.21 показаны полученные кодовые комбинации и их декодирование:

Таблица 2.21.

Результат декодирования

Передаваемая

кодовая

комбинация

Вектор

ошибки

Принимаемая

кодовая

комбинация

Результат

исправления

Результат

декодирования

000

100

100

000

a

000

010

010

000

a

000

001

001

000

a

Таким образом, построенный код позволяет исправлять ошибки кратности 1.

Пример 2.27. Построить помехозащитный код, исправляющий ошибку кратности 1, для передачи символов: a, b и c.

Построим первичный код: a - 00; b - 01; c - 10.

Для решения поставленной задачи необходимо обеспечить d = 3.

Воспользуемся схемой формирования кода Грея из рассмотренного ранее примера:

00

01

11

000

a

011

b

101

c

Таким образом, получены коды: a - 00000, b - 01101, c- 10111.

Кодовое расстояние d = min{dab, dac, dbc} = min{3,4,3} = 3 обеспечивает исправление ошибки кратности q = 1.

Рассмотрим, как исправляются ошибки в данном случае. Все множество кодовых комбинаций пятиразрядного двоичного кода равно 25 = 32. Из них три кодовые комбинации - разрешенные, остальные - запрещенные. Разобьем кодовые комбинации на три подмножества, в каждое из которых будут входить: одна разрешенная и те запрещенные, которые отстоят от разрешенной на расстояние в 1. Имеем:

для 00000 для 01101 для 10111

00001 01100 10110

00010 01111 10101

00100 01001 10011

01000 00101 11111

10000 11101 00111

Очевидно, общее число кодовых комбинаций, включенных в построенные подмножества, равно 24. Оставшиеся 8 кодовых комбинаций являются следствием ошибки кратности больше 1 и в сформированные подмножества не включены - такие ошибки данный код исправить не может.

Проверим, как выполняется исправление ошибки кратности 1. Пусть передается кодовая комбинация 01101 (символ b) и на нее накладывается ошибка кратности 1. В табл. 2.22 показаны полученные кодовые комбинации и их декодирование:

Таблица 2.22.

Результат декодирования

Передаваемая

кодовая

комбинация

Вектор

ошибки

Принимаемая

кодовая комбинация

Результат

исправления

Результат

декодирования

01101

10000

11101

01101

b

01101

01000

00101

01101

b

01101

00100

01001

01101

b

01101

00010

01111

01101

b

01101

00001

01100

01101

b

Пусть на ту же кодовую комбинацию накладывается ошибка кратности 2 (табл. 2.23). Результирующие кодовые комбинации либо невозможно декодировать, либо декодирование неверно.

Таблица 2.23.

Результат декодирования

Передаваемая

кодовая

комбинация

Вектор

ошибки

Принимаемая

кодовая

комбинация

Результат декодирования

01101

10001

11100

Невозможно декодировать

01101

01001

00100

То же

01101

00101

01000

a

01101

00011

01110

Невозможно декодировать

01101

10010

11111

с

01101

01010

00111

То же

01101

00110

01011

Невозможно декодировать

01101

10100

11001

То же

01101

01100

00001

а

01101

11000

10101

с

В заключение отметим, что для обнаружения ошибки кратности q1 и исправления ошибки кратности q2 при q1 q2 минимальное кодовое расстояние должно удовлетворять следующему соотношению (2.6):

d q1 + q2 + 1. (2.6)

3. Измерение информации

В информатике измерению подвергается информация, представленная как дискретным, так и аналоговым сигналами. При этом различают следующие подходы:

структурный подход. Измеряет количество информации простым подсчетом информационных элементов, составляющих сообщение, или подсчетом числа сообщений. Данный метод применяется только для дискретных сигналов,

статистический подход. Учитывает вероятность появления сигналов: более информативным считается тот сигнал, который менее вероятен, т.е. менее всего ожидаем. Применяется для обоих видов сигналов,

семантический подход. Учитывает целесообразность и полезность информации. Применяется для обоих видов сигналов.

3.1. Структурный подход к измерению информации

В рамках структурного подхода выделяют три меры информации:

геометрическую;

комбинаторную;

аддитивную, или меру Хартли.

3.1.1. Геометрическая мера

Измеряет информацию подсчетом информационных элементов в дискретном сигнале. Единица измерения - информационный элемент. Мера может быть использована, например, для определения информационной емкости памяти компьютера. В этом случае в качестве информационного элемента выступает минимальная единица хранения - бит. Список самых распространенных более крупных единиц и соотношение между ними приведено ниже:

8 бит = 1 байт (сокращенно б или Б),

1024 Б = 1 килобайт (сокращенно Кб или К),

1024 К = 1 мегабайт (сокращенно Мб или М),

1024 М = 1 гигабайт (сокращенно Гб или Г).

Тогда, например, объем винчестера - 3 гигабайта; объем основной памяти компьютера - 32 мегабайта и т.д.

Пример 3.1. Пусть сообщение 5555 6666 888888 закодировано одним из специальных методов эффективного кодирования - кодированием повторений - и имеет вид: 5(4) 6(4) 8(6) .

Измерить информацию I в исходном - Iисх и закодированном - Iкод сообщениях геометрической мерой и оценить эффективность кодирования.

В качестве информационного элемента зададимся символом сообщения. Тогда:

Iисх = lисх = 14 символов;

Iкод = lкод = 12 символов,

где lисх, lкод - число символов (длина) соответствующего сообщения.

Эффект кодирования определяется как разница между Iисх и Iкод и составляет 2 символа.

Очевидно, геометрическая мера не учитывает, какими символами заполнено сообщение. Так, одинаковыми по количеству информации, измеренной геометрической мерой, являются, например, сообщения «компьютер» и «программа», также 346 и 101, тест и test.

3.1.2. Комбинаторная мера

Оценивает возможность представления информации при помощи различных комбинаций информационных элементов в заданном объеме. Использует типы комбинаций элементов и соответствующие математические соотношения, которые приводятся в одном из разделов дискретной математики - комбинаторике (необходимые положения приведены в приложении 1).

Комбинаторная мера может использоваться для оценки информационных возможностей некоторого автомата, который способен генерировать дискретные сигналы (сообщения) в соответствии с определенным правилом комбинаторики (см. приложение 1).

Пусть, например, есть автомат, формирующий двузначные десятичные целые положительные числа (исходный алфавит - десятичные цифры 0,1,2,3,4,5,6,7,8,9). В соответствии с положениями комбинаторики данный автомат генерирует числа со следующими характеристиками:

1) числа формируются по правилу размещения, поскольку различаются числа, например, 34 и 43,

2) числа формируются из 10 элементов, поскольку используются 10 цифр,

3) в число включаются по 2 символа, поскольку по условию задачи формируются двузначные числа,

4) возможны повторения цифр в числе - очевидно, возможны числа, состоящие из одинаковых цифр, например, 33.

Тогда можно оценить, сколько различных сообщений (двузначных чисел) может сформировать автомат, иначе говоря, можно оценить информационную емкость данного устройства: .

Комбинаторная мера используется для определения возможностей кодирующих систем, которые широко используются в информационной технике.

Пример 3.2. Определить емкость ASCII-кода, представленного в двоичной или шестнадцатеричной системе счисления.

ASCII-код позволяет формировать сообщения по правилу размещений с повторениями:

для двоичного представления - из символов алфавита {0, 1}, сообщение длиной (объемом) 8 символов;

для шестнадцатеричного представления - из символов алфавита {0,1,2,….,А,В, С,D,E,F}, сообщение длиной (объемом) 2 символа.

Тогда: ,

где Iдвоичное, Iшестнадцатеричное - количества информации, соответственно, для двоичного и шестнадцатеричного представления ASCII-кода.

Таким образом, емкость ASCII-кода для двоичного и шестнадцатеричного представления одинакова и равна 256.

Следует отметить, что все коды постоянной длины формируются по правилам комбинаторики или их комбинациям.

В случае когда сообщения формируются как размещения с повторениями из элементов алфавита мощности h и известно количество сообщений М, можно определить требуемый объем сообщения (т.е. его длину l) для того, чтобы в этом объеме представить все сообщения: , где скобки [] означают округление в большую сторону.

Например, есть 4 сообщения - a, b, c, d. Выполняется двоичное кодирование этих сообщений кодом постоянной длины. Для этого требуются два двоичных разряда. В самом деле: .

Очевидно, комбинаторная мера является развитием геометрической меры, так как помимо длины сообщения учитывает объем исходного алфавита и правила, по которым из его символов строятся сообщения.

Особенностью комбинаторной меры является то, что ею измеряется информация не конкретного сообщения, а всего множества сообщений, которые могут быть получены.

Единицей измерения информации в комбинаторной мере является число комбинаций информационных элементов.

3.1.3. Аддитивная мера

Эта мера предложена в 1928 году американским ученым Хартли, поэтому имеет второе название - мера Хартли. Он впервые ввел специальное обозначение для количества информации - I и предложил следующую зависимость для расчета количества информации: , где I - количество информации, содержащейся в сообщении; l - длина сообщения; h - мощность исходного алфавита.

При исходном алфавите {0,1}; l=1; h=2 имеем I=1*log22=1. Данная формула даёт аналитическое определение бита (BIT - BInary digiT) по Хартли: это количество информации, которое содержится в двоичной цифре.

Единицей измерения информации в аддитивной мере является бит.

Пример 3.3. Рассчитать количество информации, которое содержится в шестнадцатеричном и двоичном представлении ASCII-кода для числа 1.

В соответствии с таблицей ASCII-кодов имеем:

· шестнадцатеричное представление числа 1 - 31, I=2*log216=8 бит,

· двоичное представление числа 1 - 00110001, I=8*log22=8 бит.

Таким образом, разные представления ASCII-кода для одного символа содержат одинаковое количество информации, измеренной аддитивной мерой.

В то же время, если те же два сообщения - 31 и 00110001 - измерить геометрической мерой, объем информации в них различен: 2 и 8 символов соответственно.

Пример 3.4. Рассчитать количество информации в сообщениях: тест и test.

Поскольку мощности кириллицы и латиницы равны, соответственно, 33 и 26, имеем: 33=20,178 бит, =18,8 бит. Очевидно, будучи измерены геометрической мерой, данные сообщения содержат одинаковое количество информации.

3.2. Статистический подход к измерению информации

В 30-х годах ХХ века американский ученый Клод Шеннон предложил связать количество информации, которое несет в себе некоторый сигнал, с вероятностью получения этого сигнала.

Вероятность p - количественная априорная (т.е. известная до проведения опыта) характеристика одного из исходов некоторого опыта. Измеряется в пределах от 0 до 1. Если заранее известны все исходы опыта, сумма их вероятностей равна 1, а сами исходы составляют полную группу событий. Если все исходы могут свершиться с одинаковой вероятностью, они называются равновероятными.

Например, пусть опыт состоит в сдаче студентом экзамена по информатике. Очевидно, у этого опыта всего 4 исхода (по количеству возможных оценок, которые студент может получить на экзамене). Тогда эти исходы составляют полную группу событий, т.е. сумма их вероятностей равна 1. Если студент учился хорошо в течение семестра, значения вероятностей всех исходов могут быть, например, такими: p(5) = 0,5; p(4) = 0,3; p(3) = 0,1; p(2) = 0,1. Здесь запись p(j) означает вероятность получения оценки j (j = {2,3,4,5}).

Если студент учился плохо, можно заранее оценить возможные исходы сдачи экзамена, т.е. задать вероятности исходов, например, следующим образом: p(5) = 0,1; p(4) = 0,2; p(3) = 0,4; p(2) = 0,3.

В обоих случаях сумма вероятностей равна 1.

Пусть можно получить n сигналов по результатам некоторого опыта (т.е. у опыта есть n исходов), причем известны вероятности получения каждого сигнала (исхода) - pi. Тогда, в соответствии с идеей Шеннона, количество информации I в i-м сигнале определяется по формуле (3.1):

, (3.1)

где pi - вероятность i-го сигнала.

Пример 3.5. Определить количество информации, содержащейся в сигнале о результате сдачи экзамена для студента-хорошиста, для которого p(5)=0,5; p(4)=0,3; p(3)=0,1; p(2)=0,1.

Пусть I(j) - количество информации в сигнале о получении оценки j. Тогда имеем:

,

,

3,32,

3,32.

Пример 3.6. Определить количество информации, содержащейся в сигнале о результате сдачи экзамена для плохо успевающего студента, для которого p(5)=0,1; p(4)=0,2; p(3)=0,4; p(2)=0,3:

,

,

,

.

Таким образом, количество получаемой с сигналом информации тем больше, чем неожиданнее данный сигнал.

Этот тезис использован при эффективном кодировании кодами переменной длины (т.е. имеющими разную геометрическую меру): исходные символы, имеющие большую частоту (или вероятность), имеют код меньшей длины, т.е. несут меньше информации в геометрической мере, и наоборот.

Соотношение (3.1) позволяет определять также размер двоичного эффективного кода, требуемого для представления того или иного сообщения, имеющего определенную вероятность появления. Поскольку размер кодовой комбинации - целое число, модифицируем формулу (3.1): , где l - число разрядов кода, скобки [] означают округление в сторону ближайшего большего целого числа.

Пример 3.7. Есть 4 сообщения: a, b, c, d с вероятностями, соответственно, р(a)=0,5; р(b)=0,25; р(c)=0,125; р(d)=0,125. Определить число двоичных разрядов, требуемых для кодирования каждого их четырех сообщений:

,

2,

,

3.

Помимо информационной оценки одного сигнала, Шеннон предложил количественную информационную оценку всех сигналов, которые можно получить по результатам проведения некоторого опыта. Так, среднее количество информации Iср, получаемой со всеми n сигналами, определяется по формуле (3.2):

где pi - вероятность i-го сигнала.

Пример 3.8. Определить среднее количество информации, получаемое студентом-хорошистом, по всем результатам сдачи экзамена:

Iср=-(0,5*log20,5+0,3*log20,3+0,1*log20,1+0,1*log20,1)=1,67.

Пример 3.9. Определить среднее количество информации, получаемое плохо успевающим студентом, по всем результатам сдачи экзамена:

Iср=- (0,1*log20,1+0,2*log20,2+0,4*log20,4+0,3*log20,3)=1,73.

Большее количество информации, получаемое во втором случае, объясняется большей непредсказуемостью результатов: в самом деле, у отличника два исхода равновероятны.

Пусть у опыта два равновероятных исхода, составляющих полную группу событий, т.е. p1=p2=0,5. Тогда имеем: Iср=-(0,5*log20,5+0,5*log20,5)=1. Данная формула есть аналитическое определение бита по Шеннону: это среднее количество информации, которое содержится в двух равновероятных исходах некоторого опыта, составляющих полную группу событий.

Единица измерения информации при статистическом подходе - бит.

На практике часто вместо вероятностей используются частоты исходов. Это возможно, если опыты проводились ранее и существует определенная статистика их исходов. Так, строго говоря, в построении эффективных кодов участвуют не частоты символов, а их вероятности.

3.3. Семантический подход к измерению информации

В рамках этого подхода рассмотрим такие меры, как целесообразность, полезность (учитывают прагматику информации) и истинность информации (учитывает семантику информации).

3.3.1. Целесообразность информации

Количество I получаемой информации с позиций ее целесообразности определяется по формуле (3.3):

где p1, p2 - вероятности достижения цели после и до получения информации соответственно.

Пример 3.10. Пусть вероятность сдачи экзамена по информатике до получения некоторого сообщения (подсказки от соседа) оценивается студентом как 0,2, т.е. p2=0,2. После того, как ему удалось получить подсказку, вероятность сдачи увеличилась: p1=0,8. Определить количество информации, содержащейся в подсказке, с точки зрения ее целесообразности:

I=log2(0,8/0,2)=log24=2.

Пример 3.11. Пусть положение студента до получения подсказки оценивается аналогично примеру 3.10. После получения подсказки, вопреки ожиданиям, вероятность сдачи еще уменьшилась, поскольку подсказка содержала неверную информацию: p1=0,1. Определить количество информации, содержащейся в подсказке, с точки зрения ее целесообразности:

I=log2(0,1/0,2)=log20,5=-1.

Таким образом, полученная информация является дезинформацией, поскольку имеет отрицательный знак при измерении.

3.3.2. Полезность информации

Количество усваиваемой потребителем информации Iусв тесно связано с теми знаниями, которые имеет потребитель к моменту получения информации - с тезаурусом (ТЗ) потребителя. Этим определяется полезность информации. В самом деле, для усвоения тех знаний, которые получаются в университете, требуется среднее образование - иначе студент ничего не поймет. С другой стороны, любая учебная дисциплина ориентируется на знания, которые учащийся должен приобрести в предыдущих курсах. Этим объясняется последовательность учебных дисциплин по годам обучения.

Зависимость усваиваемой потребителем информации от его тезауруса выражается графически кривой, показанной на рис. 3.1.

Рис. 3.1. Иллюстрация полезности информации

Как видно из графика, при тезаурусе, равном нулю и максимальному значению в точке max, информация не усваивается: в первом случае потребителю непонятна принимаемая информация, во втором - она ему уже известна. Максимально усваивается информация (т.е. она наиболее полезна) в точке opt, когда потребитель обладает достаточным (но не максимально возможным) тезаурусом для понимания получаемой информации.

При значении тезауруса i-го потребителя ТЗi количество усваиваемой им информации определяется как Iусв = f(ТЗi). Сам тезаурус ТЗi может быть практически определен как результат интеллектуального тестирования, которое проводится, например, в некоторых западных странах. При таком тестировании человеку выставляется некоторый балл, который и может расцениваться как его тезаурус ТЗi.

3.3.3. Истинность информации

Пусть r(mess) - функция, оценивающая истинность информации, получаемой с сигналом mess, как соответствие её реальному положению вещей: 0 r(mess) 1, причем при r(mess) = 1 информация истинна, а при r(mess) = 0 информация ложна.

Например,

r(«данное пособие посвящено информатике») = 1,

r(«данное пособие имеет объем 5 страниц») = 0,

r(«компьютер с большим быстродействием») = 0,3, поскольку понятие большого быстродействия компьютера относительно.

Оценить истинность сложного сообщения можно, разбив его на простые. Например, сообщение mess: «данный конспект посвящен информатике и имеет объем 5 страниц» можно представить как два простых сообщения mess1 и mess2: «данный конспект посвящен информатике» и «данный конспект имеет объем 5 страниц».

Тогда можно предложить рассчитывать истинность информации в сигнале, фиксирующем совокупности некоторых фактов, как среднее арифметическое значение истинностей простых сигналов, его составляющих (что называют «истинно лишь наполовину»). В таком случае имеем:

r(mess) = Ѕ (r(mess1) + r(mess2)) = Ѕ (1 + 0) = 0,5.

Количество информации I, получаемое с сигналом mess, можно рассчитать как I = 2*r(mess) -1, где r(mess) - истинность сигнала mess.

3.4. Качество информации

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

репрезентативность - правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе студенты при назначении стипендии стремятся представить в деканат как можно больше справок, подтверждающих их активную общественную и научную деятельность в вузе. В то же время нет необходимости, например, предоставлять медицинские справки о своих заболеваниях - эта информация не используется при назначении стипендии;

содержательность - семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сообщения, про которое говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, можно для характеристики успеваемости студента использовать не полный перечень его оценок в сессию, а средний балл;

достаточность (полнота) - минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, при назначении повышенной стипендии часть справок может не учитываться, поскольку уже предоставленных студентом документов достаточно для принятия решения по нему;

доступность - простота или возможность выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

актуальность - зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении в университет, она актуальна, так как само обучение в среднем учебном заведении уже закончилось и его результаты изменены быть не могут, а значит, остаются актуальными;

своевременность - поступление информации не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

точность - степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

достоверность - свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

устойчивость - способность информации реагировать на изменения исходных данных без нарушения необходимой точности.

4. Технические средства информатики

4.1. Структура компьютера и принципы его функционирования

В 1946 - 1948 гг. в Принстонском университете (США) коллективом исследователей под руководством Джона фон Неймана был разработан проект ЭВМ, идеи которого используются и по сей день. Этот проект получил название машины фон Неймана или Принстонской машины. В его состав входила схема (рассматривается далее) и принципы функционирования вычислительной машины:

1) принцип программного управления: работа ЭВМ регламентируется программой, что позволяет, вводя разные программы, решать разные задачи. Команды, из которых состоит программа, интерпретируются специально введенным в схему устройством - устройством управления. Структура отдельной команды имеет вид: <код операции> <операнды>, где <код операции> определяет, какая операция должна выполняться, <операнды> - список (возможно, одноэлементный) тех констант, адресов или имен переменных, над которыми выполняется данная операция.

В зависимости от числа операндов различают одно-, двух- и трехадресные машинные команды. Каждая команда имеет определенный объем, измеряемый байтами.

Этот принцип был самым прогрессивным среди включенных в проект, поскольку обеспечивал универсальность ЭВМ. В соответствии с принципом программного управления любая ЭВМ - это совокупность аппаратной (технической) и программной частей;

2) принцип условного перехода: команды из программы не всегда выполняются одна за другой. Возможно присутствие в программе команд условного перехода, которые меняют последовательное выполнение команд в зависимости от значений данных;

3) принцип размещения программы в памяти: программа, требуемая для работы ЭВМ, предварительно размещается в памяти компьютера, а не вводится команда за командой;

4) принцип иерархии памяти: память ЭВМ не однородна. Для часто используемых данных выделяется память меньшего объема, но большего быстродействия; для редко используемых данных выделяется память большего объема, но меньшего быстродействия;

5) принцип двоичной системы счисления: для внутреннего представления данных и программ в памяти ЭВМ применяется двоичная система счисления, которую можно проще реализовать технически.

Структура Принстонской машины представлена на рис. 4.1. Рассмотрим назначение отдельных элементов этой схемы и их взаимосвязь в процессе функционирования ЭВМ.

Устройство ввода (УВв) преобразует информацию в форму, понятную компьютеру, после чего он может ее обрабатывать и запоминать. Через УВв в память (П) первоначально вводится программа - набор команд, предписывающих ЭВМ выполнять требуемые действия (на схеме связь 1), а затем и данные для обработки программой.

Рис. 4.1. Схема Принстонской машины

После размещения программы в памяти устройство управления (УУ) выбирает последовательно команду за командой из памяти (связь 2) и интерпретирует ее по следующим правилам:

если выбранная команда является командой ввода данных, УУ посылает управляющий сигнал (связь 3) в УВв для начала ввода данных. Данные также вводятся по связи 1 и размещаются в памяти П;

если выбранная команда связана с выполнением арифметических или логических операций, то в память П из УУ посылается сигнал (связь 4) на выборку указанных в команде данных с последующей их пересылкой в арифметико-логическое устройство (АЛУ) (связь 5), а в само АЛУ передается сигнал с кодом нужной операции (связь 7). АЛУ выполняет арифметические и логические действия над переданными операндами. После выполнения требуемых действий АЛУ возвращает результат в память П (связь 6);

если выбранная команда является командой вывода, УУ генерирует управляющий сигнал устройству вывода (УВыв) (связь 8) на начало операции по выводу данных. Сами данные выбираются из памяти П по связи 9.

УВыв переводит информацию из внутреннего представления компьютера в образы, понятные человеку, т.е. УВыв выводит информацию из ЭВМ.

В соответствии с принципом иерархии памяти блок Память на рис. 4.1 делится на два блока - внешнюю и внутреннюю память. Внешняя память традиционно отводится для долговременного хранения данных и программ, а сама оперативная обработка данных в соответствии с программой, как это было рассмотрено выше, выполняется во внутренней памяти.

В современных компьютерах блоки УУ и АЛУ объединены в блок, называемый процессором. В состав процессора, кроме указанных блоков, входят также несколько регистров - специальных небольших областей памяти, куда процессор помещает промежуточные результаты и некоторую другую информацию, необходимую ему в ближайшие такты работы.

4.2. Виды современных компьютеров

По назначению выделяют следующие виды компьютеров:

а) универсальные - предназначены для решения различных задач, типы которые не оговариваются. Эти ЭВМ характеризуются:

разнообразием форм обрабатываемых данных (числовых, символьных и т.д.) при большом диапазоне их изменения и высокой точности представления;

большой емкостью внутренней памяти;

развитой системой организации ввода-вывода информации, обеспечивающей подключение разнообразных устройств ввода-вывода.

б) проблемно-ориентированные - служат для решения более узкого круга задач, связанных, как правило, с управлением технологическими объектами, регистрацией, накоплением и обработкой небольших объемов данных, выполнением расчетов по несложным правилам. Они обладают ограниченным набором аппаратных и программных средств.

в) специализированные - применяются для решения очень узкого круга задач, что позволяет специализировать их структуру, снизить стоимость и сложность при сохранении высокой производительности и надежности. К этому классу ЭВМ относятся компьютеры, управляющие работой устройств ввода-вывода и внешней памятью в современных компьютерах. Такие устройства называются адаптерами, или контроллерами.

По размерам и функциональным возможностям различают виды компьютеров: суперЭВМ, большие, малые и микроЭВМ.

СуперЭВМ являются мощными многопроцессорными компьютерами с огромным быстродействием. Многопроцессорность позволяет распараллеливать решение задач и увеличивает объемы памяти, что значительно убыстряет процесс решения. Они часто используются для решения экспериментальных задач, например, для проведения шахматных турниров с человеком.

Большие ЭВМ (их называют мэйнфреймами от англ. mainframe) характеризуются многопользовательским режимом (до 1000 пользователей одновременно могут решать свои задачи). Основное направление - решение научно-технических задач, работа с большими объемами данных, управление компьютерными сетями и их ресурсами.

Малые ЭВМ используются как управляющие компьютеры для контроля над технологическими процессами. Применяются также для вычислений в системах: многопользовательских, автоматизации проектирования, моделирования несложных объектов, искусственного интеллекта.

Микро-ЭВМ делятся по признакам:

· по назначению - могут быть универсальными и специализированными,

· по числу пользователей, одновременно работающих за компьютером, - много- и однопользовательские.

Специализированные многопользовательские микроЭВМ (серверы - от англ. server) являются мощными компьютерами, используемыми в компьютерных сетях для обработки запросов всех компьютеров сети.

Специализированные однопользовательские микроЭВМ (рабочие станции - от англ. workstation, англ.) эксплуатируются в компьютерных сетях для выполнения прикладных задач.

Универсальные многопользовательские микроЭВМ являются мощными компьютерами, оборудованными несколькими терминалами.

Универсальные однопользовательские микроЭВМ общедоступны. К их числу относятся персональные компьютеры - ПК. Наиболее популярным представителем ПК в нашей стране является компьютер класса IBM PC (International Business Machines - Personal Computer). По конструктивным особенностям ПК делятся на стационарные (настольные - тип DeskTop) и портативные. В свою очередь, портативные компьютеры включают следующие виды:

· переносные (portable) - имеют небольшую массу и габариты и поддаются транспортировке одним человеком;

· наколенные (laptop) - выполнены в виде дипломата;

· блокнотные (notebook) - имеют габариты большого блокнота;

· карманные (pocket) - помещаются в карман.

4.3. Структурные элементы компьютера

Рассмотренная выше структура компьютера является его логической структурой, которая определяет функциональные основные элементы компьютера и их взаимосвязь. Рассмотрим также и физическую структуру компьютера как универсальной технической системы, состав устройств (конфигурацию) которой можно менять по мере необходимости. В эту техническую систему входят системный блок и периферийные устройства (периферия).

Системный блок - основная часть компьютера. Состоит из корпуса, в котором располагаются основные компоненты компьютера (с ним соединены кабелями периферийные устройства). Основные элементы:

- материнская плата - основа системного блока - самостоятельный элемент, который управляет внутренними связями и с помощью системы прерываний взаимодействует с внешними устройствами. На ней размещаются:

ь процессор (микропроцессор) - основная микросхема, выполняющая вычисления и управляющая работой всех компонентов компьютера;

ь микропроцессорный комплект - набор микросхем, управляющих работой внутренних устройств компьютера и определяющих функциональные основные возможности материнской платы;

ь системная шина - осуществляет информационную связь между устройствами компьютера. Это кабель, состоящий из множества проводников. По одной группе проводников (шине данных) передаётся обрабатываемая информация, по другой (шине адреса) передаются адреса памяти или внешних устройств, к которым обращается процессор. Третья часть магистрали (шина управления) передает управляющие сигналы (сигнал готовности устройства к работе, сигнал к началу работы устройства и т.п.). Системная шина характеризуется тактовой частотой и разрядностью. Количество одновременно передаваемых по ней бит называется разрядностью шины, измеряется в битах. Тактовая частота характеризует число элементарных операций по передаче данных в 1 секунду, измеряется в мегагерцах. Всякая информация, передаваемая от процессора к другим устройствам по шине данных, сопровождается адресом, передаваемым по адресной шине. Это может быть адрес ячейки памяти или адрес периферийного устройства. Необходимо, чтобы разрядность шины позволила передать адрес ячейки памяти. Таким образом, разрядность шины ограничивает объем оперативной памяти ЭВМ, он не может быть больше чем 2n, где n - разрядность шины. Важно, чтобы производительности всех подсоединённых к шине устройств были согласованы. Неразумно иметь быстрый процессор и медленную память или быстрый процессор и память, но медленный винчестер;

ь оперативная память, или оперативное запоминающее устройство (ОЗУ), - набор микросхем, предназначенных для временного хранения данных, когда компьютер включен (описана далее);

ь постоянное запоминающее устройство (ПЗУ) - микросхема, предназначенная для длительного хранения данных, в том числе и когда компьютер выключен (описано далее);

ь память CMOS (Complementary Metal-Oxide Semiconductor) - хранит информацию о составе оборудования компьютера;

ь слоты - разъемы для подключения дополнительных устройств - контроллеров (другие названия контроллера - адаптер, плата, карта), через которые, в свою очередь, аппаратно подключаются периферийные устройства к системной шине;

ь счетчик времени;

ь системы индикации и защиты;

- жесткий диск для долговременного хранения больших объемов данных и программ;

- дисковод компакт-дисков;

- видеоадаптер (видеокарта);

- звуковая карта;

- блок питания, преобразующий электропитание сети в постоянный ток низкого напряжения, подаваемый на электронные схемы компьютера;

- вентиляторы для охлаждения греющихся элементов.

Периферийные (внешние) устройства включают:

- устройства ввода данных - клавиатура, манипуляторы, сканеры, цифровые фотокамеры;

- устройства вывода данных - мониторы, принтеры, графопостроители (плоттеры);

- устройства хранения данных - диски, стримеры (накопители на магнитных лентах), флэш Флэш - flash (англ.) - вспышка-карты,

- устройства обмена данными - модемы, адаптеры, каналы связи (проводные, кабельные, оптоволоконные, радиочастотные). В зависимости от типа канала связи используют радиомодемы, кабельные модемы и пр.

Программное управление работой периферийного устройства производится через программу - драйвер, которая является компонентой операционной системы. Так как существует огромное количество разнообразных устройств, которые могут быть установлены в компьютер, то обычно к каждому устройству поставляется драйвер, взаимодействующий непосредственно с этим устройством. Связь компьютера с периферийными устройствами осуществляется через порты - специальные разъёмы на задней панели системного блока. Различают последовательные и параллельные порты. Последовательные (COM - порты) служат для подключения манипуляторов курсора, модема и передают небольшие объёмы информации на большие расстояния. Параллельные (LPT - порты) служат для подключения принтеров, сканеров и передают большие объёмы информации на небольшие расстояния. В последнее время широкое распространение получили последовательные универсальные порты (USB), к которым можно подключать различные устройства.

Для компьютера существует понятие базовой конфигурации, которая включает системный блок, монитор, клавиатуру, мышь.

Рассмотрим структурные элементы компьютера более подробно.

4.3.1. Память

Памятью компьютера называется совокупность устройств для хранения программ, вводимой информации, промежуточных результатов и выходных данных.

Классификация памяти выполняется по следующим основаниям:

1) по способу достижения нужного участка памяти:

· прямого (произвольного) доступа - нужный участок достигается непосредственно по его адресу. Это наиболее быстрый вид доступа,

· последовательного доступа - для достижения нужного участка сначала просматриваются предыдущие участки с меньшими адресами;

2) по способу хранения информации (по носителю):

· электронная, носитель в виде микросхем,

· магнитная, носитель - магнитный материал,

· оптическая, носитель хранит информацию с помощью неоднородностей, от которых по-разному отражается луч света;

3) по срокам действия:

· оперативная (энергозависимая) - хранит информацию только на время работы с ней (теряет информацию при выключении компьютера),

· постоянная (энергонезависимая) - хранит данные постоянно (не теряет информацию при выключении компьютера);

4) по отношению к компьютеру:

· внутренняя - предназначена для хранения относительно небольших объемов информации при ее обработке процессором.

· внешняя - предназначена для длительного хранения больших объемов информации независимо от того, включен или выключен компьютер. Различаются эти виды памяти также по следующему критерию: если при удалении элемента памяти компьютер продолжает оставаться работоспособным, это - внешняя память; если он перестает работать - это внутренняя память.

Характеристика видов памяти представлена в табл. 4.1.

Таблица 4.1.

Характеристика видов памяти компьютера

Название памяти

Доступ

Носитель

Сроки

действия

По отношению

к компьютеру

Магнитный диск

прямой

магнитный

постоянная

внешняя

Стример

последовательный

магнитный

постоянная

внешняя

Оптический диск

прямой

оптический

постоянная

внешняя

Флэш-карта

прямой

электронный

постоянная

внешняя

Озу

прямой

электронный

оперативная

внутренняя

Кэш Кэш - cash (англ.) - наличные

прямой

электронный

оперативная

внутренняя

ПЗУ

прямой

электронный

постоянная

внутренняя

CMOS

прямой

электронный

постоянная

внутренняя

4.3.1.1. Внутренняя память

Как отмечалось, внутренняя память компьютера предназначена для хранения оперативно обрабатываемых данных. Она является более быстрой, чем внешняя память, что соответствует принципу иерархии памяти, выдвинутому в проекте Принстонской машины. Следуя этому принципу, можно выделить уровни иерархии и во внутренней памяти.

Как видно из табл. 4.1, внутренняя память включает следующие компоненты: ПЗУ, CMOS, ОЗУ, кэш.

Содержимое ПЗУ устанавливается на заводе-изготовителе и в дальнейшем не меняется (второе название этой памяти - ROM - Read Only Memory). Эта память составлена из микросхем, как правило, небольшого объема. В ней хранятся:

· программы, обеспечивающие минимальный базовый набор функций управления устройствами компьютера - этот комплект программ образует базовую систему ввода-вывода (BIOS BIOS - Basic Input-Output System), предназначенную для проверки состава и работоспособности компьютера и обеспечения взаимодействия с клавиатурой, монитором, винчестером, дисководами;

· программы начала загрузки операционной системы. При включении компьютера первоначально управление передается программе из ПЗУ, которая тестирует компоненты компьютера и запускает программу - загрузчик операционной системы;

· программа настройки конфигурации компьютера - Setup. Позволяет установить характеристики: типы видеоконтроллера, жестких дисков, режимы работы с RAM, запрос пароля при загрузке и т.п.

Микросхема CMOS постоянно подпитывается от небольшой батарейки, расположенной на материнской плате, от ПЗУ отличается тем, что данные в нее можно заносить и изменять самостоятельно, в соответствии с тем, какое оборудование входит в состав системы (таким образом программы, записанные в ПЗУ, считывают данные о составе оборудования компьютера из микросхемы CMOS).

В ОЗУ в двоичном виде запоминается обрабатываемая информация, программа ее обработки, промежуточные данные и результаты работы. ОЗУ обеспечивает режимы записи, считывания и хранения информации, причём в любой момент времени возможен доступ к любой произвольно выбранной ячейке памяти, что отражено в англоязычном названии ОЗУ - RAM (Random Access Memory - память с произвольным доступом). Часть ОЗУ занимает видеопамять, которая отводится для хранения изображений, получаемых на экране монитора. Чем больше видеопамять, тем более сложные и качественные картинки может выводить компьютер.

Кэш является самой быстрой и меньшей по объему из внутренней памяти. Она служит буфером между памятью RAM и процессором и позволяет увеличить скорость выполнения операций, так как является сверхбыстродействующей. В нее помещаются данные, которые процессор получил и будет использовать в ближайшие такты своей работы. Эта память хранит копии наиболее часто используемых участков RAM. При обращении процессора к памяти сначала ищутся данные в кэш-памяти, а затем, при необходимости, в RAM. Существует два вида кэш-памяти: внутренняя, размещаемая внутри процессора, и внешняя, размещаемая на материнской плате.

Память дискретна. Элементарной (минимальной) единицей хранения является бит. Он может содержать 02 или 12. Однако компьютер при работе с памятью для размещения или выборки данных из нее оперирует не битами, а байтами и более крупными единицами - словами и двойными словами. Для обращения к элементам памяти они снабжаются адресами, начиная с нуля. Максимальный адрес ОЗУ - MAX - определяется функциональными возможностями того или иного компьютера.

Структура внутренней памяти для компьютеров класса IBC PC с указанием начальных адресов отдельных областей представлена в табл. 4.2.

Таблица 4.2. Структура внутренней памяти

Непосредственно адресуемая память операционной системы

Расширенная память XMA XMA - eXtended Memory Area

стандартная память СМА CMA - Conventional Memory Area (640К)

верхняя память UMA UMA - Upper Memory Area (384К)

Высокая память HMA HMA - High Memory Area (64К)

Остальная память

ОЗУ

ПЗУ

Область служебных программ и данных операционной системы (64К)

Область программ и данных пользователя (576К)

Область видеопамяти и служебных программ (256К)

Область программы начальной загрузки операционной системы и других программ BIOS (128К)

0 64К 640К 896К 1024К 1088К МАХ

В силу особенностей операционной системы непосредственно адресуются только первые 1024К памяти, доступ к остальным адресам осуществляется драйверами. Их подключение выполняется в файле конфигурации config.sys в предложении device.

4.3.1.2. Внешняя память

Внешняя память представлена в основном магнитными и оптическими носителями.

Магнитные носители делятся на магнитные ленты (стримеры), которые используются для хранения архивов и нашли неширокое применение, и магнитные диски. Оптические накопители включают следующие виды: CD, DVD, магнитооптические.

4.3.1.2.1. Магнитные диски

Магнитные диски являются элементами устройств чтения-записи информации - дисководов. Сам магнитный диск - это алюминиевые или керамические круги (их также называют дисками) с магниточувствительным покрытием. Все круги в центре посажены на один стержень. Во время работы диск раскручивается. Схема дисковода (для простоты показан только один круг) представлена на рис. 4.2.

Рис. 4.2. Схема дисковода

Головки чтения-записи могут синхронно перемещаться в горизонтальном и вертикальном направлении (это показано стрелками), что позволяет им приблизиться к любой точке поверхности диска, которая рассматривается как отдельный бит внешней памяти.

Так же как и основная память, поверхность диска имеет структуру - физическую и логическую. Элементы физической структуры следующие:

дорожка - концентрическая окружность, по которой движутся головки чтения-записи при размещении или поиске информации. Дорожки нумеруются, начиная с нуля. Нулевой номер имеет самая внешняя дорожка на диске;

секторы - блоки, в которых размещаются данные на дорожке при записи. Нумеруются, начиная с единицы. Помимо пользовательской информации, сектора содержат служебную информацию, например, собственный номер. Сектора являются минимальными адресуемыми элементами для диска;

стороны диска. Нумеруются, начиная с нуля. Для жесткого диска, расположенного вертикально, нулевой номер имеет самая верхняя сторона;

цилиндр - совокупность дорожек с одинаковыми номерами на разных сторонах диска. Номера цилиндров совпадают с номерами дорожек;

кластер - совокупность секторов, имеющих смежные номера. Является минимальным адресуемым элементом для операционной системы. Кластеры используются операционной системой для добавления информации к файлу: добавление очередной «порции» к файлу выполняется в объеме кластера независимо от того, что реальный объем меньше объема кластера. Это приводит к нерациональному расходованию внешней памяти. Поэтому не рекомендуется хранить на диске большое количество маленьких файлов: они имеют много пустых «хвостов».

Разбивка непрерывного пространства поверхности диска на указанные элементы выполняется при его форматировании. При этом также формируется маркер начала и конца дорожки, места расположения секторов, в сектора записывается служебная информация.

Рассмотренная физическая структура диска соответствует, в свою очередь, определенной логической структуре, которая частично может меняться в зависимости от типа операционной системы. Ниже приведена основная логическая структура, характерная для любой операционной системы (она описана в порядке возрастания физических адресов):

загрузочная запись операционной системы BR (Boot Record). Содержит следующую информацию: программу загрузки операционной системы, размер кластера, количество копий FAT, количество файлов в корневом каталоге Root, размер FAT и некоторую другую информацию;

таблица размещения файлов FAT (File Allocation Table) и ее копии. Содержит полную карту принадлежности кластеров файлам и используется операционными системами для хранения сведений о размещении файлов на диске и о «плохих» (bad) кластерах. В силу важности FAT она дублируется несколько раз;

корневой каталог Root. Это таблица, в которой каждая запись соответствует файлу или подкаталогу Записи для файлов и подкаталогов идентичны за исключением двух характеристик: для подкаталога в поле атрибутов выставлен соответствующий признак и в поле размеров выставлен ноль., подчиненному корневому каталогу диска, и имеет структуру:

имя файла или подкаталога;

тип файла,

атрибуты, в которых определяются следующие параметры файла или подкаталога: предназначенность только для чтения, скрытость, системность, маркер принадлежности данной записи метке тома, признак принадлежности данной записи подкаталогу, а не файлу, архивность;


Подобные документы

  • Понятие и назначение носителя информации, его разновидности и характерные особенности, возможности применения. Аппаратура систем обработки информации в технике и управлении. Виды информации в зависимости от формы ее представления, ее свойства и значение.

    контрольная работа [263,6 K], добавлен 08.03.2010

  • Понятие об информации. Информатика, краткая история информатики. Информация аналоговая и цифровая. Аналого-цифровое преобразование, устройства аналоговые и цифровые. Понятие о кодировании информации. Хранение цифровой информации. Бит.

    реферат [68,9 K], добавлен 23.11.2003

  • Электронно-вычислительная машина (ЭВМ) как средство обработки информации. Аппаратные и программные средства ЭВМ. Системы счисления и представления информации. Элементы структурного программирования. Построение блок-схем алгоритмов решения задач.

    презентация [152,5 K], добавлен 26.07.2013

  • Определение информации, ее виды и свойства. Назначение основных блоков компьютера: процессор, память, системная магистраль, внешнее устройство. Архитектура фон Неймана. Характерные черты информации. Принцип использования двоичной системы счисления.

    контрольная работа [333,2 K], добавлен 21.02.2010

  • Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.

    презентация [173,0 K], добавлен 19.10.2014

  • Формирование информатики как науки. Единство разнообразных отраслей науки, техники и производства, связанных с переработкой информации. Теоретическая информатика, кибернетика, программирование, искусственный интеллект и вычислительная техника.

    реферат [45,8 K], добавлен 30.11.2012

  • Информатика - наука об информации, технических средствах ее сбора, хранения, обработки, передачи. Носители информации, память. Носители информации вещество и поле. Процесс сообщения. Целенаправленная передача информации. Непрерывное и дискретное знания.

    автореферат [667,1 K], добавлен 08.06.2008

  • Виды информации, с которыми работают современные компьютеры. Понятие "информация": в физике, в биологии, в кибернетике. Представление информации. Кодирование и каналы передачи информации. Локальные компьютерные сети. Хранение информации в файлах.

    контрольная работа [26,4 K], добавлен 13.01.2008

  • Информатика — компьютерная (вычислительная) наука об информационных процессах, ее цель и задачи: способы получения, накопление, хранение, преобразование, передача и использование информации. Атрибутивные и динамические свойства информации, кодировка.

    презентация [92,2 K], добавлен 22.10.2012

  • Символьное и образное представление информации. Единицы ее измерения. Язык как способ символьного представления информации. Знак как элемент конечного множества. Алфавитный подход к измерению информации. Решение задач на определение ее количества.

    презентация [178,2 K], добавлен 12.12.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.