Теоретические основы информатики

Смысл алфавитного и содержательного подхода к измерению информации. Процессы ее кодирования, обработки и передачи. Особенности систем счисления и языков. Аппаратное и программное обеспечение, архитектура и устройство компьютера, носители информации.

Рубрика Программирование, компьютеры и кибернетика
Вид учебное пособие
Язык русский
Дата добавления 30.10.2011
Размер файла 2,2 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

I. Теоретические основы информатики

Список статей

1. Измерение информации -- алфавитный подход

2. Измерение информации -- содержательный подход

3. Информационные процессы

4. Информация

5. Кибернетика

6. Кодирование информации

7. Обработка информации

8. Передача информации

9. Представление чисел

10. Системы счисления

11. Хранение информации

12. Языки

Библиография разделу “Теоретические основы информатики”

Основными объектами изучения науки информатики являются информация и информационные процессы. Информатика как самостоятельная наука возникла в середине ХХ столетия, однако научный интерес к информации и исследования в этой области появились раньше.

В начале ХХ века активно развиваются технические средства связи (телефон, телеграф, радио).

В связи с этим появляется научное направление “Теория связи”. Его развитие породило теорию кодирования и теорию информации, основателем которых был американский ученый К.Шеннон. Теория информации решала проблему измерения информации, передаваемой по каналам связи. Известны два подхода к измерению информации: содержательный и алфавитный.

Важнейшая задача, поставленная теорией связи, -- борьба с потерей информации в каналах передачи данных. В ходе решения этой задачи сформировалась теория кодирования, в рамках которой изобретались способы представления информации, позволяющие доносить содержание сообщения до адресата без искажения даже при наличии потерь передаваемого кода. Эти научные результаты имеют большое значение и сегодня, когда объемы информационных потоков в технических каналах связи выросли на многие порядки.

Предшественником современной информатики явилась наука “Кибернетика”, основанная трудами Н.Винера в конце 1940-х -- начале 50-х годов. В кибернетике произошло углубление понятия информации, было определено место информации в системах управления в живых организмах, в общественных и технических системах. Кибернетика исследовала принципы программного управления. Возникнув одновременно с появлением первых ЭВМ, кибернетика заложила научные основы как для их конструктивного развития, так и для многочисленных приложений.

ЭВМ (компьютер) -- автоматическое устройство, предназначенное для решения информационных задач путем осуществления информационных процессов: хранения, обработки и передачи информации. Описание основных принципов и закономерностей информационных процессов также относится к теоретическим основам информатики.

Компьютер работает не с содержанием информации, которое способен воспринимать только человек, а с данными, представляющими информацию. Поэтому важнейшей задачей для компьютерных технологий является представление информации в форме данных, пригодных для их обработки. Данные и программы кодируются в двоичном виде. Обработка любого типа данных сводится в компьютере к вычислениям с двоичными числами. Именно поэтому компьютерные технологии еще называют цифровыми. Понятие о системах счисления, о представлении чисел в компьютере относятся к базовым понятиям информатики.

Понятие “язык” происходит из лингвистики. Язык -- это система символьного представления информации, используемая для ее хранения и передачи. Понятие языка относится к числу базовых понятий информатики, поскольку как данные, так и программы в компьютере представляются в виде символьных конструкций. Язык общения компьютера с человеком все более приближается к формам естественного языка.

К фундаментальным основам информатики относится теория алгоритмов. Понятие алгоритма вводится в статье “Обработка информации”. Подробно эта тема раскрывается в пятом разделе энциклопедии.

1. Измерение информации. Алфавитный подход

Алфавитный подход используется для измерения количества информации в тексте, представленном в виде последовательности символов некоторого алфавита. Такой подход не связан с содержанием текста. Количество информации в этом случае называется информационным объемом текста, который пропорционален размеру текста -- количеству символов, составляющих текст. Иногда данный подход к измерению информации называют объемным подходом.

Каждый символ текста несет определенное количество информации. Его называют информационным весом символа. Поэтому информационный объем текста равен сумме информационных весов всех символов, составляющих текст.

Здесь предполагается, что текст -- это последовательная цепочка пронумерованных символов. В формуле (1) i1 обозначает информационный вес первого символа текста, i2 --информационный вес второго символа текста и т.д.; K -- размер текста, т.е. полное число символов в тексте.

Все множество различных символов, используемых для записи текстов, называется алфавитом. Размер алфавита -- целое число, которое называется мощностью алфавита. Следует иметь в виду, что в алфавит входят не только буквы определенного языка, но все другие символы, которые могут использоваться в тексте: цифры, знаки препинания, различные скобки, пробел и пр.

Определение информационных весов символов может происходить в двух приближениях:

1) в предположении равной вероятности (одинаковой частоты встречаемости) любого символа в тексте;

2) с учетом разной вероятности (разной частоты встречаемости) различных символов в тексте.

Приближение равной вероятности символов в тексте

Если допустить, что все символы алфавита в любом тексте появляются с одинаковой частотой, то информационный вес всех символов будет одинаковым. Пусть N -- мощность алфавита. Тогда доля любого символа в тексте составляет 1/N-ю часть текста. По определению вероятности (см. “Измерение информации. Содержательный подход”) эта величина равна вероятности появления символа в каждой позиции текста:

p = 1/N

Согласно формуле К.Шеннона (см. “Измерение информации. Содержательный подход”), количество информации, которое несет символ, вычисляется следующим образом:

i = log2(1/p) = log2N (бит) (2)

Следовательно, информационный вес символа (i) и мощность алфавита (N) связаны между собой по формуле Хартли (см. “Измерение информации. Содержательный подход”)

2i = N.

Зная информационный вес одного символа (i) и размер текста, выраженный количеством символов (K), можно вычислить информационный объем текста по формуле:

I = K · i (3)

Эта формула есть частный вариант формулы (1), в случае, когда все символы имеют одинаковый информационный вес.

Из формулы (2) следует, что при N = 2 (двоичный алфавит) информационный вес одного символа равен 1 биту.

С позиции алфавитного подхода к измерению информации 1 бит -- это информационный вес символа из двоичного алфавита.

Более крупной единицей измерения информации является байт.

1 байт -- это информационный вес символа из алфавита мощностью 256.

Поскольку 256 = 28, то из формулы Хартли следует связь между битом и байтом:

2i = 256 = 28

Отсюда: i = 8 бит = 1 байт

Для представления текстов, хранимых и обрабатываемых в компьютере, чаще всего используется алфавит мощностью 256 символов. Следовательно,

1 символ такого текста “весит” 1 байт.

Помимо бита и байта, для измерения информации применяются и более крупные единицы:

1 Кб (килобайт) = 210 байт = 1024 байта,

1 Мб (мегабайт) = 210 Кб = 1024 Кб,

1 Гб (гигабайт) = 210 Мб = 1024 Мб.

Приближение разной вероятности встречаемости символов в тексте

В этом приближении учитывается, что в реальном тексте разные символы встречаются с разной частотой. Отсюда следует, что вероятности появления разных символов в определенной позиции текста различны и, следовательно, различаются их информационные веса.

Статистический анализ русских текстов показывает, что частота появления буквы “о” составляет 0,09. Это значит, что на каждые 100 символов буква “о” в среднем встречается 9 раз. Это же число обозначает вероятность появления буквы “о” в определенной позиции текста: po = 0,09. Отсюда следует, что информационный вес буквы “о” в русском тексте равен:

Самой редкой в текстах буквой является буква “ф”. Ее частота равна 0,002. Отсюда:

Отсюда следует качественный вывод: информационный вес редких букв больше, чем вес часто встречающихся букв.

Как же вычислить информационный объем текста с учетом разных информационных весов символов алфавита? Делается это по следующей формуле:

Здесь N -- размер (мощность) алфавита; nj -- число повторений символа номер j в тексте; ij -- информационный вес символа номер j.

Методические рекомендации

Алфавитный подход в курсе информатики основой школы

В курсе информатики в основной школе знакомство учащихся с алфавитным подходом к измерению информации чаще всего происходит в контексте компьютерного представления информации. Основное утверждение звучит так:

Количество информации измеряется размером двоичного кода, с помощью которого эта информация представлена

Поскольку любые виды информации представляются в компьютерной памяти в форме двоичного кода, то это определение универсально. Оно справедливо для символьной, числовой, графической и звуковой информации.

Один знак (разряд) двоичного кода несет 1 бит информации.

При объяснении способа измерения информационного объема текста в базовом курсе информатики данный вопрос раскрывается через следующую последовательность понятий: алфавит -- размер двоичного кода символа -- информационный объем текста.

Логика рассуждений разворачивается от частных примеров к получению общего правила. Пусть в алфавите некоторого языка имеется всего 4 символа. Обозначим их:, , , . Эти символы можно закодировать с помощью четырех двухразрядных двоичных кодов: -- 00, -- 01, -- 10, -- 11. Здесь использованы все варианты размещений из двух символов по два, число которых равно 22 = 4. Отсюда делается вывод: информационный вес символа из 4-символьного алфавита равен двум битам.

Следующий частный случай -- 8-символьный алфавит, каждый символ которого можно закодировать 3-разрядным двоичным кодом, поскольку число размещений из двух знаков группами по 3 равно 23 = 8. Следовательно, информационный вес символа из 8-символьного алфавита равен 3 битам. И т.д.

Обобщая частные примеры, получаем общее правило: с помощью b-разрядного двоичного кода можно закодировать алфавит, состоящий из N = 2b -- символов.

Пример 1. Для записи текста используются только строчные буквы русского алфавита и “пробел” для разделения слов. Какой информационный объем имеет текст, состоящий из 2000 символов (одна печатная страница)?

Решение. В русском алфавите 33 буквы. Сократив его на две буквы (например, “ё” и “й”) и введя символ пробела, получаем очень удобное число символов -- 32. Используя приближение равной вероятности символов, запишем формулу Хартли:

2i = 32 = 25

Отсюда: i = 5 бит -- информационный вес каждого символа русского алфавита. Тогда информационный объем всего текста равен:

I = 2000 · 5 = 10 000 бит

Пример 2. Вычислить информационный объем текста размером в 2000 символов, в записи которого использован алфавит компьютерного представления текстов мощностью 256.

Решение. В данном алфавите информационный вес каждого символа равен 1 байту (8 бит). Следовательно, информационный объем текста равен 2000 байт.

В практических заданиях по данной теме важно отрабатывать навыки учеников в пересчете количества информации в разные единицы: биты -- байты -- килобайты -- мегабайты -- гигабайты. Если пересчитать информационный объем текста из примера 2 в килобайты, то получим:

2000 байт = 2000/1024 1,9531 Кб

Пример 3. Объем сообщения, содержащего 2048 символов, составил 1/512 часть мегабайта. Каков размер алфавита, с помощью которого записано сообщение?

Решение. Переведем информационный объем сообщения из мегабайтов в биты. Для этого данную величину умножим дважды на 1024 (получим байты) и один раз -- на 8:

I = 1/512 · 1024 · 1024 · 8 = 16 384 бита.

Поскольку такой объем информации несут 1024 символа (К), то на один символ приходится:

i = I/K = 16 384/1024 = 16 бит.

Отсюда следует, что размер (мощность) использованного алфавита равен 216 = 65 536 символов.

Объемный подход в курсе информатики в старших классах

Изучая информатику в 10-11-х классах на базовом общеобразовательном уровне, можно оставить знания учащихся об объемном подходе к измерению информации на том же уровне, что описан выше, т.е. в контексте объема двоичного компьютерного кода.

При изучении информатики на профильном уровне объемный подход следует рассматривать с более общих математических позиций, с использованием представлений о частотности символов в тексте, о вероятностях и связи вероятностей с информационными весами символов.

Знание этих вопросов оказывается важным для более глубокого понимания различия в использовании равномерного и неравномерного двоичного кодирования (см. “Кодирование информации” ), для понимания некоторых приемов сжатия данных (см. “Сжатие данных” ) и алгоритмов криптографии (см.“Криптография” ).

Пример 4. В алфавите племени МУМУ всего 4 буквы (А, У, М, К), один знак препинания (точка) и для разделения слов используется пробел. Подсчитали, что в популярном романе “Мумука” содержится всего 10 000 знаков, из них: букв А -- 4000, букв У -- 1000, букв М -- 2000, букв К -- 1500, точек -- 500, пробелов -- 1000. Какой объем информации содержит книга?

Решение. Поскольку объем книги достаточно большой, то можно допустить, что вычисленная по ней частота встречаемости в тексте каждого из символов алфавита характерна для любого текста на языке МУМУ. Подсчитаем частоту встречаемости каждого символа во всем тексте книги (т.е. вероятность) и информационные веса символов

Общий объем информации в книге вычислим как сумму произведений информационного веса каждого символа на число повторений этого символа в книге:

2. Измерение информации. Содержательный подход

С позиции содержательного подхода к измерению информации решается вопрос о количестве информации в сообщении, получаемом человеком. Рассматривается следующая ситуация:

1) человек получает сообщение о некотором событии; при этом заранее известна неопределенность знания человека об ожидаемом событии. Неопределенность знания может быть выражена либо числом возможных вариантов события, либо вероятностью ожидаемых вариантов события;

2) в результате получения сообщения неопределенность знания снимается: из некоторого возможного количества вариантов оказался выбранным один;

3) по формуле вычисляется количество информации в полученном сообщении, выраженное в битах.

Формула, используемая для вычисления количества информации, зависит от ситуаций, которых может быть две:

1. Все возможные варианты события равновероятны. Их число конечно и равно N.

2. Вероятности (p) возможных вариантов события разные и они заранее известны:

{pi}, i = 1..N. Здесь по-прежнему N -- число возможных вариантов события.

Равновероятные события. Если обозначить буквой i количество информации в сообщении о том, что произошло одно из N равновероятных событий, то величины i и N связаны между собой формулой Хартли:

2i = N (1)

Величина i измеряется в битах. Отсюда следует вывод:

1 бит -- это количество информации в сообщении об одном из двух равновероятных событий.

Формула Хартли -- это показательное уравнение. Если i -- неизвестная величина, то решением уравнения (1) будет:

i = log2N (2)

Формулы (1) и (2) тождественны друг другу. Иногда в литературе формулой Хартли называют (2).

Пример 1. Сколько информации содержит сообщение о том, что из колоды карт достали даму пик?

В колоде 32 карты. В перемешанной колоде выпадение любой карты -- равновероятные события. Если i -- количество информации в сообщении о том, что выпала конкретная карта (например, дама пик), то из уравнения Хартли:

2i = 32 = 25

Отсюда: i = 5 бит.

Пример 2. Сколько информации содержит сообщение о выпадении грани с числом 3 на шестигранном игральном кубике?

Считая выпадение любой грани событием равновероятным, запишем формулу Хартли: 2i = 6. Отсюда: i = log26 = 2,58496 бит.

Не равновероятные события (вероятностный подход)

Если вероятность некоторого события равна p, а i (бит) -- это количество информации в сообщении о том, что произошло это событие, то данные величины связаны между собой формулой:

2i = 1/p (3)

Решая показательное уравнение (3) относительно i, получаем:

i = log2(1/p) (4)

Формула (4) была предложена К.Шенноном, поэтому ее называют формулой Шеннона.

Методические рекомендации

Обсуждение связи между количеством информации в сообщении и его содержанием может происходить на разных уровнях глубины.

Качественный подход

Качественный подход, который может использоваться на уровне пропедевтики базового курса информатики (5-7-е классы) или в базовом курсе (8-9-е классы).

На данном уровне изучения обсуждается следующая цепочка понятий: информация -- сообщение -- информативность сообщения.

Исходная посылка: информация -- это знания людей, получаемые ими из различных сообщений. Следующий вопрос: что такое сообщение? Сообщение -- это информационный поток (поток данных), который в процессе передачи информации поступает к принимающему его субъекту. Сообщение -- это и речь, которую мы слушаем (радиосообщение, объяснение учителя), и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем, и т.д.

Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т.е. несет для него информацию. Для разных людей одно и то же сообщение с точки зрения его информативности может быть разным. Если сведения “старые”, т.е. человек это уже знает, или содержание сообщения непонятно человеку, то для него это сообщение неинформативно. Информативно то сообщение, которое содержит новые и понятные сведения.

Примеры неинформативных сообщений для ученика 8-го класса:

1)“Столица Франции -- Париж” (не новое);

2) “Коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности” (не понятное).

Пример информативного сообщения (для тех, кто этого не знал): “Эйфелева башня имеет высоту 300 метров и вес 9000 тонн”.

Введение понятия “информативность сообщения” является первым подходом к изучению вопроса об измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равно нулю. Количество информации в информативном сообщении больше нуля.

Количественный подход в приближении равно вероятности

Данный подход может изучаться либо в углубленном варианте базового курса в основной школе, либо при изучении информатики в 10-11-х классах на базовом уровне.

Рассматривается следующая цепочка понятий: равновероятные события -- неопределенность знаний -- бит как единица измерения информации -- формула Хартли -- решение показательного уравнения для N равного целым степеням двойки.

Раскрывая понятие равновероятности, следует отталкиваться от интуитивного представления детей, подкрепив его примерами.События равновероятны, если ни одно из них не имеет преимущества перед другими.

Введя частное определение бита, которое было дано выше, затем его следует обобщить:

Сообщение, уменьшающее неопределенность знаний в 2 раза, несет 1 бит информации.

Это определение подкрепляется примерами сообщений об одном событии из четырех (2 бита), из восьми (3 бита) и т.д.

На данном уровне можно не обсуждать варианты значений N, не равные целым степеням двойки, чтобы не сталкиваться с проблемой вычисления логарифмов, которые в курсе математики пока не изучались. Если же у детей будут возникать вопросы, например: “Сколько информации несет сообщение о результате бросания шестигранного кубика”, -- то объяснение можно построить следующим образом. Из уравнения Хартли: 2i = 6. Поскольку 22 < 6 < 23, следовательно, 2 < i < 3. Затем сообщить более точное значение (с точностью до пяти знаков после запятой), что i = 2,58496 бит. Отметить, что при данном подходе количество информации может быть выражено дробной величиной.

Вероятностный подход к измерению информации

Он может изучаться в 10-11-х классах в рамках общеобразовательного курса профильного уровня или в элективном курсе, посвященном математическим основам информатики. Здесь должно быть введено математически корректное определение вероятности. Кроме того, ученики должны знать функцию логарифма и ее свойства, уметь решать показательные уравнения.

Вводя понятие вероятности, следует сообщить, что вероятность некоторого события -- это величина, которая может принимать значения от нуля до единицы. Вероятность невозможного события равна нулю (например: “завтра Солнце не взойдет над горизонтом”), вероятность достоверного события равна единице(например: “Завтра солнце взойдет над горизонтом”).

Следующее положение: вероятность некоторого события определяется путем многократных наблюдений (измерений, испытаний). Такие измерения называют статистическими. И чем большее количество измерений выполнено, тем точнее определяется вероятность события.

Математическое определение вероятности звучит так: вероятность равна отношению числа исходов, благоприятствующих данному событию, к общему числу равновозможных исходов.

Пример 3. На автобусной остановке останавливаются два маршрута автобусов: № 5 и № 7. Ученику дано задание: определить, сколько информации содержит сообщение о том, что к остановке подошел автобус № 5, и сколько информации в сообщении о том, что подошел автобус № 7.

Ученик провел исследование. В течение всего рабочего дня он подсчитал, что к остановке автобусы подходили 100 раз. Из них -- 25 раз подходил автобус № 5 и 75 раз подходил автобус № 7. Сделав предположение, что с такой же частотой автобусы ходят и в другие дни, ученик вычислил вероятность появления на остановке автобуса № 5: p5 = 25/100 = 1/4, и вероятность появления автобуса № 7: p7 = 75/100 = 3/4.

Отсюда, количество информации в сообщении об автобусе № 5 равно: i5 = log24 = 2 бита. Количество информации в сообщении об автобусе № 7 равно:

i7 = log2(4/3) = log24 - log23 = 2 - 1,58496 = 0,41504 бита.

Обратите внимание на следующий качественный вывод: чем вероятность события меньше, тем больше количество информации в сообщении о нем. Количество информации о достоверном событии равно нулю. Например, сообщение “Завтра наступит утро” является достоверным и его вероятность равна единице. Из формулы (3) следует: 2i = 1/1 = 1. Отсюда, i = 0 бит.

Формула Хартли (1) является частным случаем формулы (3). Если имеется N равновероятных событий (результат бросания монеты, игрального кубика и т.п.), то вероятность каждого возможного варианта равна p = 1/N. Подставив в (3), снова получим формулу Хартли: 2i = N. Если бы в примере 3 автобусы № 5 и № 7 приходили бы к остановке из 100 раз каждый по 50, то вероятность появления каждого из них была бы равна 1/2. Следовательно, количество информации в сообщении о приходе каждого автобуса равно i = log22 = 1 биту. Пришли к известному варианту информативности сообщения об одном из двух равновероятных событий.

Пример 4. Рассмотрим другой вариант задачи об автобусах. На остановке останавливаются автобусы № 5 и № 7. Сообщение о том, что к остановке подошел автобус № 5, несет 4 бита информации. Вероятность появления на остановке автобуса с № 7 в два раза меньше, чем вероятность появления автобуса № 5. Сколько бит информации несет сообщение о появлении на остановке автобуса № 7?

Запишем условие задачи в следующем виде:

i5 = 4 бита, p5 = 2 · p7

Вспомним связь между вероятностью и количеством информации: 2i = 1/p

Отсюда: p = 2-i

Подставляя в равенство из условия задачи, получим:

Отсюда:

Из полученного результата следует вывод: уменьшение вероятности события в 2 раза увеличивает информативность сообщения о нем на 1 бит. Очевидно и обратное правило: увеличение вероятности события в 2 раза уменьшает информативность сообщения о нем на 1 бит. Зная эти правила, предыдущую задачу можно было решить “в уме”.

3. Информационные процессы

Предметом изучения науки информатики является информация и информационные процессы. Как нет единственного общепринятого определения информации (см. “Информация”), так же нет единства и в трактовке понятия “информационные процессы”.

Подойдем к осмыслению этого понятия с терминологической позиции. Слово процесс обозначает некоторое событие, происходящее во времени: судебный процесс, производственный процесс, учебный процесс, процесс роста живого организма, процесс нефтеперегонки, процесс горения топлива, процесс полета космического корабля и т.д. Всякий процесс связан с какими-то действиями, выполняемыми человеком, силами природы, техническими устройствами, а также вследствие их взаимодействия.

У всякого процесса есть объект воздействия: подсудимый, ученики, нефть, горючее, космический корабль. Если процесс связан с целенаправленной деятельностью человека, то такого человека можно назвать исполнителем процесса: судья, учитель, космонавт. Если процесс осуществляется с помощью автоматического устройства, то оно является исполнителем процесса: химический реактор, автоматическая космическая станция.

Очевидно, что в информационных процессах объектом воздействия является информация. В учебном пособии С.А. Бешенкова, Е.А. Ракитиной дается такое определение: “В наиболее общем виде информационный процесс определяется как совокупность последовательных действий (операций), производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр.) для получения какого-либо результата (достижения цели)”[2].

Дальнейший анализ понятия “информационные процессы” зависит от подхода к понятию информации, от ответа на вопрос: “Что такое информация?”. Если принять атрибутивную точку зрения на информацию (см. “Информация”), то следует признать, что информационные процессы происходят как в живой, так и в неживой природе. Например, в результате физического взаимодействия между Землей и Солнцем, между электронами и ядром атома, между океаном и атмосферой. С позиции функциональной концепции информационные процессы происходят в живых организмах (растениях, животных) и при их взаимодействии.

С антропоцентрической точки зрения исполнителем информационных процессов является человек. Информационные процессы являются функцией человеческого сознания (мышления, интеллекта). Человек может осуществлять их самостоятельно, а также с помощью созданных им орудий информационной деятельности.

Любая, сколь угодно сложная информационная деятельность человека сводится к трем основным видам действий с информацией: сохранению, приему/передаче, обработке. Обычно вместо “прием-передача” говорят просто “передача”, понимая этот процесс как двусторонний: передача от источника к приемнику (синоним -- “транспортировка”).

Хранение, передача и обработка информации -- основные виды информационных процессов.

Выполнение названных действий с информацией связано с ее представлением в виде данных. Всевозможные орудия информационной деятельности человека (например: бумага и ручка, технические каналы связи, вычислительные устройства и пр.) используются для хранения, обработки и передачи данных.

Если проанализировать деятельность какой-нибудь организации (отдела кадров предприятия, бухгалтерии, научной лаборатории), работающей с информацией “по старинке”, без применения компьютеров, то для обеспечения ее деятельности требуются три вида средств:

-- бумага и пишущие средства (ручки, пишущие машинки, чертежные инструменты) для фиксации информации с целью хранения;

-- средства связи (курьеры, телефоны, почта) для приема и передачи информации;

-- вычислительные средства (счеты, калькуляторы) для обработки информации.

В наше время все эти виды информационной деятельности выполняются с помощью компьютерной техники: данные хранятся на цифровых носителях, передача происходит с помощью электронной почты и других услуг компьютерных сетей, вычисления и другие виды обработки выполняются на компьютере.

Состав основных устройств компьютера определяется именно тем, что компьютер предназначен для осуществления хранения, обработки и передачи данных. Для этого в него входят память, процессор, внутренние каналы и внешние устройства ввода-вывода (см. “Компьютер”).

Для того чтобы терминологически разделить процессы работы с информацией, происходящие в человеческом сознании, и процессы работы с данными, происходящими в компьютерных системах, А.Я. Фридланд [7] предлагает их называть по-разному: первые -- информационными процессами, вторые -- информатическими процессами.

Другой подход к трактовке информационных процессов предлагает кибернетика. Информационные процессы происходят в различных системах управления, имеющих место в живой природе, в человеческом организме, в социальных системах, в технических системах (в т.ч. в компьютере). Например, кибернетический подход применяется в нейрофизиологии (см. “Информация” ), где управление физиологическими процессами в организме животного и человека, происходящее на бессознательном уровне, рассматривается как информационный процесс. В нейронах (клетках мозга) хранится и обрабатывается информация, по нервным волокнам происходит передача информации в виде сигналов электрохимической природы. Генетика установила, что наследственная информация хранится в молекулах ДНК, входящих в состав ядер живых клеток. Она определяет программу развития организма (т.е. управляет этим процессом), которая реализуется на бессознательном уровне.

Таким образом, и в кибернетической трактовке информационные процессы сводятся к хранению, передаче и обработке информации, представленной в виде сигналов, кодов различной природы.

Методические рекомендации

На любом этапе изучения информатики в школе представления об информационных процессах несут в себе систематизирующую методическую функцию. Изучая устройство компьютера, ученики должны получить четкое понимание того, с помощью каких устройств происходит хранение, обработка и передача данных. При изучении программирования следует обратить внимание учеников на то, что программа работает с данными, хранимыми в памяти компьютера (как и сама программа), что команды программы определяют действия процессора по обработке данных и действие устройств ввода-вывода по приему-передаче данных. Осваивая информационные технологии, следует обращать внимание на то, что эти технологии также ориентированы на выполнение хранения, обработки и передачи информации.

Подробнее см. статьи “Хранение информации”, “Обработка информации”, “Передача информации” 2.

4. Информация

Происхождение термина “информация”

Слово “информация” происходит от латинского information, которое переводится как разъяснение, изложение. В толковом словаре В.И. Даля нет слова “информация”. Термин “информация” вошел в употребление в русскую речь с середины ХХ века.

В наибольшей степени понятие информации обязано своим распространением двум научным направлениям: теории связи и кибернетике. Результатом развития теории связи стала теория информации, основателем которой является Клод Шеннон. Однако К.Шеннон не давал определения информации, в то же время, определяя количество информации. Теория информации посвящена решению проблемы измерения информации.

В науке кибернетике, основанной Норбертом Винером, понятие информации является центральным (см. “Кибернетика” 2). Принято считать, что именно Н.Винер ввел понятие информации в научное употребление. Тем не менее, в своей первой книге, посвященной кибернетике, Н. Винер не дает определения информации. “Информация есть информация, а не материя и не энергия”[3], -- писал Винер. Тем самым понятие информации, с одной стороны, противопоставляется понятиям материи и энергии, с другой -- ставится в один ряд с этими понятиями по степени их общности и фундаментальности. Отсюда по крайней мере понятно, что информация -- это то, что не может быть отнесено ни к материи, ни к энергии.

Информация в философии

Осмыслением информации как фундаментального понятия занимается наука философия. Согласно одной из философских концепций, информация является свойством всего сущего, всех материальных объектов мира. Такая концепция информации называется атрибутивной (информация -- атрибут всех материальных объектов). Информация в мире возникла вместе со Вселенной. В этом смысле информация -- это мера упорядоченности, структурированности любой материальной системы. Процессы развития мира от первоначального хаоса, наступившего после “Большого взрыва”, до образования неорганических систем, затем органических (живых) систем связаны с нарастанием информационного содержания. Это содержание объективно, не зависимо от человеческого сознания. В куске угля содержится информация о событиях, происходивших в далекие времена. Однако извлечь эту информацию способен лишь пытливый ум человека.

Другую философскую концепцию информации называют функциональной. Согласно функциональному подходу, информация появилась с возникновением жизни, так как связана с функционированием сложных самоорганизующихся систем, к которым относятся живые организмы и человеческое общество. Можно еще сказать так: информация -- это атрибут, свойственный только живой природе. Это один из существенных признаков, отделяющих в природе живое от неживого.

Третья философская концепция информации -- антропоцентрическая, согласно которой информация существует лишь в человеческом сознании, в человеческом восприятии. Информационная деятельность присуща только человеку, происходит в социальных системах. Создавая информационную технику, человек создает инструменты для своей информационной деятельности.

Можно сказать, что употребление понятия “информация” в повседневной жизни происходит в антропоцентрическом контексте. Для любого из нас естественно воспринимать информацию как сообщения, которыми обмениваются люди. Например, СМИ -- средства массовой информации предназначены для распространения сообщений, новостей среди населения.

Информация в биологии

В ХХ веке понятие информации повсеместно проникает в науку. Информационные процессы в живой природе исследует биология. Нейрофизиология (раздел биологии) изучает механизмы нервной деятельности животного и человека. Эта наука строит модель информационных процессов, происходящих в организме. Поступающая извне информация превращается в сигналы электрохимической природы, которые от органов чувств передаются по нервным волокнам к нейронам (нервным клеткам) мозга. Мозг передает управляющую информацию в виде сигналов той же природы к мышечным тканям, управляя, таким образом, органами движения. Описанный механизм хорошо согласуется с кибернетической моделью Н.Винера (см. “Кибернетика” 2).

В другой биологической науке -- генетике используется понятие наследственной информации, заложенной в структуре молекул ДНК, присутствующих в ядрах клеток живых организмов (растений, животных). Генетика доказала, что эта структура является своеобразным кодом, определяющим функционирование всего организма: его рост, развитие, патологии и пр. Через молекулы ДНК происходит передача наследственной информации от поколения к поколению.

Методические рекомендации

Изучая информатику в основной школе (базовый курс), не следует углубляться в сложности проблемы определения информации. Понятие информации дается в содержательном контексте:

Информация -- это смысл, содержание сообщений, получаемых человеком из внешнего мира посредством его органов чувств.

Понятие информации раскрывается через цепочку:

сообщение -- смысл -- информация - знания

Сообщения человек воспринимает с помощью своих органов чувств (по большей части через зрение и слух). Если человеку понятен смысл, заключенный в сообщении, то можно сказать, что это сообщение несет человеку информацию. Например, сообщение на незнакомом языке не содержит информации для данного человека, а сообщение на родном языке понятно, поэтому информативно. Воспринятая и сохраненная в памяти информация пополняет знания человека. Наши знания -- это систематизированная (связанная) информация в нашей памяти.

При раскрытии понятия информации с точки зрения содержательного подхода следует отталкиваться от интуитивных представлений об информации, имеющихся у детей. Целесообразно вести беседу в форме диалога, задавая ученикам вопросы, на которые они в состоянии ответить. Вопросы, например, можно задавать в следующем порядке.

-- Расскажите, откуда вы получаете информацию?

Наверняка услышите в ответ:

-- Из книг, радио и телепередач.

Дальше попросите учеников привести примеры какой-нибудь информации, которую они получили сегодня. Например, кто-нибудь ответит:

-- Утром по радио я слышал прогноз погоды.

Ухватившись за такой ответ, учитель подводит учеников к окончательному выводу:

-- Значит, вначале ты не знал, какая будет погода, а после прослушивания радио стал знать. Следовательно, получив информацию, ты получил новые знания!

Таким образом, учитель вместе с учениками приходит к определению: информация для человека -- это сведения, пополняющие знания человека, которые он получает из различных источников. Далее на многочисленных знакомых детям примерах следует закрепить это определение.

Установив связь между информацией и знаниями людей, неизбежно приходишь к выводу, что информация -- это содержимое нашей памяти, ибо человеческая память и есть средство хранения знаний. Разумно назвать такую информацию внутренней, оперативной информацией, которой обладает человек. Однако люди хранят информацию не только в собственной памяти, но и в записях на бумаге, на магнитных носителях и пр. Такую информацию можно назвать внешней (по отношению к человеку). Чтобы человек мог ей воспользоваться (например, приготовить блюдо по кулинарному рецепту), он должен сначала ее прочитать, т.е. обратить во внутреннюю форму, а затем уже производить какие-то действия.

Вопрос о классификации знаний (а стало быть, информации) очень сложный. В науке существуют различные подходы к нему. Особенно много занимаются этим вопросом специалисты в области искусственного интеллекта. В рамках базового курса достаточно ограничиться делением знаний на декларативные и процедурные. Описание декларативных знаний можно начинать со слов: “Я знаю, что…”. Описание процедурных знаний -- со слов: “Я знаю, как…”. Нетрудно дать примеры на оба типа знаний и предложить детям придумать свои примеры.

Учитель должен хорошо понимать пропедевтическое значение обсуждения данных вопросов для будущего знакомства учеников с устройством и работой компьютера. У компьютера, подобно человеку, есть внутренняя -- оперативная -- память и внешняя -- долговременная -- память. Деление знаний на декларативные и процедурные в дальнейшем можно увязать с делением компьютерной информации на данные -- декларативная информация и программы -- процедурная информация. Использование дидактического приема аналогии между информационной функцией человека и компьютером позволит ученикам лучше понять суть устройства и работы ЭВМ.

Исходя из позиции “знания человека -- это сохраненная информация”, учитель сообщает ученикам, что и запахи, и вкусы, и тактильные (осязательные) ощущения тоже несут информацию человеку. Обоснование этому очень простое: раз мы помним знакомые запахи и вкусы, узнаем на ощупь знакомые предметы, значит, эти ощущения хранятся в нашей памяти, а стало быть, являются информацией. Отсюда вывод: с помощью всех своих органов чувств человек получает информацию из внешнего мира.

Как с содержательной, так и с методической точки зрения очень важно различать смысл понятий “информация” и “данные”. К представлению информации в любой знаковой системе (в том числе используемой в компьютерах) следует применять термин “данные”. А информация -- это смысл, заключенный в данных, заложенный в них человеком и понятный только человеку.

Компьютер работает с данными: получает входные данные, осуществляет их обработку, передает человеку выходные данные -- результаты. Смысловую же интерпретацию данных осуществляет человек. Тем не менее, в разговорной речи, в литературе часто говорят и пишут о том, что компьютер хранит, обрабатывает, передает и принимает информацию. Это справедливо, если компьютер не отрывать от человека, рассматривая его как инструмент, с помощью которого человек осуществляет информационные процессы.

5. Кибернетика

Слово “кибернетика” -- греческого происхождения, буквально обозначающее искусство управления.

В IV веке до н.э. в трудах Платона этот термин употреблялся для обозначения управления в общем смысле. В XIX веке А.Ампер предложил назвать кибернетикой науку об управлении человеческим обществом.

В современном толковании кибернетика -- наука, изучающая общие законы управления и взаимосвязи в организованных системах (машинах, живых организмах, в обществе).

Возникновение кибернетики как самостоятельной науки связывается с выходом книг американского ученого Норберта Винера “Кибернетика, или Управление и связь в животном и машине” в 1948 г. и “Кибернетика и общество” в 1954 г.

Основным научным открытием кибернетики стало обоснованиеединства законов управления в естественных и искусственных системах. К такому выводу Н.Винер пришел, построив информационную модель процессов управления.

Норберт Винер (1894-1964), США

Подобная схема была известна в теории автоматического регулирования. Винер обобщил ее на все виды систем, абстрагируясь от конкретных механизмов связи, рассматривая эту связь как информационную.

Схема управления с обратной связью

По каналу прямой связи передается управляющая информация -- команды управления. По каналу обратной связи передается информация о состоянии управляемого объекта, о его реакции на управляющее воздействие, а также о состоянии внешней среды, что часто является существенным фактором в управлении.

Кибернетика развивает понятие информации как содержание сигналов, передаваемых по каналам связи. Кибернетика развивает понятие алгоритма как управляющей информации, которой должен владеть управляющий объект для выполнения своей работы.

Появление кибернетики происходит одновременно с созданием электронно-вычислительных машин. Связь ЭВМ и кибернетики настолько тесная, что эти понятия в 1950-е годы нередко отождествляли. ЭВМ называли кибернетическими машинами.

Связь ЭВМ и кибернетики существует в двух аспектах. Во-первых, ЭВМ -- это самоуправляемый автомат, в котором роль управляющего играет устройство управления, имеющееся в составе процессора, а все остальные устройства являются объектами управления. Прямая и обратная связь осуществляется по информационным каналам, а алгоритм представляется в виде программы на машинном языке (языке, “понятном” процессору), хранящейся в памяти ЭВМ.

Во-вторых, с изобретением ЭВМ открывалась перспектива использования машины в качестве управляющего объекта в самых различных системах. Возникает возможность создания сложных систем с программным управлением, передачи автоматическим устройствам многих видов человеческой деятельности.

Развитие линии “кибернетика -- ЭВМ” привело в 1960-х годах к появлению науки информатики с более развитой системой понятий, относящихся к изучению информации и информационных процессов.

В настоящее время общие положения теоретической кибернетики приобретают в большей степени философское значение. Одновременно активно развиваются прикладные направления кибернетики, связанные с изучением и созданием систем управления в различных предметных областях: техническая кибернетика, медико-биологическая кибернетика, экономическая кибернетика. С развитием компьютерных систем обучения можно говорить о появлении педагогической кибернетики.

Методические рекомендации

В перечне содержательных линий школьной информатики нет отдельной кибернетической линии. Однако тема кибернетики должна найти отражение в общеобразовательном курсе информатики хотя бы благодаря своей генетической связи с информатикой, описанной выше. Кроме того, применение ИКТ в управлении -- одно из важнейших их приложений.

Возможны различные пути для включения вопросов кибернетики в общеобразовательный курс. Один путь -- через линию алгоритмизации. Алгоритм рассматривается как управляющая информация в кибернетической модели системы управления. В этом контексте раскрывается тема кибернетики.

Другой путь -- включение темы кибернетики в содержательную линию моделирования. При рассмотрении процесса управления как сложного информационного процесса дается представление о схеме Н.Винера как модели такого процесса. В версии образовательного стандарта для основной школы (2004 г.) эта тема присутствует в контексте моделирования: “кибернетическая модель процессов управления”.

В работе А.А. Кузнецова, С.А. Бешенкова и др. “Непрерывный курс информатики” [5] названы три основных направления школьного курса информатики: информационное моделирование, информационные процессы и информационные основы управления. Содержательные линии являются детализацией основных направлений. Таким образом, кибернетической теме -- теме управления, придается еще более весомое значение, чем содержательной линии. Это многоплановая тема, которая позволяет затронуть следующие вопросы:

-- элементы теоретической кибернетики: кибернетическая модель управления с обратной связью;

-- элементы прикладной кибернетики: структура компьютерных систем автоматического управления (систем с программным управлением); назначение автоматизированных систем управления;

-- основы теории алгоритмов.

Элементы теоретической кибернетики

Рассказывая о кибернетической модели управления, учитель должен проиллюстрировать ее примерами, знакомыми и понятными ученикам. При этом должны быть выделены основные элементы кибернетической системы управления: управляющий объект, управляемый объект, каналы прямой и обратной связи.

Следует начать с очевидных примеров. Например, шофер и автомобиль. Шофер -- управляющий, автомобиль -- управляемый объект. Канал прямой связи -- система управления автомобилем: педали, руль, рычаги, клавиши и пр. Каналы обратной связи: приборы на панели управления, вид из окон, слух шофера. Всякое воздействие на средства управления можно рассматривать как передаваемую информацию: “увеличить скорость”, “затормозить”, “повернуть направо” и т.д. Информация, передаваемая по каналам обратной связи, также является необходимой для успешного управления. Предложите ученикам задание: что произойдет, если отключить один из каналов прямой или обратной связи? Обсуждение таких ситуаций обычно бывает очень оживленным.

Управление с обратной связью называют адаптивным управлением. Действия управляющего адаптируются (т.е. подстраиваются) к состоянию объекта управления, окружающей среды.

Самый близкий ученикам пример управления в социальной системе: учитель, управляющий процессом обучения на уроке. Обсудите различные формы управляющего воздействия учителя на учеников: речь, жесты, мимика, записи на доске. Предложите ученикам перечислить различные формы обратной связи; объяснить, как адаптирует учитель ход урока по результатам обратной связи, привести примеры такой адаптации. Например, ученики не справились с предложенным заданием, -- учитель вынужден повторить объяснение.

При изучении данной темы в старших классах можно рассматривать пути управления в крупных социальных системах: управление предприятием со стороны администрации, управление страной государственными органами и т.п. Здесь полезно использовать материал из курса обществознания. Анализируя механизмы прямой и обратной связи в таких системах, обратите внимание учеников на тот факт, что в большинстве случаев существует множество каналов прямой и обратной связи. Они дублируются для того, чтобы повысить надежность работы системы управления.

Алгоритмы и управление

Эта тема позволяет раскрыть понятие алгоритма с кибернетической точки зрения. Логика раскрытия следующая. Управление -- это целенаправленный процесс. Он должен обеспечить определенное поведение объекта управления, достижение определенной цели. А для этого должен существовать план управления. Этот план реализуется через последовательность управляющих команд, передаваемых по прямой связи. Такая последовательность команд называется алгоритмом управления.

Алгоритм управления является информационной компонентой системы управления. Например, учитель ведет урок согласно заранее составленному плану. Шофер ведет автомобиль по заранее продуманному маршруту.

В системах управления, где роль управляющего выполняет человек, алгоритм управления может изменяться, уточняться в процессе работы. Шофер не может спланировать заранее каждое свое действие во время движения; учитель корректирует план урока по его ходу. Если же процессом управляет автоматическое устройство, то детальный алгоритм управления должен быть в него заложен заранее в некотором формализованном виде. В таком случае его называют программой управления. Для хранения программы автоматическое устройство управления должно обладать программной памятью.

В данной теме следует раскрыть понятие самоуправляемой системы. Это некоторый единый объект, организм, в котором присутствуют все отмеченные выше компоненты систем управления: управляющие и управляемые части (органы), прямая и обратная информационная связь, управляющая информация -- алгоритмы, программы и память для ее хранения. Такими системами являются живые организмы. Наиболее совершенный из них -- человек. Человек управляет сам собой. Основным управляющим органом является мозг человека, управляемыми -- все части организма. Есть управление осознанное (я делаю, что хочу) и есть подсознательное (управление физиологическими процессами). Подобные процессы происходят и у животных. Однако доля осознанного управления у животных меньше, чем у человека в силу более высокого уровня интеллектуального развития человека.

Создание искусственных самоуправляемых систем -- одна из сложнейших задач науки и техники. Робототехника -- пример такого научно-технического направления. В нем объединяются многие области науки: кибернетика, искусственный интеллект, медицина, математическое моделирование и пр.

Элементы прикладной кибернетики

Данная тема может быть раскрыта либо в углубленном варианте изучения базового курса информатики, либо -- на профильном уровне в старших классах.


Подобные документы

  • Разработка программных и аппаратных компонентов для проведения информатизации объекта. Выбор конфигурации рабочих станций. Комплектация персонального компьютера и сервера для обеспечения обработки информации. Схема лицензирования программного обеспечения.

    курсовая работа [2,5 M], добавлен 20.12.2012

  • Понятие, содержание, объект, предмет информатики. Основные виды и способы обработки и кодирования данных. Информация, информационные процессы и системы как объект правового регулирования общественных отношений. Архитектура, программное обеспечение ПЭВМ.

    курс лекций [6,5 M], добавлен 20.06.2009

  • Процесс обработки информации на электронно-вычислительных машинах в 50-х гг. Возможность редактирования и форматирования текстовых документов в 70-х гг. Отличительные черты данных и программ. Операционная система и аппаратное обеспечение компьютера.

    презентация [68,1 K], добавлен 27.12.2011

  • Обзор и характеристика программного обеспечения компьютера как совокупности программ системы обработки информации. Характеристика аппаратного обеспечения как комплекса электрических и механических устройств, входящих в состав ЭВМ. Взаимодействие систем.

    презентация [931,9 K], добавлен 23.12.2010

  • Понятие информации и основные принципы ее кодирования, используемые методы и приемы, инструментарий и задачи. Специфические особенности процессов кодирования цифровой и текстовой, графической и звуковой информации. Логические основы работы компьютера.

    курсовая работа [55,8 K], добавлен 23.04.2014

  • Определение информации, ее виды и свойства. Назначение основных блоков компьютера: процессор, память, системная магистраль, внешнее устройство. Архитектура фон Неймана. Характерные черты информации. Принцип использования двоичной системы счисления.

    контрольная работа [333,2 K], добавлен 21.02.2010

  • Команды вычислительной машины, которые интерпретируются микропроцессором или микропрограммами. Правила для записи чисел цифровыми знаками. Способы кодирования информации. Практическое применение машинных кодов, систем счисления, кодировки информации.

    курсовая работа [1,6 M], добавлен 15.03.2015

  • Содержательный и кибернетический подходы к определению и измерению информации. Кодирование символьной информации в компьютере. Линия информации и информационных процессов. Обзор процесса передачи информации по техническим каналам связи. Языки информатики.

    презентация [173,0 K], добавлен 19.10.2014

  • Принцип программного управления искусственной (инженерной) системы, предназначенной для восприятия, хранения, обработки и передачи информации. Характеристика языков программирования Basic и Pascal. Управление базами данных и обеспечение локальных сетей.

    контрольная работа [40,5 K], добавлен 22.04.2011

  • Сферы применения персонального компьютера (ПК). Основные блоки ПК, способы компьютерной обработки информации. Устройства ввода и вывода, хранения информации: системный блок, клавиатура, монитор, мышь, сканер, дигитайзер, принтер, дисковый накопитель.

    презентация [278,6 K], добавлен 25.02.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.