Информация. Формы представления информации. Единицы измерения информации

Информация как отражение реального мира с помощью знаков и сигналов, сведения об объектах и явлениях окружающей среды. Аналоговый и цифровой способы хранения и передачи информации. Влияние шумов и помех на передаваемое по каналам связи сообщение.

Рубрика Программирование, компьютеры и кибернетика
Вид лекция
Язык русский
Дата добавления 20.01.2015
Размер файла 63,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Информация. Формы представления информации. Единицы измерения информации

Цель: Раскрыть суть понятия информации и показать приемы кодирования информации, ознакомить с единицами измерения информации.

Ключевые понятия: информация, сообщение, содержание, источник информации, получатель информации, каналы связи, непрерывная информация, дискретная информация, единицы измерения информации, объем информации, объемный подход измерения информации, вероятностный подход измерения информации.

Понятие "информация" является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Аналогичными "неопределяемыми" понятиями, например, в математике является "точка" или "прямая".

В широком смысле информация - это отражение реального мира с помощью знаков и сигналов. Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся степень неопределенности, неполноты знаний о них.

Эти сведения, зафиксированные на каком-либо материальном носителе, принято называть данными.

Термин информация возник от латинского слова information - разъяснение, изложение. По Клод Шеннону (американский инженер и математик, родоначальник теории информации), информация - это снятая неопределенность.

Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. При этом предполагается, что имеются "источник информации" и "получатель (потребитель) информации". Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае "каналом связи". Каналами связи могут быть телевизор, радио, компьютерная сеть, лист бумаги и т.д. Чаще всего речь идет о телекоммуникации (теле - удаленный, коммуникация - передача). Канал связи может стать источником искажений; искажающую информацию принято называть помехами или шумом.

Для живых существ восприятие и передача информации в форме сигналов - основное отличие от неодушевленных предметов окружающего мира. Языковая форма передачи знаковой информации - основное отличие людей от других живых существ.

В зависимости от области знаний различают информацию:

Ш Научную;

Ш Техническую;

Ш Правовую;

Ш Экономическую;

Ш Медицинскую;

Ш Бытовую (погода, справочники);

Ш Потребительскую и развлекательную и др..

По способу передачи и восприятия различают информацию:

Ш Визуальную - передается видимыми образами и символами;

Ш Аудиальную - передается звуками;

Ш Тактильную - передается ощущениями;

Ш Органолептическую - передается запахами и вкусом;

Ш Машинную - передается средствами ВТ.

В процессе обработки информация может менять структуру и форму. Признаками структуры являются элементы информации и их взаимосвязь. Формы представления информации различны. Основные из них: символьная (основанная на использовании символов - букв, цифр, знаков), текстовая (тексты - символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая (упругие волны, распространяющиеся в газах, жидкостях и твердых телах и воспринимаемые ухом человека и животных).

Исторически первой технологической формой получения, передачи, хранения информации являлось аналоговое (непрерывное) представление звукового, оптического, электрического или другого сигнала (сообщения). Магнитная аудио- и видеозапись, фотографирование, запись на грампластинки, радиовещание - основные способы хранения и передачи информации в аналоговой форме. В общем случае сигнал - это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.

Когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным. Информация, передаваемая источником, в этом случае также называется дискретной (цифровой). Пример дискретного сообщения - процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке. Непрерывное сообщение можно преобразовать в дискретное, такая процедура называется дискретизацией. Например, процесс изменения напряжения электрического тока (U) по времени (t) непрерывный процесс. Но этот аналоговый процесс может быть представлен в виде множества значений изменения U в зависимости от t.

Аналого-дискретные преобразователи чаще всего изготавливаются в виде интегральных схем. В необходимых случаях осуществляется обратное - дискретно-аналоговое (цифро-аналоговое преобразование - ЦАП).

Компьютер - цифровая машина, то есть внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Измерение количества информации
Использование терминов "больше информации" или "меньше информации" подразумевает некую возможность ее измерения (или хотя бы количественного соотнесения).
В решении этой проблемы существуют два основных подхода: вероятностный и объемный. Американский инженер Р. Хартли в 1928 г. рассматривал процесс получения информации как выбор одного сообщения из конечного заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N:
I=log2N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I= log2100 ~ 6,644.
Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. информация аналоговый связь помеха

Клод Шеннон развил вероятностный подход к измерению количества информации. В 1948 году он предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Хартли является частным случаем формулы Шеннона. Работы Джон фон Неймана по созданию ЭВМ привели к объемному подходу измерения количества информации.

Объемный подход
Объем информации в сообщении - это количество символов в сообщении. Поскольку, например, одно и то же число может быть записано многими разными способами (использованием разных алфавитов):
"двадцать пять"
25
11001
XXV
то этот способ чувствителен форме представления (записи) сообщения. В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме с использованием алфавита, состоящего из двух символов 0 и 1, называемых битами (от английского Binary digit - двоичная цифра). Такая стандартизация позволила ввести две стандартные единицы: бит и байт. Байт - это восемь бит.
Для измерения количества информации используются также более крупные единицы:
1 Килобайт = 1024 байта (210 байта)
1 Мегабайт =1024 Кбайта (220 байта)
1 Гигабайт = 1024 Мбайта (230 байта)
1 Терабайт = 1024 Гбайта (240 байта)
1 Петабайт = 1024 Тбайта (250 байта)
1 Экзабайт = 1024 Пбайта (260 байта)
Литература
Архитектура компьютера. 4-е изд. / Э. Таненбаум. - СПб.: Питер, 2003. - 704с.
Кенин А.М. IBM PC для пользователей или как научиться работать на компьютере: Научно-популярное издание/ Екатеринбург: Издательство "АРД ЛТД", 1997. - 496с., ил.
Гарнаев А.Ю. Использование MS Excel и VBA в экономике и финансах. - С-П.: БХВ - Санкт-Петербург, 1999.
Фигурнов В.Э. IBM PC для пользователей. - М.: "Финансы и статистика", 1999.
Архитектура компьютера. 4-е изд. / Э. Таненбаум. - СПб.: Питер, 2003. - 704с.
Размещено на Allbest.ru

Подобные документы

  • Информатика - техническая наука, определяющая сферу деятельности, связанную с процессами хранения, преобразования и передачи информации с помощью компьютера. Формы представления информации, ее свойства. Кодирование информации, единицы ее измерения.

    презентация [117,7 K], добавлен 28.03.2013

  • Информация как отражение предметного мира с помощью знаков и сигналов; свойства, отображение, измерение, компьютерные технологии обработки информации. Архитектура аппаратных и программных средств персональных компьютеров. Работа с прикладными программами.

    курс лекций [332,2 K], добавлен 09.10.2009

  • Понятие и отличительные черты аналоговой и цифровой информации. Изучение единиц измерения цифровой информации: бит (двоичная цифра) и байт. Особенности передачи, методы кодирования и декодирования текстовой, звуковой и графической цифровой информации.

    реферат [479,4 K], добавлен 22.03.2010

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Сущностные характеристики информации. Классификация информации по форме представления, области возникновения, способу передачи и восприятия и способам кодирования. Анализ основных единиц измерения информации, служащих для измерения объёма информации.

    реферат [77,6 K], добавлен 04.10.2011

  • Информация и ее свойства. Единицы измерения данных. Вероятностный и объемный подход к измерению количества информации, способы ее передачи. Рассмотрение поставщиков финансовой информации в Интернете; технологии финансовых инвестиций в компьютерной сети.

    контрольная работа [61,5 K], добавлен 08.06.2013

  • Изучение сущности информации - сведений, знаний, которые получаются, передаются, преобразуются, регистрируются с помощью некоторых знаков. Способы передачи информации электрическими, магнитными и световыми импульсами. Программное обеспечение компьютеров.

    контрольная работа [18,6 K], добавлен 27.02.2011

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Эффективность преобразования и кодирования сигналов, используемых в качестве переносчиков информации. Амплитудная модуляция. Генераторы сигналов низкой частоты. Построение графиков "пороговый сигнал-полоса канала связи" для идеального и реального каналов.

    курсовая работа [299,7 K], добавлен 23.01.2014

  • Субъективный, кибернетический, содержательный и алфавитный подходы. Способы восприятия и форма представления информации. Язык как способ ее представления и единицы измерения. Информационная культура человека. Применение информатики и компьютерной техники.

    презентация [192,6 K], добавлен 04.12.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.