Источники и характеристики информации

Значимость информации для человеческого общества, ее источники и приемники. Классификация информации, структурные единицы ее количества и виды в автоматизированных системах. Общезначимые характеристики информации: полнота, достоверность, актуальность.

Рубрика Программирование, компьютеры и кибернетика
Вид реферат
Язык русский
Дата добавления 08.01.2012
Размер файла 32,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

1. Источники и характеристики информации

Важнейшими сущностями окружающего нас мира являются вещество, энергия и информация.

Термин информация происходит от латинского informatio, что означает «сведения, разъяснения, изложение».

Информация столь же значительна, как вещество и энергия, и не менее важна для существования растений, животных, человека и человеческого общества в целом. Информация - это не только сведения из книг, газетной заметки или передачи новостей, но и сведения, которые хранятся в структуре сложной биологической молекулы, в радиосигналах, в рельефе ключа.

Информация - это настолько общее и глубокое понятие, его нельзя объяснить одной фразой. В это слово вкладывается разный смысл в технике, науке и в житейских ситуациях.

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют, например сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше».

Информация - это отображение окружающего нас мира с помощью знаков и сигналов или иначе сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т.п.) может содержать разное количество информации для разных людей в зависимости от их накопленных знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на японском языке, не несет никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Однако можно лишь утверждать, что понятие ИНФОРМАЦИЯ предполагает наличие материального носителя информации, источника информации, передатчика информации, приемника и канала связи между источником и приемником.

Это понятие используется во всех без исключения сферах: философии, естественных и гуманитарных науках, биологии, медицине и физиологии, психологии человека и животных, социологии, искусстве, технике и экономике и в повседневной жизни.

Источник информации - тот, кто сообщает информацию: учитель, ученик, шум водопада и т.д.

Приемник информации - тот, кто принимает информацию: человек, животное, растение и т.д.

Носителем информации может быть классная доска, журнал, частицы воздуха, радиоволны, бумага, дерево, металл, камень, кассета, дискета, фотография, слайд, перфокарта, ген и т.п.

Каналом связи между приемником и источником может быть как телекоммуникационный канал, так и воздух, переносящий звуковые волны.

Источники и приемники информации могут быть как одушевленными (животное) так и не одушевленными (персональный компьютер) предметами, явными (учитель - ученик) и косвенными (шум воды может говорить о близости водопада). Встречаются такие ситуации, когда приемник информации, является одновременно и передатчиком, и наоборот.

Характеристики информации.

Объективные и субъективные характеристики информации.

Что такое объективность и субъективность при рассмотрении характеристик информации?

Объективные характеристики информации зависят от содержания информации и не зависят от нашего к ней отношения.

Действительно, как бы мы не относились к какой-либо информации, например, к учебнику по основам математического анализа, смысл этой информации, ее объем, вид представления и т.п. не зависят от нашего к этому учебнику отношения.

Субъективные характеристики информации определяются значимостью информации для конкретного человека (субъекта) и его к этой информации отношением.

Объективные.

Существует множество различных градаций, или классификационных признаков, по которым можно характеризовать информацию. Выделим некоторые основные признаки:

1) по смыслу, в том числе три основных характеристики - повседневная, научная и образная (искусство), каждая из которых имеет множество подхарактеристик;

2) по способу восприятия информации людьми, т.е. в соответствии с нашими органами чувств (зрительная, слуховая, обонятельная, осязательная, вкусовая, чувство равновесия);

3) по способу представления (текстовая, графическая, объемная, звуковая и т.п.);

4) по объему;

5) по месту хранения (библиотеки, архивы, музеи и т.д.);

6) по способу кодирования;

7) по вероятности появления.

Субъективные.

Значимость информации для людей и их к ней отношение.

В повседневной жизни мы постоянно к слову информация добавляем различные определения: важная, интересная, полезная, вредная, сложная и т.п. Все эти определения так или иначе характеризуют информацию с точки зрения нашего отношения к ней, значимости информации для нас. В действительности, практически нет такой информации, которая была бы одинаково важна или интересна всем людям. Поэтому все здесь перечисленные характеристики информации в той или иной степени являются субъективными. Несмотря на то, что все соответствующие характеристики достаточно субъективны, при их изучении среди этих характеристик постепенно начали выделять те характеристики, которые с достаточной долей уверенности можно считать объективными. Но их объективность определяется не их содержанием. Попробуем разобраться в самих характеристиках, а затем определим, в чем же в действительности заключается их объективность.

В настоящее время приняты следующие общезначимые характеристики:

1) полнота,

2) достоверность,

3) доступность,

4) важность,

5) актуальность,

6) понятность,

7) ценность.

Попробуем разобраться в сущности этих характеристик.

Полнота информации.

Информация является полной в том случае, когда она позволяет сделать определенный выбор при принятии решения и/или точно выполнить конкретное действие.

Включение в определение двойного союза и/или не случайно и имеет вполне определенный смысл. Реально возможны все три варианта: только принятие решения, только выполнение действия и принятие решения с выполнением действия.

Достоверность информации.

Достоверность информации определяется смысловым содержанием информации, источником информации и обстоятельствами.

Доступность информации.

Доступность информации определяется ее смысловым содержанием, источником, местом хранения, способом представления и обстоятельствами.

Важность информации.

Важность информации определяется исключительно субъективно: для одного человека важной является только полезная информация, для другого - только интересная, для третьего - только актуальная и т.д. Но, тем не менее, каждый человек оценивает информацию с точки зрения ее важности для него. При этом важную информацию стараются сохранить обязательно, а не важную - как получится.

Актуальность информации.

Актуальность информации определяется временем ее появления. Если информация о каком-либо событии появляется непосредственно перед наступлением этого события или появляется информация о каком-либо только что случившемся достаточно важном событии и эта информация может быть соответствующим образом использована - она актуальна. Информация, полученная после того, как она может быть использована, актуальной не является.

Понятность информации.

Понятность информации определяется готовностью к ее восприятию.

2. Виды информации в автоматизированных системах

информация автоматизированный достоверность

Автоматизимрованная системма (АС) - система, состоящая из персонала, комплекса средств автоматизации его деятельности и регламентов работы, реализующая информационную технологию выполнения установленных функций.

Автоматизимрованная системма (АС) - это организованная совокупность средств, методов и мероприятий, используемых для регулярной обработки информации для решения задачи.

Если автоматизируемый процесс связан в основном с обработкой информации, то такая система называется автоматизированной информационной системой.

Главной целью создания АС является не упрощение, но категоризация и стандартизация автоматизируемого процесса, что позволяет обеспечивать стабильность работы системы, прозрачность её контроля и анализа слабых мест и основания для её развития либо свёртывания (списания, замены).

Как правило, автоматизация повышает требования к квалификации исполняющего персонала, в том числе повышая их ответственность.

В случае правильной автоматизации деятельности организаций, она упрощает принятие решений и уменьшает требуемое время для решения проблем для руководителей любого уровня.

Главным документом, определяющим характеристики работающей и способной к развитию АС является Техническое задание на автоматизированную систему.

АВТОМАТИЗИРОВАННАЯ ИНФОРМАЦИОННАЯ СИСТЕМА; (АИС) (automated information (data) system)

1. В прямом (узком) значении термина - комплекс программных, технических, информационных, лингвистических, организационно-технологических средств и персонала, предназначенный для решения задач справочно-информационного обслуживания и/или информационного обеспечения пользователей.

2. В расширенном значении термина - комплекс программных, технических, информационных, лингвистических, организационно-технологических средств и персонала, предназначенный для сбора, (первичной) обработки, хранения, поиска, (вторичной) обработки и выдачи данных в заданной форме (виде) для решения разнородных профессиональных задач пользователей системы.

В различных практических применениях часто вместо термина АИС и его эквивалентов употребляется термин "автоматизированная система".

Виды информации.

Всю информацию можно подразделить на:

* общественно-политическую,

* социально-экономическую,

* научно-техническую,

* химико-биологическую,

* физиологическую и т.п.

Одновременно с этим информация по своему характеру может быть:

* статической (постоянной) или динамической (переменной);

* первичной (входной), производной (промежуточной) или выходной;

* осведомляющей или управляющей;

* объективной или субъективной.

К свойствам информации можно отнести:

* полноту,

* достоверность,

* ценность,

* актуальность,

* ясность,

* краткость,

* убедительность.

Формы информации.

Существует множество способов передачи и обработки информации. Человек может передавать информацию, используя тот или иной язык, жесты, мимику, звуки и воспринимать информацию используя любые органы чувств. Иными словами информация человеком передается, обрабатывается и принимается в форме знаков или сигналами. Сигнал может быть световым, звуковым (радиоволны), электромагнитным, биохимическим и т.д.

Сигналы можно разделить на несколько типов:

* по физической природе, на электромагнитные, световые, тепловое, звуковое, механические, биохимические

* по способу восприятия, на зрительные, слуховые, осязательные, вкусовые, болевые, физиологические.

Знаками можно считать алфавит любого языка, знаки языка жестов, любые коды или шифры, нотные значки и т.д.

Процесс обработки информации предусматривает наличие носителя информации и средства передачи информации и обработки информации.

Носитель информации - ее сохраняет, на нем можно как-то записать соответствующий этой информации знак или сигнал. Средство передачи информации - это человеческие языки, средства телекоммуникаций, биохимические процессы в живой природе и т.д.

Человек может перерабатывать информацию минимум на трех уровнях, а именно: на физиологическом (органы чувств) уровне, на уровне рационального мышления, на уровне подсознания. Кроме того человек передает наследственную информацию своим потомкам через гены.

3. Структурные единицы количества информации

Количество информации.

Человек или какой-нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность - получили информацию.

Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, на сколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.

Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру.

Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно рассчитать по следующей формуле, которую предложил нам Шеннон:

I = ? (p1log 2p1 + p2log 2p2 +... + pNlog 2pN),

где I - количество информации;

N - количество исходов;

p1,p2,...,pN ? вероятности исхода.

Количество информации измеряется в битах - сокращение от английских слов BInary digiT, что означает двоичная цифра.

Для равновероятных событий формулу можно упростить:

I = log 2N,

где I - количество информации;

N - количество исходов.

Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log 22 = 1 бит информации.

Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней - шесть равновероятных событий. Получаем: . После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.

Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десятимиллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?

бита.

Предположим, что мы бросили 8 монет. У нас 28 вариантов падения монет. Значит после броска монет мы получим log 228 = 8 бит информации.

Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос мы получаем один бит информации.

Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность - бесконечное количество информации.

Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «Войне и мир», с помощью двухзначных цифр - их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» - код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).

Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы.

Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации».

В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия, заряжено - не заряжено, отражает свет - не отражает свет, высокий электрический потенциал - низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.

Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт - 1 из 256 (28). Для измерения количества информации также принято использовать более крупные единицы:

1 Кбайт (один килобайт) ? 210 байт = 1024 байта

1 Мбайт (один мегабайт) ? 210 Кбайт = 1024 Кбайта

1 Гбайт (один гигабайт) ? 210 Мбайт = 1024 Мбайта

Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 103, 106 и 109, соответственно, но исторически сложилась практика использования множителей со степенями двойки.

Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации.

Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.

Список литературы

1. Колмыкова Е.А., Кумскова И.А. Информатика: учеб. пособие для студ. ср. проф. обр. - 2-е изд., стер. - М.: Академия, 2009. - 416 с.

2. Михеева Е.В., Практикум по информатике. - М.: Академия, 2008.

3. Михеева Е.В., Информационные технологии в профессиональной деятельности. - М.: Академия, 2008.

4. Безручко В.Т. Информатика (курс лекций): учеб. пособие. - М.: Форум; ИНФРА-М, 2007. - 432.: ил.

5. Шауцукова Л.З. Учебное пособие для 10-11 кл. общеобр. учреждений. - 4-е изд. - М.: Просвещение, 2008. - 416 с.: ил.

6. Симонович С.В., Евсеев Г.А., Алексеев А.Н. Общая информатика. Учеб. пособие для средней школы. - М.: АСТ-Пресс: Инфорком-Пресс, 2007.

7. Информатика: Базовый курс. / Симонович С.В. и др. - СПб.: Питер, 2008.

Размещено на Allbest.ru


Подобные документы

  • Механизм передачи информации, ее количество и критерии измерения. Единицы информации в зависимости от основания логарифма. Основные свойства и характеристики количества информации, ее энтропия. Определение энтропии, избыточности информационных сообщений.

    реферат [33,9 K], добавлен 10.08.2009

  • Человек и компьютер, особенности взаимодействия. Свобода массовой информации в Российской Федерации. Объективность и субъективность, полнота, достоверность информации. Общее понятие про информационные технологии. Основные примеры носителей информации.

    презентация [259,1 K], добавлен 02.06.2012

  • Актуальность (своевременность) информации. Информационные ресурсы и информационные технологии. Подходы к определению количества информации. Свойства информации, ее качественные признаки. Роль информатики в развитии общества. Бит в теории информации.

    презентация [200,9 K], добавлен 06.11.2011

  • Проблемы защиты информации человеком и обществом. Использование информации. Организация информации. Угроза информации. Вирусы, характеристика и классификация. Проблемы защиты информации в Интернете. Анализ и характеристики способов защиты информации.

    реферат [36,5 K], добавлен 17.06.2008

  • Сущность термина "информация". Информация как соотношения между сообщением и его потребителем. Свойства информации: философский, кибернетический подход. Характеристика носителей информации. Единицы количества информации: вероятностный и объемный подходы.

    реферат [63,4 K], добавлен 27.03.2010

  • Анализ нормативно-правовой базы, обоснование направлений создания обеспечения комплексной защиты информации в автоматизированных системах. Разработка методики оценки, выбор путей повышения эффективности защитных мероприятий в автоматизированных системах.

    дипломная работа [368,5 K], добавлен 17.09.2009

  • Основы защиты компьютерной информации: основные понятия и определения. Классификация угроз безопасности информации. Формы и источники атак на объекты информационных систем. Анализ угроз и каналов утечки информации. Анализ рисков и управление ими.

    курс лекций [60,3 K], добавлен 31.10.2009

  • Основы теории передачи информации. Экспериментальное изучение количественных аспектов информации. Количество информации по Хартли и К. Шеннону. Частотные характеристики текстовых сообщений. Количество информации как мера снятой неопределенности.

    лабораторная работа [42,3 K], добавлен 15.02.2011

  • Виды угроз безопасности в экономических информационных системах: цель, источники, средства реализации. Основные пути несанкционированного доступа к информации. Методы и средства защиты, используемые в АИТ маркетинговой деятельности, их классификация.

    реферат [30,1 K], добавлен 12.03.2011

  • Символьное и образное представление информации. Единицы ее измерения. Язык как способ символьного представления информации. Знак как элемент конечного множества. Алфавитный подход к измерению информации. Решение задач на определение ее количества.

    презентация [178,2 K], добавлен 12.12.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.