Кодирование информации

Понятие информации, ее классификация и способы передачи. Компьютерный подход к измерению информации, основные способы ее кодирования. Понятие о системах счисления, запись систематического числа. Перевод числа из одной системы счисления в другую.

Рубрика Программирование, компьютеры и кибернетика
Вид лекция
Язык русский
Дата добавления 05.02.2012
Размер файла 1,5 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

2

Содержание

    • Информатизация общества 3
    • Понятие информационной системы 5
    • Понятие информации 6
    • Способы передачи информации 9
    • Классификация информации 10
    • Качество информации (свойства информации) 12
    • Меры информации 14
      • Синтаксическая мера информации 14
      • Семантическая мера информации 18
      • Прагматическая мера информации 19
    • Компьютерный подход к измерению информации 20
      • Язык и информация. Кодирование информации. Алфавит кода 20
      • Представление и кодирование информации в компьютере 21
      • Единицы измерения информации. 24
      • Кодирование информации 25
      • Кодирование текстовой информации 25
      • Кодирование графической информации 28
        • Формирование растрового изображения 28
      • Кодирование звуковой информации 29
    • Двоичная система счисления 31
      • История развития. Разнообразие систем счисления. 31
      • Понятие о системах счисления. Запись систематического числа 32
      • Классификация систем счисления 33
      • Запись чисел в разных системах счисления 33
      • Перевод числа из одной системы счисления в другую 34
    • Информационные процессы. Общность информационных процессов в живой природе, технике, обществе 39
    • Информатика _ предмет и задачи
    • Термин informatigue (информатика) возник в 60-х гг. во Франции и означает «информационная автоматика или автоматизированная переработка информации». В англоязычных странах этому термину соответствует синоним computer science (наука о компьютерной технике).

Информатика - это область человеческой деятельности, систематизирующая приемы создания, хранения, обработки и передачи информации средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Главная функция информатики заключается в разработке методов и средств преобразования информации и их использовании в организации технологического процесса переработки информации.

Структура современной информатики:

Размещено на http://www.allbest.ru/

2

Задачи информатики

· исследование информационных процессов любой природы;

· разработка информационной техники и создание новейшей технологии переработки информации на базе полученных результатов исследования информационных процессов;

· решение научных и инженерных проблем создания, внедрения и обеспечения эффективного использования компьютерной техники и технологии во всех сферах общественной жизни.

информация кодирование компьютерное счисление

Информатизация общества

Человеческое общество прошло по мере своего развития этапы овладения:

· веществом;

· энергией;

· информацией.

Критерии развитости информационного общества:

· Наличие компьютеров;

· Уровень развития компьютерных сетей;

· Количество населения, занятого в информационной сфере и использующего информационные технологии в повседневной жизни

Производство компьютеров:

40 - 60-е годы

Середина 70-х

Начало 80-х

Конец 90-х

Десятки-сотни штук в год

Десятки тысяч в год

Сотни тысячв год

100 млн. ПК в год

Большие ЭВМ, недоступные массовому пользователю

Массовое производство недорогих ПК фирмы Apple

Массовое производство ПК фирмы IBM

Компьютерные сети:

· в 1981 году было 213 компьютеров, подключенных к Интернету;

· в 2000 году - 100 млн.

О степени информатизации различных стран можно судить по количеству серверов Интернета и количеству пользователей:

I место - США

II место - Япония

XXIII место - Россия

Информационное общество - это общество, в котором большая часть населения занята получением, переработкой, передачей и хранением информации.

По данным ООН в 90-е годы количество населения, занятого в информационной сфере увеличилось на 25%, тогда как количество работников, занятых в сельском хозяйстве и промышленности сократилось на 10 и 15% соответственно

Для свободной ориентации в информационном потоке человек должен обладать информационной культурой как одной из составляющих общей культуры.

Информационная культура - умение целенаправленно работать с информацией и использовать для ее получения, обработки и передачи компьютерную информационную технологию, современные технические средства и методы.

Атрибуты общества безбумажной информатики:

· Электронный документооборот.

· Информационная (сетевая) грамотность населения.

· Превращение информации в товар.

· Доступность населению баз данных и знаний (в том числе сети Интернет).

· Информатизация основных систем общества.

Понятие информационной системы

Информационная система - это взаимосвязанная совокупность технических средств, программного обеспечения, методов и персонала предназначенная для информационного обслуживания пользователей и технических объектов.

Технические средства - оборудование для ввода, хранения, преобразования и вывода данных, в том числе ЭВМ, устройства сопряжения ЭВМ с объектами, аппаратура передачи данных, и линии связи.

Программное обеспечение (программные средства) - совокупность программ, реализующих возложенные на систему функции.

Функции информационных систем состоят в выполнении требуемых актов обработки данных: ввода, хранения, преобразования и вывода.

Например, вычислительные системы для решения научных, инженерно-технических, планово-экономических и учетно-статистических задач, автоматизированные системы управления предприятиями и отраслями народного хозяйства, системы автоматизированного и автоматического управления технологическим оборудованием и техническими объектами, информационно-измерительные системы и др.

Персональный компьютер - это электронный прибор, предназначенный для автоматизации создания, хранения, обработки и передачи информации.

Слово «электронный» в данном определении не очень принципиально. История техники знает и электрические, и механические устройства для обработки информации.

Значительно более важным в этом определении является слово автоматизация. Компьютеры отличаются тем, что работают по заложенным в них программам.

Программа - это упорядоченная последовательность команд.

На первый взгляд может показаться, что компьютер работает под управлением человека и программы здесь ни при чем. Но это не так. С первой и до последней минуты в компьютере автоматически работает множество программ, благодаря которым и обеспечивается общение с человеком. Каждую секунду компьютер обрабатывает лишь несколько команд, полученных от человека, и в это же время он успевает исполнить миллионы команд, полученных от загруженных в него программ. Поэтому и говорят, что компьютер работает автоматически.

Взаимодействие между компьютером и человеком с помощью программ называется программным интерфейсом.

Физические устройства, с помощью которых человек управляет программами и получает информацию от компьютера (клавиатура, мышь, монитор и прочее), называются аппаратным интерфейсом.

Компьютер - это программно-управляемое устройство. Т.е. комплекс из двух составляющих: ПО (программное обеспечение) и АО (аппаратное обеспечение).

Понятие информации

Информацию можно определить как набор сообщений об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности и неполноты знаний.

Термин информация происходит от латинского слова informatio, что означает разъяснение, осведомление, изложение.

В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, людьми и машинами, живой и не живой природой. Данное определение не претендует на полноту и законченность, так как информация относится к наиболее фундаментальным понятиям, таким как материя, поле, энергия, которые лишь описываются и трактуются.

Информация может существовать в виде:

· текстов, рисунков, чертежей, фотографий;

· световых или звуковых сигналов;

· радиоволн;

· электрических и нервных импульсов;

· магнитных записей;

· жестов и мимики;

· запахов и вкусовых ощущений;

· хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т. д.

Понятие “информация” предполагает наличие:

• материального носителя информации,

• источника информации,

• передатчика информации,

• приемника,

• канала связи между передатчиком и приемником.

В информатике информацию разделяют на аналоговую и цифровую. Человек благодаря своим органам чувств привык иметь дело с аналоговой информацией, а вычислительная техника в основном работает с цифровой информацией. Разница между аналоговой информацией и цифровой прежде всего в том, что аналоговая информация непрерывна, а цифровая - дискретна. При аналоговом представлении информации физическая величина может принимать бесконечное множество значений. При дискретном представлении информации физическая величина может принимать конечное множество значений, при этом она изменяется скачкообразно. Преобразование информации из аналоговой формы в цифровую называется аналого-цифровым преобразованием (АЦП).

График 1 График 2 График 3

На графике 1 отображена аналоговая информация - график непрерывной функции Y=X2. На графике 2 графике 3 отображено преобразование аналоговой информации в цифровую. Погрешность, возникающая при таком преобразовании, называется погрешностью оцифровки. Чем меньше дискретность, тем ближе цифровая информация к аналоговой и меньше погрешность оцифровки (сравните график 2 и график 3).

Часто кроме употребления термина информация используется термин данные, которые существенно различаются. Информация _ сообщения, которые реально, практически используются. Данные - сведения, представленные в определенной знаковой системе и на определенном носителе для обеспечения возможностей их хранения, передачи, приема и обработки, они не используются, а только хранятся. Данные безотносительны к содержанию информации. Если появляется возможность использовать их для уменьшения неполноты знаний о чем-либо, они превращаются в информацию. Информация - это данные, сопровождающиеся смысловой нагрузкой.

С термином «информация» связаны и термины «сообщение» и «знания».

Сообщение - информация представленная в определенной форме (речь, текст, изображение, цифровые данные, график, таблица) и предназначенная для передачи.

Знания - проверенный практикой и удостоверенный логикой результат познания действительности, отраженный в сознании человека в виде представлений, понятий, суждений и теорий.

Знания позволяют принимать решения. Для знаний характерны структурированность, связанность.

Способы передачи информации

Сигнал - любой процесс, несущий информацию

Носителями информации являются сигналы. Это физические процессы различной природы, например:

• процесс протекания электрического тока в цепи,

• процесс механического перемещения тела,

• химические и биохимические процессы,

• процесс распространения электромагнитных волн…

Регистрация сигналов на носителях информации:

Носитель информации

Способ регистрации сигналов

Бумага

оптический

CD

Магнитная лента,

дискета

магнитный

Фотопленка, фотобумага

химический

Органическая природа

биохимический

Сама информация совершенно инвариантна (неизменна) по отношению к изменению способа ее передачи (акустический, оптический, электрический) и системы запоминания (мозг, книга, электронный носитель).

От одного человека к другому информация может передаваться:

• символами ( ® $ > ? d ¦ > );

• жестами ( );

• художественными образами (стихи, живопись, балет…);

• звуками.

Между животными информация может быть передана звуками (вой, лай, писк), запахами, ситуационным поведением. В технических устройствах (телевизор, телефон, ЭВМ…) информация может быть передана электрическими, магнитными, световыми импульсами.

Классификация информации

По месту возникновения:

Входная - информация, поступающая в фирму или ее подразделения.

Выходная - информация, поступающая из фирмы в другую организацию.

Внутренняя - информация, возникающая внутри объекта.

Внешняя - информация, возникающая за пределами объекта.

По стабильности:

Переменная - отражает фактические количественные и качественные характеристики, может меняться (например, кол-во произведенной в смену продукции, затраты на доставку сырья и т.п.)

Постоянная (условно-постоянная)- неизменная и постоянно используемая в течении длительного периода информация, может быть справочной, нормативной, плановой.

По стадии обработки:

Первичная - возникает в процессе деятельности объекта и регистрируется на начальной стадии.

Вторичная - получается в результате обработки первичной и может быть промежуточной и результатной

Промежуточная - используется в качестве исходных данных для последующих расчетов

Результатная - получается в результате обработки первичной и промежуточной и используется для выработки управленческих решений.

По способу отображения:

Текстовая - совокупность символов, с помощью которых информация представляется на физическом носителе (на бумаге, на экране монитора).

Графическая - различного рода графики, диаграммы, рисунки, схемы и т.д.

По функции управления:

Плановая - информация о параметрах объекта управления на будущий период (например, план выпуска продукции, планируемая прибыль, ожидаемый спрос и т.п.)

Нормативно-справочная - содержит различные нормативные и справочные данные, ее обновление происходит достаточно редко (например, оклад служащего, время для изготовления типовой детали, адрес поставщика и т.п.)

Учетная - характеризует деятельность фирмы за определенный прошлый период времени (например, информация бухгалтерского или оперативного учета, статистическая информация).

Оперативная - используется в оперативном управлении и характеризует производственные процессы в текущий период времени (например, кол-во изготовленных деталей за час, смену, день, кол- во проданной продукции за день, объем сырья от поставщика на начало рабочего дня и т.д.).

По способу передачи и восприятия:

Визуальная (воспринимаемая зрительно)

Аудиальная (воспринимаемая на слух)

• тактильная (ощущения)

органолентическая (запах и вкус)

машинно-выдаваемая и воспринимаемая средствами вычислительной техники

В философском аспекте:

Мировоззренческая

• Эстетическая

• Религиозная

• Научная

• Бытовая

• Техническая

• Экономическая

• Технологическая

Качество информации (свойства информации)

Эффективность использования информации определяется показателями ее качества, т.е. информацию возможно эффективно использовать, если она обладает следующими свойствами:

· достоверность;

· полнота;

· точность;

· ценность;

· актуальность;

· своевременность;

· понятность;

· доступность;

· устойчивость

· краткость и т. д.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений. Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, т. е. перестает отражать истинное положение дел.

Информация полна, если ее достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдет применение в каких-либо видах деятельности человека.

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она еще не может быть усвоена), так и ее задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, всевозможных инструкциях.

Устойчивость информации отражает ее способность реагировать на изменение исходных данных без нарушения необходимой точности.

Меры информации

Ко второй половине ХХ века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. А потом добавились еще и ЭВМ - переработчики информации.

И тут сказался двойственный характер информации. При проектировании систем связи кроме физических и энергетических позиций инженеру необходимо было обратить внимание на то, какое количество информации пройдет через эту передающую систему. Т. е. появилась необходимость измерить информацию.

Каждое сообщение несет четко определенное количество информации, независимо от ее ценности. Передающей системе важно одно: передать нужное количество информации за определенное количество времени. В этом случае человеческая оценка информации полностью игнорирована, а присутствует только количественный подход к передаче информации.

Но существует и другая сторона оценки количества информации. Как можно вычислить количество информации в конкретном сообщении? Одно и то же сообщение несет для разных объектов разное количество информации, т.к. уровень новизны и ценности полученной информации для них разный. В этом случае количество информации можно определить как уменьшение неопределенности об интересующем предмете.

Синтаксическая мера информации

Синтаксическая мера информации оперирует с обезличенной информацией (данными), не выражающей смыслового отношения к объекту.

Для измерения информации вводится два параметра:

количество информации (I);

• объем данных (Vд)

Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении (длина информационного кода).

Например:

1. конкурс выиграл B Vд =17 символов

2. B стал победителем Vд =18 символов

3. A проиграл Vд = 10 символов

Количество информации о системе, полученное в сообщении, измеряется уменьшением неопределенности о состоянии системы.

Меру неопределенности в теории информации называют энтропия”. Неопределенность не отделима от понятия вероятности. Одинаково ли количество информации в ответах на вопросы:

Вопрос

Ответ

1. В каком из 4-х возможных состояний (твердое, жидкое, газообразное, плазма) находится некоторое вещество?

2. На каком из 4-х курсов учится студент техникума?

Если считать эти состояния равновероятными, то P(i)=1/4. Тогда ответ на вопросы 1 и 2 снимает равную неопределенность => содержит равное кол-во информации

3. Как упадет монета при подбрасывании: “орлом” или “решкой”?

P(i)=1/2.

Вероятность каждого состояния больше, а снимаемая ответом неопределенность меньше => содержит меньшее кол-во информации

Выводы

• Чем меньше вероятность события, тем больше информации несет сообщение о его появлении.

• Если вероятность события равна 1 (достоверное событие), количество информации в сообщении о его появлении равно 0.

«Конкурс выиграет один из участников: A или B» - это априорная (предварительная) информация о системе, утверждающая, что система может находиться в одном из 2-х состояний.

После получения любого сообщения из:

конкурс выиграл B Vд =17 символов

B стал победителем Vд =18 символов

A проиграл Vд = 10 символов

неопределенность снизилась до одного варианта из двух изначально возможных. Чему равно количество информации, которое несет это сообщение?

Для синтаксической оценки количества информации не важно в каком именно состоянии находится система, важно только возможное количество состояний системы и их априорные вероятности.

Пусть до получения информации потребитель имеет некоторые априорные сведения о системе . Мерой его неосведомленности о системе является функция H(), которая служит и мерой неопределенности состояния системы.

После получения некоторого сообщения получатель приобрел некоторую дополнительную информацию I(), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения ) неопределенность состояния системы стала H().

Тогда количество информации I() о системе, полученной в сообщении , определяется как

I() = H() - H(),

т.е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Формула Шеннона

Энтропия системы H() согласно формуле Шеннона равна:

где H() - энтропия системы;

N - число возможных состояний системы;

P(i) -вероятность того, что система находится в i-ом состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны Pi = 1/N, её энтропия определяется соотношением:

Энтропия системы может рассматриваться как мера недостающей информации.

Расчет количества информации по Хартли

Частный случай формулы Шеннона для равновероятных событий:

где I - количество информации, бит

N - число возможных состояний системы

Чем большее количество состояний мог принимать объект, тем большее количество информации несет данное сообщение.

Коэффициент (степень) информативности сообщения определяется соотношением количества информации к объему данных, т.е.

причем 0 < Y < 1

С увеличением Y уменьшается объем работы по преобразованию данных в системе. Поэтому стремятся к повышению информативности, для чего разрабатывают специальные методы оптимального кодирования информации.

Человек, бросающий монету и наблюдающий за ее падением, получает определенную информацию. Его интересует ответ - какой стороной упадет монета. Неопределенность после того, как монета упадет, будет равна нулю, т.е. будет достигнута полная ясность. Какой же прогноз можно сделать до бросания монеты? Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. Начальная неопределенность равна 1. Конечная неопределенность после падения монеты равна 0.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение.

Тезаурус - это совокупность сведений, которыми располагает пользователь или система.

Максимальное количество семантической информации потребитель приобретает когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, радиопередача и т. п.) может содержать разное количество информации для разных людей в зависимости от их накопленных знаний, от уровня понимания этого сообщения и интереса к нему.

Sp - тезаурус пользователя

Ic - количество семантической информации

Количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной.

Относительной мерой количества семантической информации может служить коэффициент содержательности С, который определяется как отношение количества семантической информации к ее объему:

Прагматическая мера информации

Определяет полезность информации (ценность) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же единицах (или близких к ним), в которых измеряется целевая функция.

Например, в экономической системе ценность информации можно определить приростом экономического эффекта функционирования, достигнутым благодаря использованию этой информации для управления системой.

Компьютерный подход к измерению информации

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов, звуков и т. п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объем сообщения.

Язык и информация. Кодирование информации. Алфавит кода

Информация, воспринимаемая человеком в речевой или письменной форме, называется символьной, или знаковой информацией.

В письменном тексте содержатся буквы, знаки препинания, цифры и другие символы. Устная речь тоже складывается из знаков. Только эти знаки не письменные, а звуковые -- фонемы. Из фонем складываются слова, из слов -- фразы. Между письменными знаками и звуками есть прямая связь. Сначала появилась речь, а потом -- письменность. Письменность для того и нужна, чтобы зафиксировать на бумаге человеческую речь. Отдельные буквы или сочетания букв обозначают звуки речи, а знаки препинания -- паузы, интонацию.

Человеческая речь и письменность тесно связаны с понятием языка. У каждого народа свой национальный разговорный язык. Эти языки -- русский, английский, китайский, французский -- называются естественными языками. Естественные языки имеют устную и письменную формы. Кроме разговорных (естественных) языков существуют формальные языки. Как правило, это языки какой-нибудь профессии или области знаний. Например, математическую символику можно назвать формальным языком математики; нотная грамота -- формальный язык музыки. Основное отличие формальных языков от естественных состоит в наличие не только жестко зафиксированного алфавита, но и строгих правил грамматики и синтаксиса.

Язык -- это знаковая система представления информации. Общение на языках -- это процесс передачи информации в знаковой форме.

Каждый язык имеет свой алфавит. Например, русские буквы, математические символы, ноты. Можно привести примеры разных способов знакового обмена информацией, заменяющих речь. Например, глухонемые люди речь заменяют жестикуляцией. Жесты дирижера передают информацию музыкантам. Судья на спортивной площадке пользуется определенным языком жестов, понятным игрокам. Однако запахи, вкусовые и осязательные ощущения не могут быть переданы с помощью знаков. Безусловно, они несут информацию, поскольку мы их запоминаем, узнаем. Такую информацию будем называть образной информацией. К образной относится также информация, воспринимаемая зрением и слухом: шум ветра, пение птиц, картины природы, живопись. В живых организмах информация передается и хранится с помощью объектов различной физической природы (состояние нейрона, нуклеотиды в молекуле ДНК), которые могут рассматриваться как знаки биологических алфавитов.

Представление и кодирование информации в компьютере

Системы кодирования предназначены для замены названий объектов на условные обозначения (код) для обеспечения удобной и более эффективной работы по обработке информации.

Системой кодирования называют совокупность правил кодового обозначения объектов.

Присваиваемый код характеризуется:

- длиной - количеством позиций символов;

- структурой - порядком расположения в коде символов.

Процедуру присвоения объекту кода называют кодированием.

Код - это способ наименования и изображения чисел с помощью символов, имеющих определенные количественные значения.

Компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию.

Наиболее простым, надежным и экономичным способом из множества возможных оказалось так называемое «битовое» представление и хранение информации. При таком способе каждая частица запоминающей среды может иметь только два возможных состояния: ДА, НЕТ; есть напряжение - нет напряжения. Связано это с логической организацией и физическим устройством ПК, как программно управляемого автомата. В основе работы такой системы представления информации лежит двоичная система исчисления (в настоящее время термин «двоичная система исчисления» заменён термином «двоичный код»).

Количество информации, которое можно получить при ответе на вопрос типа “да/нет” (включено/выключено, true/false, 0/1), если эти состояния равновероятны, называется бит (англ. bit - binary digit - двоичное число).

Сколько же нулей и единиц нужно, чтобы закодировать сообщение? Рассмотрим пример.

Лампочка горит? (да/нет) - 1 бит информации (при равных вероятностях).

В один бит можно записать 0 или 1. Тогда количество информации по Хартли равно:

I - количество информации, бит

N - число возможных состояний системы

Рассмотрим систему из 2-х электрических лампочек

Размещено на http://www.allbest.ru/

2

С помощью двух бит кодируются четыре различных состояния: 00, 01, 10, 11.

Три бита - восемь состояний 000, 001, 010, 011, 100, 101, 110, 111.

В общем случае: n бит - 2n состояний.

Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр (0 и 1).

Определите количество информации в сообщении: “Сейчас горит красный сигнал светофора”, если считать, что светофор всегда работает и вероятности появления красного, зеленого и желтого сигналов равны. Ответ получится больше или меньше, чем 1 бит?

Решение:

Единицы измерения информации.

Группа из 8 бит называется байтом.

Байт - основная единица измерения информации

На основании 1 байта, исходя из формулы Хартли, можно получить 256 различных комбинаций (N = 28 = 256).

0

0

0

0

0

0

0

0

0

min

7-ой

6-ой

5-ый

4-ый

3-ий

2-ой

1-ый

0-ой

255

1

1

1

1

1

1

1

1

max

7-ой

6-ой

5-ый

4-ый

3-ий

2-ой

1-ый

0-ой

Существуют и более крупные единицы измерения информации:

1 Кбайт (килобайт) = 1024 байт (103)

1 Мбайт (мегабайт) = 1024 Кбайт (106)

1 Гбайт (гигабайт) = 1024 Мбайт (109)

1 Тбайт (терабайт) = 1024 Гбайт (1012)

1 Пбайт (петабайт) = 1024 Тбайт (1015)

1 Эбайт (экзабайт) = 1024 Пбайт (1018)

Кодирование информации

Информация может накапливаться и передаваться физическими средствами лишь с помощью кода.

Примеры систем кодирования:

на естественных языках

на формальных языках

--*--* -- -- -- *--*

Размещено на http://www.allbest.ru/

2

Размещено на http://www.allbest.ru/

2

Размещено на http://www.allbest.ru/

2

А Б В Г Д Е…

+7(3912)44-92-18

? ! , ; “ ” … ( )

Размещено на http://www.allbest.ru/

2

Размещено на http://www.allbest.ru/

2

Естественные языки имеют устную и письменную форму. Формальные языки используются в какой-либо области деятельности.

Системой кодирования называют совокупность правил кодового обозначения объектов.

Системы кодирования предназначены для замены названий объектов на условные обозначения (код) для обеспечения удобной и более эффективной работы по обработке информации.

Кодирование текстовой информации

Для кодирования одного символа требуется 1 байт информации (можно закодировать 256 символов). Каждому символу ставится в соответствие уникальный десятичной код от 0 до 255. Обычно используется код ASCII (American Standard Code for Information Interchange).

Коды от 0 до 32 _ специальные (управляющие) клавиши;

от 33 до 127 _ цифры, знаки и буквы латинского алфавита;

от 128 до 255 - национальные алфавиты.

За национальные алфавиты стандарт ASCII не отвечает. Часто бывает, что даже в одной стране в этой половине кодовой таблицы действуют несколько разных стандартов, предназначенных для различных компьютерных систем. В России, например, содержание этой половины таблицы может подчиняться пяти разным стандартам (КОИ8, СЗ866, СЗ1251, Mac, ISO), каждый из которых действует в своей особой области.

код

Windows-1251

КОИ-8

ISO

192

А

ю

Р

193

Б

а

С

194

В

б

Т

В большинстве случаев пользователь не должен заботиться о перекодировках, так как это делают специальные программы-конверторы, встроенные в приложения.

В последнее время появился новый международный стандарт Unicode, который отводит на символ не один, а два байта - кодировка MS Windows&Office с 1997 г. (применяется, например, для кодирования иероглифов).

Задача 1.

Размер текстового файла (Vд) 640 Kb. Файл содержит книгу, которая набрана в среднем по 32 строки на странице и по 64 символа в строке. Сколько страниц в книге: 160, 320, 540, 640, 1280?

Решение:

1) 1 символ - 1 b

2) Символов на 1 странице: 32 * 64 = 25 * 26=211

3) Памяти на 1 страницу: 211 b

4) 1 Kb = 1024 b = 210

5) Размер файла в байтах: 640 Kb = 10 * 64 * 210 b = 10 * 26 * 210 b = 10 * 216 b

6) Количество страниц: 10*216 b / 211 b = 10 * 25 = 320

Задача 2.

Досье на сотрудников занимают 8 Mb. Каждое из них содержит 16 страниц (32 строки по 64 символа в строке). Сколько сотрудников в организации: 256; 512; 1024; 2048?

Решение:

1) Символов в 1 досье: 16*32*64 = 24*25*26=215

2) Памяти на 1 досье: 215b

3) Всего памяти: 8 Mb = 23 * 220 b = 223 b

4) Кол-во сотрудников: 223 b / 215 b = 28 = 256

Кодирование графической информации

В процессе кодирования изображений происходит их пространственная дискретизация. Изображение разбивается на отдельные фрагменты (точки) и каждому фрагменту присваивается код цвета.

Качество кодирования изображения тем выше

• чем меньше размер точки;

• чем большее количество цветов в используемой палитре.

Формирование растрового изображения

Графическая информация на экране монитора представляется в виде растрового изображения, которое формируется из определенного количества строк, которые в свою очередь содержат определенное количество точек (пикселей).

Качество изображения определяется разрешающей способностью монитора, т.е. количеством точек, из которых оно складывается. Чем больше разрешающая способность, тем выше качество изображения.

Для кодирования черно-белого изображения без градаций серого необходим один бит.

Цветные изображения могут иметь различную глубину цвета, которая задается количеством битов, используемым для кодирования цвета точки. Наиболее распространенными являются 8, 16, 24 или 32 бита.

Количество цветов, отображаемых на экране может быть вычислено по формуле:

N = 2I,

где N - количество цветов

I - глубина цвета

Глубина цвета и количество отображаемых цветов:

Глубина цвета (I)

Количество отображаемых цветов (N)

8

28 = 256

16 (HiColor)

216 = 65 536

24 (True Color)

224 = 16 777 216

32 (True Color)

232 = 4 294 967 296

Задача 3.

Для хранения области экрана монитора размером 256х128 точек выделено 32 Kb оперативной памяти. Количество цветов, максимально допустимое для раскраски каждой точки: 4; 16; 256; 512?

Решение:

1) Всего точек: 128 * 256 = 27 * 28 = 215

2) Всего памяти в байтах: 32 Kb = 32 * 210 b = 25*210 b = 215 b

3) Памяти на одну точку: 215 b / 215 = 1 b = 8 бит

4) Комбинаций на основании 8 бит: 28 = 256

Задача 4.

Информация о каждой точке на экране монитора с разрешающей способностью 800 х 600 точек и глубиной цвета 24 бита хранится в видеопамяти компьютера. Рассчитать необходимый объем видеопамяти.

Решение:

1) Всего точек на экране: 800 * 600 = 480 000

2) Объем видеопамяти: 480 000 * 24 = 11 520 000 бит = 1 440 000 байт = 1 406,25 Кбайт = 1,37 Мбайт

Кодирование звуковой информации

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда сигнала, тем он громче, чем больше частота сигнала, тем выше тон. Преобразование звуковой информации из аналоговой формы в цифровую производится путем дискретизации, т.е. разбиения непрерывной звуковой волны на отдельные маленькие временные участки, причем для каждого такого участка устанавливается определенная величина амплитуды. В процессе дискретизации производится кодирование, т.е. присвоение каждому элементу конкретного значения в форме кода.

Дискретизация - это преобразование непрерывных изображений и звука в набор дискретных значений в форме кодов.

Таким образом, непрерывная зависимость амплитуды сигнала от времени A(t) заменяется на дискретную последовательность уровней громкости. На графике это выглядит как замена гладкой кривой на последовательность «ступенек». Чем больше количество уровней громкости будет выделено в процессе кодирования, тем большее количество информации будет нести значение каждого уровня и тем более качественным будет звучание.

Современные звуковые карты обеспечивают 16-битную глубину кодирования звука. В этом случае количество различных уровней сигнала можно рассчитать по формуле: N = 216 = 65536, т.е. закодировать можно 65536 различных уровней сигнала, каждый из которых записывается в виде 16-битного кода.

Качество кодирования зависит от количества измерений уровня сигнала в единицу времени, т.е. частоты дискретизации.

Двоичная система счисления

История развития. Разнообразие систем счисления.

Когда людям приходилось считать на пальцах очень большие совокупности предметов, к счету привлекали больше участников. Один считал единицы, второй - десятки, а третий - сотни, т.е. десятки десятков.

5

При счете пальцами одной руки. При таком счете пальцы второй руки называют теми же словами, что и пальцы первой руки, но добавляют слово, означающее пять пальцев или руку. Так что шесть у этих народов звучит чем-то вроде «одиннапять».

20

У большинства народов, применявших пятеричный счет, он сочетался с двадцатеричным - две руки и две ноги давали двадцать пальцев. Например, у шумеров число 40 называлось «дважды двадцать», а не «четыре раза десять».

Майя считали двадцатками. Числа от 1 до 20 обозначались точками и черточками.

Если под числом был нарисован особый значок в виде глаза, это значило, что число надо увеличить в двадцать раз.

.

..

...

....

____

.__

1

2

3

4

5

6

60

Серьезным соперником десятичной системы счета оказалась двенадцатеричная. Вместо десятков применяли при счете дюжины, т.е. группы из двенадцати предметов. В столовый сервиз, как правило, входят 12 глубоких, 12 мелких и 12 маленьких тарелок, а в чайный - 12 чашек, 12 блюдец и т.д.

Шумеры и вавилоняне не остановились на счете дюжинами. Их система счисления была шестидесятеричной. Например, число 137 вавилонский ученый представлял себе так:

2 шестидесятки + 17 единиц = 137

В этой системе счисления особые имена получили числа 10, 60, 600, 3600, 36 000, 216 000 и т.д. Иными словами, числа 6 и 10 соперничали друг с другом: вместо того чтобы умножать каждый раз предыдущую разрядную единицу на 10, как это делаем мы, шумеры сначала умножали 1 на 10, потом 10 на 6, затем 60 снова на 10, а 600 опять на 6 и т.д. Счет шестидесятками оказал влияние на наше измерение времени и углов. Ведь мы до сих пор делим час на 60 минут, а минуту - на 60 секунд. Окружность делят на 360 , т.е.6*60 градусов, градус - на 60 минут, а минуту - на 60 секунд. Так что самые точные часы и угломерные приборы хранят в себе память о глубочайшей древности.

10

Разумеется, победа десятичной системы счисления над всеми соперницами объясняется тем, что у человека на каждой руке по пять пальцев. Было бы их шесть, считали бы мы не десятками, а дюжинами. А если бы у нас, как у лошадей, на руках и ногах были копыта, то арифметика была бы такой же, как у папуасов, - мы считали бы парами.

2

Но странные повороты делает история! Именно двоичная система счета оказалась самой полезной для современной техники. Мы поговорим об этом позднее, а сейчас лишь упомянем, что на основе двоичной арифметики работают современные быстродействующие вычислительные машины.

Понятие о системах счисления. Запись систематического числа

Способ записи чисел с помощью символов, имеющих определенные количественные значения называется системой счисления.

В основе всякой системы счисления лежит следующий принцип: некоторое определенное число единиц составляет одну единицу следующего высшего разряда. Это число называется основанием системы счисления (q):

· q=2 двоичная СС;

· q=3 троичная СС;

· q=5 пятеричная СС;

· q=10 десятичная СС;

· q=12 двенадцатеричная СС;

· ….

· q=60 шестидесятеричная СС и т.д.

Запись чисел в каждой из СС с основанием q означает сокращенную запись выражения:

Классификация систем счисления

Системы счисления

Позиционные

Непозиционные

В позиционных СС вес каждой цифры изменяется в зависимости от ее положения (позиции) в последовательности цифр, изображающих число.

Например, в числе 757,7 первая семерка означает 7 сотен, вторая - 7 единиц, а третья - 7 десятых долей единицы.

Сама же запись числа 757,7 означает сокращенную запись выражения:

700+50+7+0,7= =7*102+5*101+7*100+7*10-1=757,7

Значение каждой цифры зависит от ее положения (позиции) в числе.

В непозиционных системах вес цифры (т.е. вклад, который она вносит в значение числа) не зависит от ее позиции в записи числа. Так в римской СС в числе XXXII (32) вес цифры X в любой позиции равен просто десяти. Значение цифры не зависит от места (позиции) в числе.

Примером является Римская система счисления

Количество цифр, используемых для изображения числа в позиционной системе счисления, называется основанием системы счисления.

Запись чисел в разных системах счисления

Алфавитом системы счисления называется совокупность различных символов, с помощью которых записываются числа.

Например, в привычной для нас десятичной системе счисления алфавит состоит из десяти символов - это цифры от нуля до девяти, а в римской системе счисления алфавит составляют семь символов - это буквы латинского алфавита (I _ один, V _ пять,X _ десять, L - пятьдесят, C _ сто, D _ пятьсот, M _ тысяча). Примеры алфавитов систем счисления, используемых в вычислительной технике:

· двоичная (используются цифры 0, 1);

· восьмеричная (используются цифры 0, 1, … , 7);

· шестнадцатеричная (используются цифры 0, 1, … ,9, и символы А, B, C, D, E, F).

Десятичная

Двоичная

Восьмеричная

Шестнадцатеричная

0

0

0

0

1

1

1

1

2

10

2

2

3

11

3

3

4

100

4

4

5

101

5

5

6

110

6

6

7

111

7

7

8

1000

10

8

9

1001

11

9

10

1010

12

А

11

1011

13

B

12

1100

14

C

13

1101

15

D

14

1110

16

E

15

1111

17

F

16

10000

20

10

17

10001

21

11

Перевод числа из одной системы счисления в другую

Перевод числа из десятичной системы в двоичную (8-,16-ричную)

При переводе целого десятичного числа в систему с основанием q (q = 2,8,16) его необходимо последовательно делить на q до тех пор, пока не останется остаток, меньший или равный q-1. Число с основанием q записывается как последовательность последнего частного и остатков от деления, записанных в обратном порядке, т.е. начиная с последнего.

Пример. Перевести число 75 из десятичной системы в двоичную, восьмеричную и шестнадцатеричную.

7510 = 10010112 7510 = 1138 7510 = 4В16

Перевод правильной десятичной дроби осуществляется последовательным умножением дробной части на основание новой системы счисления. Целые части получаемых произведений являются цифрами дроби в новой системе счисления.

Пример. Перевести число 0,42510 из десятичной системы в двоичную, восьмеричную и шестнадцатеричную с точностью 2-4.

0, 425 0, 425 0, 425

2 8 16

0, 850 3, 400 6, 800

2 8 16

1, 700 3, 200 12, 800

2 8 16

1, 400 1, 600 12, 800

2 8 16

0, 800 4, 800 12, 800

0,42510 = 0,0112 0,42510 = 0,33148 0,42510 = 0,6ССD16

Для перевода неправильной десятичной дроби следует отдельно выполнить перевод целой и дробной частей по вышеописанным правилам и записать полученные результаты вместе.

Пример. Перевести число 12,4210 из десятичной системы в восьмеричную с точностью 2-2.

12 8 0, 42

4 1 8

3, 36

8

2, 88

1210 =148 0,4210 = 0,328 12,4210 = 14,328

Перевод числа из двоичной (8-,16-ричной) системы в десятичную

Для этого число в двоичной (8-,16-ричной) системе надо представить в виде суммы произведений каждой из цифр числа и степеней основания его системы счисления.

Примеры:

1011,12 = 1 * 23 + 0 * 22 + 1 * 21 + 1 * 20 + 1 * 2-1 = 11,510

276,58 = 2 * 62 + 7 * 81 + 6 * 80 + 5 * 8-1 = 190,6210

1F316 = 1 * 162 + 15 * 161 + 3 * 160 = 49910

Рассмотрим пример числа: 1579320. Пронумеруем все разряды справа налево, причем разряд единиц будем считать нулевым; тогда разряд десятков будет первым, сотен вторым, тысяч третьим и так далее. Такая нумерация весьма естественна, поскольку единицы - это 10 в нулевой степени, десятки - 10 в первой, сотни - 10 во второй и т. д., то есть расположение той или иной цифры в записи числа есть не что иное, как прямое указание, какой степенью 10 его можно заменить. А само значение цифры показывает, сколько раз надо взять 10 в заданной степени.

Таким образом, окончательно наше число запишется в следующем виде: 1*106+5*105+7*104+9*103+3*102+2*101+0*100 .

В вычислительных машинах применяют две формы представления двоичных чисел: естественная форма или форма с фиксированной запятой (точкой), нормальная форма или форма с плавающей запятой (точкой).

С фиксированной точкой все числа изображаются в виде последовательности цифр с постоянным для всех чисел положением запятой, отделяющей целую часть от дробной. С плавающей запятой каждое число изображается в виде двух групп цифр. Первая группа называется мантиссой, вторая порядком, причем абсолютная величина мантиссы должна быть меньше 1, а порядок - целым числом. В общем виде это будет выглядеть так:

N=±MP±r, где М- мантисса числа(|M|<1);

r - порядок числа (r - целое число);

Р - основание системы счисления.

Нормальная форма представления имеет огромный диапазон значений отображения чисел и является основной в современных ЭВМ. При программировании иногда используется шестнадцатеричный код.

Можно легко переводить числа из двоичной системы счисления в восьмеричную или шестнадцатеричную и наоборот. Основание 16 = 24, а 8 = 23. Это значит, что каждые четыре разряда в двоичной системе счисления составляют один в 16-ричной, а каждые три разряда - один 8-ричный.

Для перевода числа из двоичной системы счисления в 16-ричную (8-ричную) нужно разбить цифры по четверкам (тройкам), начиная с младших разрядов, и, воспользовавшись таблицей перевода, записать каждую четверку (тройку) двоичных цифр одной 16-ричной (8-ричной).

Для перевода числа из 16-ричной (8-ричной) системы счисления в двоичную нужно, воспользовавшись таблицей перевода, записать каждую цифру четырьмя (тремя) двоичными цифрами.

Примеры:

10010112 = 001 001 0112 = 1138

10010112 = 0100 10112 = 4В16

11010001,11012 = 011 010 001,110 1002 = 321,648


Подобные документы

  • Роль и практическое значение автоматизации вычислений и обработки данных. Представление информации в компьютере, сущность системы счисления. Перевод числа из одной системы счисления в другую. Арифметические операции в позиционных системах счисления.

    контрольная работа [1,2 M], добавлен 23.10.2009

  • Понятие и классификация систем счисления. Перевод чисел из одной системы счисления в другую. Перевод правильных и неправильных дробей. Выбор системы счисления для применения в ЭВМ. Навыки обращения с двоичными числами. Точность представления чисел в ЭВМ.

    реферат [62,0 K], добавлен 13.01.2011

  • Система счисления и перевод числа из одной системы в другую. Машинное предоставление информации. Числа с фиксированной точкой: прямой, обратный (инверсный) или дополнительный код. Программная реализация алгоритма и описание использованных процедур.

    курсовая работа [96,7 K], добавлен 20.11.2010

  • История систем счисления, позиционные и непозиционные системы счисления. Двоичное кодирование в компьютере. Перевод чисел из одной системы счисления в другую. Запись цифр в римской нумерации. Славянская нумерация, сохранившаяся в богослужебных книгах.

    презентация [516,8 K], добавлен 23.10.2015

  • Обработка информации и вычислений в вычислительной машине. Непозиционные и позиционные системы счисления. Примеры перевода десятичного целого и дробного числа в двоичную систему счисления. Десятично-шестнадцатеричное и обратное преобразование чисел.

    контрольная работа [41,2 K], добавлен 21.08.2010

  • Команды вычислительной машины, которые интерпретируются микропроцессором или микропрограммами. Правила для записи чисел цифровыми знаками. Способы кодирования информации. Практическое применение машинных кодов, систем счисления, кодировки информации.

    курсовая работа [1,6 M], добавлен 15.03.2015

  • Порождение целых чисел в позиционных системах счисления. Почему мы пользуемся десятичной системой, а компьютеры - двоичной (восьмеричной и шестнадцатеричной)? Перевод чисел из одной системы в другую. Математические действия в различных системах счисления.

    конспект произведения [971,1 K], добавлен 31.05.2009

  • Общее представление о системах счисления. Перевод чисел в двоичную, восьмеричную и шестнадцатеричную системы счисления. Разбивка чисел на тройки и четверки цифр. Разряды символов числа. Перевод из шестнадцатеричной системы счисления в десятичную.

    практическая работа [15,5 K], добавлен 19.04.2011

  • Двоичный код, особенности кодирования и декодирования информации. Система счисления как совокупность правил записи чисел с помощью определенного набора символов. Классификация систем счисления, специфика перевода чисел в позиционной системе счисления.

    презентация [16,3 K], добавлен 07.06.2011

  • Примеры правила перевода чисел с одной системы в другую, правила и особенности выполнения арифметических операций в двоичной системе счисления. Перевод числа с десятичной системы в двоичную систему счисления. Умножение целых чисел в двоичной системе.

    контрольная работа [37,3 K], добавлен 13.02.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.