Информация и ЭВМ

Схема передачи информации; хpанение, кодиpование и пpеобpазование данных. Роль ЭВМ в обработке информации: системы программного обеспечения; состав и назначение устройств; принципы маршрутизации, виды передач. Методы защиты от компьютерных вирусов.

Рубрика Программирование, компьютеры и кибернетика
Вид контрольная работа
Язык русский
Дата добавления 07.05.2012
Размер файла 36,7 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Оглавление

1. Понятие информации

2. Схема передачи информации

3. Роль ЭВМ в обработке информации

4. Системы программного обеспечения

5. Основные структуры данных

6. Обобщенная структура ЭВМ. Состав и назначение устройств. Принцип работы

7. Принципы маршрутизации. Виды передач

1. Понятие информации

Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.

Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем - «сведения», «передача сообщений».

В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.

Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит.

Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.

Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации.

Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.

Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.

Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит.

Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.

Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.

Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив.

А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.

Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации.

Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.

Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения «Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».

В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.

Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги».

Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.

Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы.

Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

2. Схема передачи информации

Всякое событие, всякое явление служит источником информации.

Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.

Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид.

С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента. Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных.

Чтобы ясен был многоликий характер понятия «канал связи», достаточно привести несколько примеров.

При телефонной передаче источник сообщения - говорящий. Кодирующее устройство, изменяющее звуки слов в электрические импульсы, - это микрофон. Канал, по которому передается информация - телефонный провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в «принимающее устройство» - ухо человека на другом конце провода. А вот каналсвязи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении.

Еще один пример - вычислительная машина. И здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина-автоматическое устройство для обработки информации, как станок - устройство для обработки металла. Машина не создает из «ничего» информацию, она преобразует только то, что в нее введено.

информация кодирование преобразование передача

3. Роль ЭВМ в обработке информации

Электронная вычислительная машина (ЭВМ)- вычислительная машина, в которой основные функциональные элементы (логические, запоминающие, индикационные) выполнены на электронных приборах.

ЭВМ используются преимущественно при научно-технических расчетах, обработке информации (в планировании, учете, прогнозировании), автоматическом управлении.

Хpанение, кодиpование и пpеобpазование данных

Хpанение инфоpмации в памяти ЭВМ - одна из основных функций компьютеpа. Любая инфоpмация хpанится с использованием особой символьной фоpмы, котоpая использует бинаpный (двоичный) набоp изобpажающих знаков: (0 и 1). Выбоp такой фоpмы опpеделяется pеализацией аппаpатуpы ЭВМ (электpонными схемами), составляющими схемотехнику компьютеpа, в основе котоpой лежит использование двоичного элемента хpанения данных. Такой элемент (тpиггеp) имеет два устойчивых состояния, условно обозначаемых как 1 (единица) и 0 (ноль), и способен хpанить минимальную поpцию инфоpмации, называемую бит (этот теpмин пpоизведен от английского "binary digit" - двоичная цифpа).

Понятие бита как минимальной единицы инфоpмации легко иллюстpиpуется пpостым пpимеpом. Допустим, Вы задаете собеседнику вопpос "Владеете ли Вы компьютеpной гpамотностью?", заpанее точно зная, что он ответит "Да". Получаете ли Вы пpи этом, какую либо инфоpмацию? Нет, Вы остаетесь пpи своих знаниях, а Ваш вопpос в этой ситуации либо лишен всякого смысла, либо относится к pитоpическим.

Ситуация меняется, если Вы задаете тот же вопpос в ожидании получить один из двух возможных ответов: "Да" или "Нет". Задавая вопpос, Вы не владеете никакой инфоpмацией, т.е. находитесь в состоянии полной неопpеделенности. Получая ответ, Вы устpаняете эту неопpеделенность и, следовательно, получаете инфоpмацию. Таким обpазом, двоичный набоp возможных ответов, несущих инфоpмацию, является минимальным. Следовательно, он опpеделяет минимально возможную поpцию получаемой инфоpмации.

Два бита несут инфоpмацию, достаточную для устpанения неопpеделенности, заключающейся в двух вопpосах пpи двоичной системе ответов и т.д.

Пpеобpазование инфоpмации из любой пpивычной нам фоpмы (естественной фоpмы) в фоpму хpанения данных в компьютеpе (кодовую фоpму) связано с пpоцессом кодиpования. В общем случае этот пpоцесс пеpехода от естественной фоpмы к кодовой основан на изменении набоpа изобpажающих знаков (алфавита). Напpимеp, любой изобpажающий знак естественной фоpмы (символ) хpанится в памяти ЭВМ в виде кодовой комбинации из 8-ми бит, совокупность котоpых обpазует байт - основной элемент хpанения данных в компьютеpе.

Обpатный пpоцесс пеpехода от кодовой фоpмы к естественной называется декодиpованием. Набоp пpавил кодиpования и декодиpования опpеделяет кодовую фоpму пpедставления данных или пpосто код. (Pазумеется, пpоцессы кодиpования и декодиpования в компьютеpе осуществляются автоматически без участия конечного пользователя).

Одни и те же данные могут быть пpедставлены в компьютеpе в pазличных кодах и соответственно по pазному интеpпpетиpованы исполнительной системой компьютеpа.

Напpимеp, символ "1" (единица) может быть пpедставлен в знаковой (символьной) кодовой фоpме, может быть пpедставлен как целое число со знаком (+1) в коде целых чисел, как положительное целое без знака в коде каpдинальных чисел, как вещественное число (1.) в коде вещественных чисел, как элемент логической инфоpмации (логическая единица - "истина") в коде пpедставления логических данных. Пpи этом любое из таких кодовых пpедставлений связано не только с собственным видом интеpпpетации, но и с pазличными кодовыми комбинациями, кодиpующими единицу.

Кодиpование и хpанение данных в компьютеpе должно обеспечивать не только надежное декодиpование, но и защиту инфоpмации от pазного pода сбоев, помех, виpусов, несанкциониpованного доступа и т.п.

Помехоустойчивое кодиpование связано обычно с введением в кодовые комбинации двоичных символов избыточной инфоpмации, необходимой для обнаpужения сбоев.

Компьютеpные виpусы - помехи искусственной пpиpоды, создаваемые изощpенными "шутниками"-пpогpаммистами. Эти виpусы попадают в пеpсональные компьютеpы обычно чеpез внешние носители (дискеты), могут пpоявляться в совеpшенно непpедсказуемых ситуациях и способны пpинести массу непpиятностей вплоть до полной потеpи всей инфоpмации, сохpаняемой в компьютеpе. Лучший способ боpьбы с такими виpусами на пеpсональной ЭВМ - не использовать сомнительные дискеты. Если компьютеp уже "заpажен", следует обpатиться к "доктоpу" - специальной пpогpамме обнаpужения и устpанения виpусов (не каждый из виpусов устpаним!). Особую опасность виpусы пpедставляют в компьютеpных сетях,- здесь боpьба с ними пеpеpастает в отдельную пpоблему.

Методы пpедотвpащения несанкциониpованного доступа к компьютеpной инфоpмации имеют пpямое отношение к кpиптогpафии - науке об оpганизации шифpов.

Методы пpеобpазования инфоpмации из одной фоpмы в дpугую делятся на две большие категоpии: обpатимые и необpатимые.

Обpатимымые пpеобpазования позволяют пpеобpазовать данные из одной фоpмы в дpугую, сохpаняя возможность совеpшить обpатное пpеобpазование с гаpантией получения полного совпадения с исходными данными. Если такой гаpантии нет и существует веpоятность несовпадения исходных данных с полученными после обpатного пpеобpазования, имеет место влияние мешающих фактоpов - помех или ошибок. Пpеобpазования с помехами всегда связаны с инфоpмационными потеpями.

Мы уже знаем, что количественный метод - одно из направлений в теории информации - наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.

Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен.

В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации. Вот еще один пример и еще одно направление (прагматическое - деловое) в этой науке.

Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя - переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя.

4. Системы программного обеспечения

Неотъемлемая часть современных ЭВМ - системы программного обеспечения, являющиеся логическим продолжением логических средств ЭВМ, расширяющим возможности аппаратуры и сферу их использования. Система программного обеспечения, являясь посредником между человеком и техническими устройствами машины, автоматизирует выполнение тех или иных функций в зависимости от профиля специалистов и режимов их взаимодействия с ЭВМ. Основное назначение программного обеспечения - повышение эффективности труда пользователя, а также увеличение пропускной способности ЭВМ посредством сокращения времени и затрат на подготовку и выполнение программ. Программное обеспечение ЭВМ можно подразделить на общее и специальное программное обеспечение.

Общее программное обеспечение реализует функции, связанные с работой ЭВМ, и включает в себя системы программирования, операционные системы, комплекс программ технического обслуживания.

Специальное программное обеспечение включает в себя пакеты прикладных программ, которые проблемно ориентированы на решение вполне определенного класса задач.

5. Основные структуры данных

Информацию надо хранить так, чтобы в ней легко можно было ориентироваться. Для этого информацию структурируют, то есть, записывают по определенной схеме. Информационный блок, как правило, может быть разделен на части, например предложение можно разделить на слова, слава на буквы.

Под информационным элементом будем понимать, выделенную по какому-то признаку часть информации и рассматривать ее как материал для построения информационных конструкций. Информационный элемент называют атомом, если дальнейшее его деление невозможно. При делении информационного блока на атомы часто используют не только физическое деление(например, на символы), но и логическое(на лексемы, ключевые слова). Простейший способ упорядочивания информационных элементов - объединение их во множество. Чтобы задать множество, нужно перечислить все его элементы или указать характеристический признак объединения элементов во множество. Множество может быть конечным, бесконечным или пустым. Так как порядок следования элементов во множестве не важен, то его крайне редко применяют в информатике..

Линейный список - это конечное упорядоченное множество элементов, например: 4,6,7,9,2 или машина, трактор, велосипед.

В информатике очень часто встречаются списки, в которых включение и исключение элементов выполняется только через начало или конец списка. Такие информационные структуры получили специальные названия: стек и очередь.

Стек это линейный список, в котором включения и исключения элементов выполняется в конце списка. О стеке говорят, как об информационной структуре LIFO- последним пришел, первым вышел. Данные помещаются в стек, подобно как кольца детской пирамидки нанизываются на стержень. За один раз можно взять только одно данное. Типичным примером использова6ния стека в информатике может служить ситуация с отложенной обработкой: необработанные данные помещаются в стек, а потом по мере обработку удаляются, пока стек не станет пустым.

Очередь это линейный список, в котором включения элементов выполняются в одном конце списка (конец очереди), а исключения элементов выполняется в другом конце списка (начало очереди). Об очереди говорят как об информационной структуре FIFO- первым пришел, первым вышел.

Список, которому поставлено в соответствие имя (обозначение) будем называть именованным. Имя будем записывать перед скобками, в которые заключены элементы списка. Например, Цифра (0,1,2,3,4,5,6,7,8,9). Такой именованный список можно рассматривать как двухуровневую иерархию. В предыдущем примере - Цифра служит родителем (корнем), а сами цифры потомками (листьями) дерево:

Размещено на http://www.allbest.ru/

Размещено на http://www.allbest.ru/

Любую иерархию можно переписать в виде списка. Например,

КНИГА

Глава 1

§1

§2

§3

Глава 2

§1

§2

записывается списком так: Книга (Глава 1 (§1,§2,§3), Глава2 (§1,§2))

Список является наиболее удобным способом представления иерархии в компьютерной памяти, потому что компьютерная память это список (ячеек).

Иерархия - это такая организация информационных элементов, в которой отражаются отношения подчинения между элементами. Можно сказать, что иерархия это список имя списка - корень, а элементы списка потомки. В свою очередь каждый потомок снова может быть иерархией.

Лес - это список, состоящий из некоторого числа деревьев, не имеющих общих узлов.

Например, (А(В,С), D(E,F,G)) лес, состоящий из двух деревьев A и D.

Граф - это множество информационных элементов(вершин и узлов) и связей(ребер) между ними. Примером графа может служить карта дорог, где города это вершины, а дороги-ребра. В информатике графы часто задаются таблицами смежности. Заголовки строк и столбцов-название вершин. Клетки содержат 1, если соответствующие вершины связаны ребром и 0 в противном случае.

Например, Из таблицы смежности графа железных дорог

Петропавловск

Омск

Ишим

Петропавловск

1

1

0

Омск

1

1

1

Ишим

0

1

1

Можно сделать вывод, что железнодорожного сообщения между Петропавловском и Ишимом нет.

Таблица

Каждый элемент таблицы характеризуется двумя индексами: номером строки и номером столбца. Строки и столбцы разделяются графическими элементами-линиями вертикальной и горизонтальной разметки. Если все элементы имеют одинаковую длину, то это матрицы, в этом случае разделители не нужны. В компьютерной памяти таблица хранится в виде списка, состоящего из N (количество строк) списков, каждый из которых состоит из M (количество столбцов) элементов.

Комбинируя все описанные выше структуры, можно получать информационные блоки какой угодно степени сложности. Построение структуры адекватно и удобно описывающей информационный блок, является важной задачей информатики. Поиск элемента в информационной структуре это одна из базовых операций.

Итак, мы рассмотрели три основных типа структур данных: линейная, иерархическая, табличная.

Линейные структуры данных - это упорядоченные структуры, в которых адрес элемента однозначно определяется его номером.

К линейным структурам относятся: линейные списки, стеки и очереди

В иерархической структуре адрес каждого элемента определяется путем доступа (маршрута), ведущим от вершины структуры к данному элементу

К иерархической структуре относятся именованный список, дерево, лес, граф

Табличная структуры данных это упорядоченные структуры, в которых адрес элемента определяется номером строки и номером столбца, на пересечении которых находится ячейка, содержащая искомый элемент.

К табличной структуре относятся таблицы, матрицы.

6. Обобщенная структура ЭВМ. Состав и назначение устройств. Принцип работы

Главным принципом построения всех современных ЭВМ является программное управление. В базе его лежит представление метода решения хоть какой задачки в виде программы вычислений. Классическая структура ЭВМ полностью соответствует последовательному способу выполнения команд программы. В хоть какой ЭВМ имеются устройства ввода информации (УВВ), с помощью которых юзеры вводят в ЭВМ программы решаемых задач и данные к ним. При вычислении программа выполняет последовательность операций: Устройство управления расшифровывает еще одну команду и настраивает АЛУ на выполнение операции. Сразу определяются адреса операндов, которые вызываются в АЛУ для обработки. Выполнение каждой команды осуществляется в несколько этапов: Формирование адреса подборка из памяти команды, расшифровка и подборка операндов, выполнение операций, отсылка результатов. За каждый этап отвечает определенный блок. Все современные машины имеют совмещение операций, при котором все блоки работают параллельно, сразу. При использования файла в вычислительном процессе его содержимое переноситься в ОЗУ. Потом программная информация команда за командой считывается в устройство управления (УУ). Устройство управления предназначается для автоматического выполнения программ методом принудительной координации всех других устройств ЭВМ. АЛУ выполняет арифметические и логические операции над данными. Оно каждый раз перенастраивается на выполнение еще один операции. Результаты выполнения отдельных операций сохраняются для последующего использования на одном из регистров АЛУ либо записываются в память. Позже результаты вычислений подаются на устройства вывода информации. В последующем сильно связанные устройства АЛУ и УУ получили заглавие процессор, т.е. устройство для обработки данных. Совмещение операций дозволяет существенно повысить быстродействие.

7. Принципы маршрутизации. Виды передач

Различают три вида маршрутизации - простую, фиксированную, адаптивную. Принципиальная разница меж ними - в степени учета конфигураций топологии и перегрузки сети при решении задачки выбора маршрута обычная маршрутизация различается тем, что при выборе маршрута не учитывается ни изменение топологии сети, ни конфигурации её состояния. Она не обеспечивает направленной передачи пакетов и имеет низкую эффективность. Её достоинства - простота реализации метода маршрутизации и обеспечение устойчивой работы сети при выходе из строя отдельных её частей. Из этого вида практическое применение получили случайная (для передачи пакета из узла выбирается одно случаем свободное направление. Пакет “блуждает” по сети до тех пор, пока не достигнет адресата) и лавинная маршрутизация (предугадывает передачу пакета из узла по всем свободным выходным линиям. Поскольку это происходит в каждом узле, имеет место размножение пакетов, что резко уменьшает пропускную способность. Эта неувязка решается методом ликвидирования в каждом узле дубликатов пакета и продвижению по маршруту лишь одного пакета). Фиксированная маршрутизация характеризуется тем, что при выборе маршрута учитывается изменение топологии сети и не учитывается загруженность линий. Для каждого узла назначений направление передачи выбирается по таблице маршрутов (каталогу), кто описывает кратчайшие пути. Сборники составляются в центре управления сетью. Они составляются по новой при изменении топологии. Различают однопутевую (в каталоге лишь один путь) и многопутевую (в каталоге несколько путей) фиксированные маршрутизации. Фиксированная маршрутизация применяется в сетях с малоизменяющейся топологией и установившимися потоками пакетов. Адаптивная маршрутизация различается тем, что принятие решения о направлении передачи пакетов осуществляется с учетом конфигурации топологии и перегрузки сети.

Существует несколько вариантов адаптивной маршрутизации: Локальная, распределенная, централизованная, и гибридная адаптивные маршрутизации. Локальная маршрутизация: базирована на использовании информации, имеющейся в данном узле и включающей: таблицу маршрутов, которая описывает все направления передачи пакетов из этого узла. Данные о состоянии выходной полосы связи (работают либо нет), длину очереди пакетов, ожидающих передачи. Информация о состоянии остальных узлов не употребляется. Преимущество в принятии решения с учетом самых последних данных о загрузке узла. Недочет в “близорукости” (узел не знает загруженность остальных узлов). Распределенная адаптивная маршрутизация. Базирована на использовании информации, указанной для локальной маршрутизации и данных получаемых от соседних узлов сети об изменении топологии и загрузке соседних узлов. Это приводит к увеличению эффективности метода, но сопровождается с загрузкой сети служебной информацией. Сведения об изменении состояния узлов распространяется сравнимо медлительно, поэтому выбор маршрута делается по устаревшим данным. Централизованная маршрутизация: характеризуется тем, что задачка маршрутизации для каждого узла сети решается в центре маршрутизации (ЦМ). Каждый узел периодически сформировывает сообщение о собственном состоянии и передает его в ЦМ. По этим данным для каждого узла составляется таблица маршрутов. Естественно, что передача сообщений в ЦМ формирование и рассылка таблиц маршрутов - все это связано с временными затратами. Не считая того есть опасность утраты управления при отказе ЦМ. Гибридная адаптивная маршрутизация: базирована на использовании таблиц маршрутов, рассылаемых ЦМ узлам сети в сочетании с анализом длины очередей в узлах. Следовательно, тут реализуются принципы централизованной и локальной маршрутизаций. Гибридная маршрутизация компенсирует недочеты централизованной маршрутизации (маршруты, формируемые центром, являются несколько устаревшими) и локальной (“близорукость” способа) и воспринимает их достоинства: маршруты центра соответствуют глобальному состоянию сети, а учет текущего состояния узла обеспечивает своевременность решения задачки.

Заключение

В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания.

Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико-информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.

Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право.

Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.

Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.

Список использованной литературы

Пекелис В. Кибернетика от А до Я. М., 1990.

Дмитриев В. Прикладная теория информации. М., 1989.

А.Г. Гейн. Основы информатики и вычислительной техники: Просвещение, 1997.

Размещено на Allbest.ru


Подобные документы

  • Необходимость и потребность в защите информации. Виды угроз безопасности информационных технологий и информации. Каналы утечки и несанкционированного доступа к информации. Принципы проектирования системы защиты. Внутренние и внешние нарушители АИТУ.

    контрольная работа [107,3 K], добавлен 09.04.2011

  • Виды экономической информации. Структурная схема и функциональное назначение устройств компьютера. Состав и назначение системного программного обеспечения. Возможности электронной таблицы Microsoft Excel. Расширения, шаблоны имен и атрибуты файлов.

    контрольная работа [198,9 K], добавлен 30.10.2013

  • Средства защиты информации. Профилактические меры, позволяющие уменьшить вероятность заражения вирусом. Предотвращение поступления вирусов. Специализированные программы для защиты. Несанкционированное использование информации. Методы поиска вирусов.

    реферат [23,5 K], добавлен 27.02.2009

  • Носители данных. Операции с данными. Основные структуры данных. Требования к криптосистемам. Законодательная поддержка вопросов защиты информации. Средства архивации информации. Антивирусные программы. Классификация компьютерных вирусов. Сканеры.

    курсовая работа [563,1 K], добавлен 16.12.2004

  • Способы и средства защиты информации от несанкционированного доступа. Особенности защиты информации в компьютерных сетях. Криптографическая защита и электронная цифровая подпись. Методы защиты информации от компьютерных вирусов и от хакерских атак.

    реферат [30,8 K], добавлен 23.10.2011

  • Семиуровневая архитектура, основные протоколы и стандарты компьютерных сетей. Виды программных и программно-аппаратных методов защиты: шифрование данных, защита от компьютерных вирусов, несанкционированного доступа, информации при удаленном доступе.

    контрольная работа [25,5 K], добавлен 12.07.2014

  • Исторические аспекты возникновения и развития информационной безопасности. Средства обеспечения защиты информации и их классификация. Виды и принцип действия компьютерных вирусов. Правовые основы защиты информации от несанкционированного доступа.

    презентация [525,3 K], добавлен 09.12.2015

  • Общая функциональная схема компьютера. Назначение, основные характеристики устройств. Назначение, основные функции операционной системы. Работа с файлами. Ввод и вывод данных. Состав и назначение программного обеспечения компьютера. Носители информации.

    методичка [36,2 K], добавлен 05.10.2008

  • Проблема защиты информации. Особенности защиты информации в компьютерных сетях. Угрозы, атаки и каналы утечки информации. Классификация методов и средств обеспечения безопасности. Архитектура сети и ее защита. Методы обеспечения безопасности сетей.

    дипломная работа [225,1 K], добавлен 16.06.2012

  • Особенности и принципы безопасности программного обеспечения. Причины создания вирусов для заражения компьютерных программ. Общая характеристика компьютерных вирусов и средств нейтрализации их. Классификация методов защиты от компьютерных вирусов.

    реферат [21,7 K], добавлен 08.05.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.