Гносеологический и праксеологический аспекты философской концепции информационного подхода

Сущность генерирования и преобразования информации в актах познания и управления. Информационные механизмы реализации аксиологических установок. Влияние на темпы самоорганизации тезауруса реальных кодов. Философский смысл закона информационной экспансии.

Рубрика Философия
Вид курсовая работа
Язык русский
Дата добавления 05.04.2012
Размер файла 162,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Лаконичность первичного лингвистического кода чрезвычайно важна для систем, существующих в конечном времени («смертных» ). От длительности информационных процессов зависит их жизнь - скорость развития во враждебной среде, конкурентоспособность, реакции на возмущения, адаптивность. Чем лаконичнее код информационного процесса, тем система жизнеспособнее, чем длиннее код, тем система уязвимее. С другой стороны, как показано выше, за лаконичность кода приходится платить его сложностью - ростом основания пк, что приводит к морфологическим осложнениям для системы.

Налицо противоречие - необходимость в одновременном удовлетворении двум противоположным требованиям: минимизации кодового алфавита (пк) и длины кода (т). Выход один - минимизировать мультипликативную суперпозицию пк и т, например, их произведение пк * т. В [50] показано, что устойчиво оптимальным по критерию min(nK * m) является троичный код. Практически мало уступают ему двоичный (компьютерный) и четверичный (генетический) коды. Конструкторы ЭВМ остановились на двоичном коде, т.к. его аппаратно-программная реализация оказалась наиболее простой, надежной и удобной для арифметическо-логических операций и современной схемотехники. Если бы этим условиям удовлетворяли троичный или четверичный коды, один из них, несомненно, стал бы компьютерным кодом в силу своей экономичности по длине кода т. А поскольку природе в результате длительной эволюции оказалось под силу то, чего пока не могут добиться инженеры за отпущенное им время, смехотворно короткое по сравнению с эволюцией, четверичный код как самый лаконичный из тройки оптимальных кодов стал генетическим, хотя он и несколько проигрывает троичному коду по интегральному критерию оптимальности.

Итак, первый принцип кодирования - принцип выбора кода - может быть сформулирован так: если для объект-субъектной системы безразлична скорость информационного процесса («бессмертная» система), то асимптотически оптимальным является самый простой - единичный код, при котором разнообразие состояний обеспечивается за счет разного числа одинаковых кодовых символов; в противном случае («смертная» система) асимптотически оптимальным является код максимально достижимой для системы сложности, в пределе - с объемом алфавита, равным разнообразию состояний объекта.

Данный принцип проясняет, почему в системах живой природы, начиная с биоклетки и выше, существует тенденция нарастания сложности кодов: от генетического к белковому, от белкового к тканевому, от тканевого к кодам органов и далее - вплоть до языков человеческого общения. Очевидно также, что эти языки - естественные и искусственные (символические) - не исчерпывают по объему алфавита всего разнообразия состояний объекта, в частности человека, и, следовательно, не оптимальны по скорости. Причина - трудность реализации оптимальных кодов, следствие - неисчерпаемые резервы в кодировании и, соответственно, в быстродействии информационных процессов, когда единственным ограничением этого быстродействия будет скорость передачи сигналов в канале связи. Не являются ли реализацией этих резервов «быстрые» образные, интуитивные, под- и надсознательные языки парапсихологического общения в системах «человек-человек», «человек-информационное поле» с кодовыми символами в виде гештальтов и с сообщениями в виде последовательностей ассоциативно связанных гештальтов?

В то же время простейшие системы - химические элементы - отличаются друг от друга числом электронов (пе) и протонов (пр) в атомах, причем в одном нейтральном атоме пе=пр, что позволяет утверждать о «единичном атомном коде» - число единиц электронов или протонов однозначно характеризует «сообщение» о химическом элементе.

Принципы согласования кодов (кодер Шеннона). Как следует из изложенного, кодер источника (КИ) в составе кодера Шеннона ликвидирует избыточность сообщения, насколько это возможно, а кодер канала восстанавливает ее, насколько это необходимо. Подобная нелогичность манипуляций с избыточностью объяснима, если учесть, что кодеру источника известна реальная, но не оптимальная (необходимая) избыточность. Это объясняется отсутствием информации у кодера источника о состоянии канала связи. Последнее известно только кодеру канала (КК) при условии, что у него есть средства «зондирования» канала, например с помощью «разведывательных» пилот-сигналов, о качестве прохождения которых через канал сообщается кодеру по каналу обратной связи.

Поэтому проще сначала максимально возможно сократить избыточность сообщения в кодере источника, а затем добавить ее ни больше, ни меньше той, которая действительно необходима для заданного качества передачи сигналов и переносимой ими информации, что обычно и делается. При этом, если помехи в канале несущественны, от избыточности сообщений целесообразно избавиться полностью, а кодер и декодер канала могут вообще не потребоваться. Если же избыточность сообщений несущественна, а помехи в канале велики, кодер Шеннона может не содержать кодер источника (аналогично не нужен и декодер источника). Эти ситуации показаны в таблице 2.

Таблица 2. Варианты кодера Шеннона

Помехи

Избыточность

есть

нет

есть

КИ,КК, ДИ,ДК

КК,ДК

нет

ки,ди

-

Принцип экономного кодирования. Пусть лингвистический кодер как источник информации создает на входе кодера Шеннона сообщения длиной L символов с информативностью каждого символа (энтропией) Ни-Тогда информативность всего сообщения будет ЬНи. Пусть кодер источника посимвольно перекодирует это сообщение в неравномерный (в общем случае) код,причем на один символ исходного сообщения требуется в среднем v символов нового кода с информативностью каждого символа Нк. Тогда информативность выходного сообщения кодера источника будет равна LvHK. Исходя из принципа сохранения разнообразия (информации),

ЬНИ = LvHK(38)

Отсюда

v = HH/HK(39)

Безизбыточное (экономное) кодирование, соответствующее минимальному v, очевидно, достигается при максимуме Нк, что, как следует из (4), возможно, если символы кода равновероятны и независимы друг от друга. Это соответствует значению Нк = log пк, где пк - объем алфавита кодера источника. Отсюда

Vmin = HH/l0gnK

А поскольку абсолютная безизбыточность кода недостижима, реальный экономный код удовлетворяет неравенству

v>HH/lognK(40)

Итак, принцип экономного кодирования по Шеннону требует максимальной информативности каждого кодового символа («словам должно быть тесно, мыслям просторно»), т.е. максимальной энтропии кодера источника. При этом сообщения передаются без задержек со средней скоростью (производительностью), сколь угодно близкой к пропускной способности канала связи.

Реализация этого принципа состоит в следующем [42,99]:

наиболее вероятным (часто встречающимся) символам первичного сообщения должны соответствовать самые короткие кодовые комбинации и, наоборот, маловероятным символам - самые длинные;

при неравновероятности появления символов первичного алфавита в сообщениях экономный код должен быть неравномерным, т.е. кодовые комбинации должны иметь разную длину, при равновероятности символов экономный код вырождается в равномерный - все кодовые комбинации по длине равны.

Знакомство с частотными словарями различных естественных подъязыков (разговорных, публицистических, литературных, научно-технических) показывает, что в подъязыках (и, значит, в языке в целом) наиболее часто используются самые короткие части речи - предлоги, союзы, артикли, частицы, местоимения, междометия [133]. Таким образом, в естественных языках выполняется принцип экономного кодирования. Надо полагать, что и в языках фауны и флоры преобладают по частоте тоже короткие словоформы, в частности, междометия, что подтверждает зоопсихология.

В искусственных языках принцип экономного кодирования составляет основу т.н. эффективного кодирования [99] (коды Морзе, Шеннона-Фано, Хаффмена, коды дорожных знаков, алфавитных клавиатур и т.п.). Само существование эффективных кодов базируется на неравновероятности символов первичных (естественных ) алфавитов, подтверждением чему являются текстуальные частоты букв русского алфавита и соответствующие им эффективные коды Шеннона-Фано [29]:

Таблица 3. Кодирование букв кодами Шеннона-Фано

Буква

Пробел О Е

А

... Ц

Щ Э Ф

Частота

0,145 0,095 0,074

0,064

... 0,004

0,003 0,003 0,002

Код

000 001 0100

0101

...11111101

11111110 111111110 111111111

Принцип надежного кодирования^ В отличие от идеального канала связи без помех, которому не свойственны ошибки передачи, в реальном канале подобные ошибки возникают всегда. Для их компенсации в кодере Шеннона предусмотрен кодер канала (в декодере ему соответствует декодер канала). Таким образом, согласование кодера Шеннона с каналом связи означает минимизацию вероятности ошибки передачи сообщений до некоторого допустимого значения, отличного от нуля. Для этого кодер канала, прежде чем послать на передатчик сообщение, кодирует последнее конечным избыточным (помехоустойчивым) кодом - таким, что декодер канала может обнаружить и даже исправить ошибки передачи [42,52].

Шеннон доказал возможность помехоустойчивого кодирования [160], сформулировав известную теорему: если производительность источника информации не превышает пропускной способности канала связи, то всегда можно закодировать сообщение так, чтобы оно было передано без задержек с вероятностью ошибки, сколь угодно близкой к нулю.

Примем эту теорему в качестве принципа надежного кодирования. Заметим, что сколь угодная близость к нулю не означает равенства нулю. Абсолютное исключение ошибок (вероятность ошибки равна нулю) невозможно, ибо потребовало бы бесконечно длинных сообщений (бесконечной избыточности).

Принцип надежного кодирования лежит в основе деятельности систем, информационные каналы связи которых подвержены помехам (шумам). А поскольку таковы все системы, то и принцип надежного кодирования является всеобщим. При этом вид помехоустойчивого кода специфичен для каждой отдельной системы.

Принципы экономного и надежного кодирования взаимно противоречивы, поэтому выбор оптимального по лаконичности и помехоустойчивости кода, адекватного передаваемой информации, - непростая задача, решаемая индивидуально в каждой объект-субъектной системе.

Принципы кодирования имеют прямое отношение к общим гносеологическим проблемам понимания, объяснения, взаимопонимания, доказательства, к проблеме отражения в целом. Через уяснение принципов кодирования можно понять, почему не существует объективного информационного отражения. Главная причина различий в отражениях одного и того же объекта - в различном кодировании-декодировании внешней информации («языковом барьере»). При этом иногда различия начинаются прямо с этапа кодирования, если декодер функционально не согласован с кодером, являющимся, в свою очередь, составной частью объекта.

За этапом кодирования информации следуют этапы передачи-приема сигналов, подчиняющиеся принципам коммуникации (связи в традиционном понимании). Рассмотрим их.

Принцип объективности помех. В любом канале связи всегда присутствуют помехи. Это и есть принцип объективности помех. Докажем его.

Внутренний шум, как и внутренняя информация, свойствен любому объекту. Он обусловлен естественным теплообменом элементов объекта, хаотическим движением зарядов при ионизации атомов и молекул (термоэмиссия, инжекция и др.), квантовой природой излучений. Внешний шум обусловлен аналогичными процессами в среде, а также помехами искусственного происхождения. Шумы вредны для связи, и их всегда стараются уменьшить. Однако наши возможности в этом ограничены.

Так, чувствительность Р (как минимальная мощность обнаруживаемого сигнала) для радиоприемника с конечной полосой пропускания Af определяется по формуле [142]:

P = k[T0(III-l)+TA]Af,(41)

где к - постоянная Больцмана, То - абсолютная температура приемника по Кельвину (обычно 290-300°К); Ш - коэффициент шума приемника - отношение сигнал/шум по мощности, необходимое для обнаружения сигнала обнаружителем (человеком или автоматом); Тд - шумовая температура антенны, обусловленная внешними шумами подстилающей (земной, водной) поверхности и неба, а также омическими потерями в антенне.

Из (44) следует, что для достижения абсолютной чувствительности (Р -»0) при ненулевой полосе пропускания нужно снизить температуры То и Тд до абсолютного нуля, когда теплообмен и наличие свободных электронов исключены. А это противоречит третьему началу термодинамики, утверждающему, что абсолютный нуль температуры недостижим. Ведь даже реликтовое излучение Вселенной, которому столько же лет, сколько и ей, не остыло ниже -270°С.

Наряду с шумами на систему воздействуют внутрисистемные помехи, обусловленные внутренними второстепенными информационными процессами, мешающими основному (на данный момент) информационному процессу. Внутрисистемные (в указанном смысле) помехи свойственны любой сложной системе, элементы которой являются потенциальными источниками и потребителями информации внутри системы. Например, человек как сложная система постоянно подвержен внутрисистемным помехам на уровне тканей и органов, информационно взаимодействующих друг с другом помимо воли хозяина и даже во сне. Мозг как сложная система постоянно «шумит», мешая восприятию информации.

Принцип неопределенности сигнала. Помимо объективного ограничения, налагаемого помехами на качество связи между передатчиком и приемником, канал связи имеет и другое фундаментальное ограничение - конечность пространственно-временных параметров передатчика и приемника. Рассмотрим влияние этого ограничения.

В физике и ее технических приложениях известны т.н. соотношения неопределенности, природа которых и заключается в пространственно-временной конечности физических объектов. Так, соотношение неопределенностей Гейзенберга в квантовой физике утверждает, что нельзя одновременно точно измерить положение и импульс (скорость) элементарной частицы. Аналогичное соотношение неопределенностей в радиолокации не позволяет одновременно точно измерять дальность до цели и ее скорость [142]. Вообще в системах эхо-локации (радары, сонары, летучие мыши, дельфины и др.) абсолютно точное измерение координат (дальности, азимута и угла места) потребовало бы передатчиков с бесконечной мощностью, антенн с бесконечно большой апертурой, абсолютно бесшумных приемников с бесконечно широкой полосой пропускания. Некоторые из этих гипотетических устройств не обязательны при совместном использовании, но даже одного из них достаточно, чтобы повергнуть конструкторов в мистический ужас.

Рассмотрим передачу сообщения через канал связи. Предположим, что оно конечно во времени. Это согласуется с практикой. У любого конечного процесса есть начало и конец в виде некоторых скачков из «небытия в бытие» (начало) или наоборот - из «бытия в небытие» (конец). В моменты скачков крутизна процесса бесконечна. При этом длительность скачка, естественно, равна нулю. Значит, частотный спектр этого процесса включает бесконечную спектральную составляющую (частота обратна длительности), и, следовательно, ширина спектра конечного во времени процесса бесконечна, что нереально. Если ограничить ширину спектра сигнала некоторой конечной максимальной частотой, свойственной резонансной системе генератора передатчика, то сигнал, строго говоря, не имеет начального и конечного скачков и поэтому бесконечен во времени, что тоже нереально.

Иными словами, в природе не существует процессов, имеющих одновременно конечные длительность и спектр, а следовательно, нет и таких сигналов в каналах связи. Но поскольку и длительность, и спектр сигналов реально ограничены, конечны в силу пространственно-временной конечности параметров каналов связи, точное воспроизведение конечных сообщений невозможно любыми сигналами в любом канале связи.

Примем это положение, вытекающее из известной теоремы Котельникова-Шеннона, в качестве принципа неопределенности сигнала и смиримся с тем, что даже в идеальном - без помех - канале связи переносимые сигналами закодированные сообщения искажены по сравнению с теми же сообщениями на входе передатчика. Не меньшие искажения претерпевает сигнал и в приемнике, ибо вероятность абсолютно точного совпадения амплитудно-фазочастотных характеристик передатчика и приемника или (хотя бы неухудшение этих характеристик в приемнике) как залог безошибочного приема сигналов в идеальном канале связи близка к нулю, а формы переданного и принятого сигналов никогда не совпадают. Таким образом, конечные по длительности сообщения искажаются согласно принципу неопределенности сигнала дважды - сначала в передатчике, затем в приемнике.

Представляется важным для философского осмысления сопоставить, на первый взгляд, несопоставимое - принцип неопределенности сигнала и логику связи. Если сигнал по длительности и спектру не противоречит своей реализуемости, он не полон в одном из смыслов (спектральном или временном) или в обоих сразу. Если же сигнал полон в указанных смыслах, он противоречив в своей реальности, ибо он не может быть одновременно (во времени и по спектру) и даже порознь (во времени или по спектру) реально бесконечным.

Подобная аналогия наводит на размышление, что известные физические соотношения неопределенности, проистекающие из эмпирических реалий конечного пространства-времени и обобщаемые на общенаучном языке математики теоремой Геделя о неполноте арифметической логики, приоткрывают завесу над латентной квазибесконечной «логикой» Универсума, данной нам лишь частично в своей конечной (дискретной) неполноте и кажущейся противоречивости. Из изложенного также следует, что природа «логики» Универсума, предположительно, информационна и континуальна (непрерывна).

Принцип порога. В традиционных материально-энергетических каналах связи в дополнение к объективным спектральным искажениям сигналов добавляются искажения и потери сигналов, обусловленные конечным отношением «сигнал/шум» на входе приемника.

Дело в том, что обнаружение сигнала на фоне шумов {детектирование) возможно, если сигнал превысил порог обнаружения (44), характерный для приемников любой природы - электрических, электромагнитных, химических, оптических, вибрационных, психических, социальных, цифровых, аналоговых и т.п. Часть сигнала или даже весь сигнал могут оказаться ниже порога и, соответственно, потеряться для приемника. Информация, переносимая этим сигналом, будет искажена или утеряна для потребителя.

Пороговый эффект объективно обусловлен маскированием слабых (субпороговых) сигналов шумами, внешними и внутрисистемными помехами. Для обнаружения субпороговых (подпороговых) сигналов пришлось бы повысить чувствительность приемника, уменьшая порог обнаружения, и, следовательно, пустить в оконечное устройство шумы и другие помехи. А это чревато ложными срабатываниями оконечных устройств от шумов (помех). Последнее не менее опасно, чем пропуск сигналов. Поэтому повышать чувствительность приемника целесообразно до определенного предела, зависящего от допустимой вероятности ложных срабатываний при заданном шуме (уровне помех). Этот предел и есть порог обнаружения сигнала.

Желая избежать ложных сигналов от внутреннего шума, внутрисистемных и внешних помех, потребитель загрубляет вход приемника (ухудшает его чувствительность) и тем самым вместе с шумом и помехами теряет субпороговую информацию. В результате у сложных систем со сравнительно большим энергоинформационным внутренним шумом (высокоинтеллектуальные системы) относительная доля субпороговой информации оказывается больше, чем у простых малошумящих (неинтеллектуальных) систем, и сложные системы теряют больше субпороговой информации, чем простые. Такова плата за сложность, за интеллект, приводящая к нечувствительности сложных систем к информации «тонких миров» - той информации, которая, возможно, доступна «братьям нашим меньшим» и лишь редким представителям человечества.

В теории и технике связи и локации хорошо известны методы оптимальной фильтрации сигналов, позволяющие выделить субпороговые сигналы из шумов [142]. Не такой ли способностью обладают гении, провидцы, телепаты, йоги и т.п., воспринимая субпороговые сигналы реальных информационных полей и метафизического информационного поля Универсума? Механизмы подобного восприятия субпороговой информации до сих пор не познаны, часто игнорируются научным сообществом даже вопреки очевидным фактам. Может, специалистам стоит поискать ответ в технических системах, где эти механизмы давно реализованы? Ведь проблема потерь субпороговой информации, возможно, - одна из важных для развития человеческой цивилизации. Поэтому принцип оптимальной фильтрации выделен ниже в самостоятельный принцип связи.

Более общим по сравнению с порогом обнаружения является понятие порога различения сигналов. Ведь обнаружение, в сущности, есть не что иное как различение сигнала и шума (помехи). Порог различения в информационном процессе есть проявление весьма широкого спектра философских отношений: различия и тождества, существенного и несущественного, определенного и неопределенного, дискретного и непрерывного, конечного и бесконечного. Если бы не существовало порогов различения (обнаружения), не существовало бы и информации, ибо ее нельзя было бы отличить от шума, помех и дезинформации, один сигнал отличить от другого. Связь как передача разнообразия была бы невозможна, т.к. в приемнике отсутствовали бы пороговые критерии отбора сигналов. Важно отметить, что эти пороги устанавливает потребитель информации, ибо только он решает, какая информация имеет для него значение.

Насколько философски широки и значимы понятия кода и сигнала, настолько же значимо и понятие порога. Так, одна из важнейших процедур развития систем - процедура отбора - невозможна без ограничений разнообразия, накладываемых критериями отбора, которые физически реализуются через пороги обнаружения и различения сигналов, а онтологически - через закон необходимого разнообразия и диалектический закон количественно-качественных переходов.

Именно пороги защищают систему, ограничивая разнообразие ее входных воздействий до необходимого разнообразия согласно закону (20).

Итак, принцип порога состоит в объективном существовании порогов различения сигналов и помех (обнаружение), одних сигналов от других (распознавание). Принцип порога позволяет отделить значимую информацию от незначимой, распознать информационный элемент в ряду других информационных элементов.

Отметим также, что сообщение, переносимое сигналом, представляет его (сигнала) переменную компоненту в отличие от самого носителя - постоянной компоненты сигнала. Информативно разнообразие. Применительно к сигналу это значит, что информативны его переменные асимметричные составляющие, ибо передаваемое разнообразие заключено именно в них. Постоянная, симметричная составляющая, не обладая разнообразием, соответственно, неинформативна и как незначимая для потребителя отсекается в приемнике при детектировании информативной переменной составляющей, значимой для потребителя.

О каком разнообразии, о какой информации можно рассуждать, наблюдая на экране осциллографа прямую линию развертки или уставясь в чистый лист бумаги? Разве что зафиксировать наличие самого носителя, разнообразие которого равно двум состояниям «есть-нет». Таким же разнообразием состояний обладает рубильник, монета. Этого явно недостаточно, чтобы считать рубильник и монету информативными развитыми системами, впрочем, как и носители сигналов.

Таким образом, коммуникация как установление понимания морфологически есть передача разнообразия.

Принцип усиления. Известно, что в N-мерном пространстве сила взаимодействия объектов обратно пропорциональна (N-l)-ofi степени от расстояния между ними [50]. В нашем трехмерном пространстве этот закон сводится к закону обратных квадратов. Ему подчиняются и сигналы в информационных каналах связи, использующих открытый эфир в пределах нашей Вселенной. Кроме того, любой сигнал мультипликативно ослабляется средой распространения, «вязнет» в ней в степени, зависящей от природы среды. Наконец, сигнал аддитивно маскируется или разрушается помехами (согласно принципу объективности помех). Все эти факторы приводят к объективной необходимости усиления переданных сигналов на приемной стороне канала связи до уровня, превышающего порог различения сигналов (порог срабатывания декодера) (рис. 23).

Приемник-усилитель не работает без источника питания (энергии). Коэффициент усиления сигнала конечен и определяется тепловым эквивалентом полученной энергии за вычетом тепла, бесполезно рассеянного на элементах схемы (рис. 24).

Мы рассмотрели вкратце информационный аспект усиления, когда выходом усилителя является сигнал, несущий информацию. В общем случае выходом усилителя может быть любой субстрат - информация, энергия, вещество (масса), но рабочая характеристика такого усилителя всегда соответствует логистической тенденции, приведенной на рис. 24.

Феномен усиления в приведенном общем смысле свойствен открытым системам самой различной природы, например, химической (катализ, ферментация), биологической (размножение, рост), психологической (развитие интеллекта), технической (связь, управление) и др. В каждом из этих примеров используется свой источник питания - среда обитания, преобразователи энергии, вещества, информации. Материально-энергетические системы черпают первичную энергию из первичных форм теплового движения, которые, в свою очередь, подчиняются известным началам термо динамики; и, как внешне ни далеки друг от друга эти системы, их усилительная (эволюционная) способность в итоге определяется конечной работой теплообмена при соблюдении законов сохранения энергии и вещества.

Информационные системы черпают первичную информацию из первичных форм информационного поля, которые подчиняются изложенным выше началам информационного подхода. Усилительная способность этих систем (коэффициент усиления информации) определяется конечной внешней информацией, полученной ими в результате информационного взаимодействия со средой за вычетом информации, бесполезно рассеянной на элементах системы, и при соблюдении закона сохранения информации. Аналогично можно интерпретировать феноменологические модели усиления в энергоинформационных и материально-энерго-информационных системах.

Усиление сигнала не означает только увеличение его амплитуды - это частный физикалистский аспект усиления сигнала, распространяющегося в пространстве-времени. Синергетический аспект усиления состоит в усилении /жзноо6/жзшг(самоорганизация), усилении интеллекта (самообучение) [170]. При этом технологически усиление может состоять не только в умощнении, но и в выделении (фильтрации) латентного сигнала из шумов, латентной информации из информационного шума и дезинформации, существенного из несущественного, значимого из незначимого и вредного и т.п. В этом смысле мы имеем дело с философским обобщением понятия усиления.

Иными словами, сигнал - это любой процесс, и он может быть усилен до пределов, потенциально ограниченных мощностью источника питания приемника (рис. 236). В этом и состоит общий принцип усиления. Если усиливаются разнообразие (сложность) и(или) интеллект системы, то потенциальный предел усиления определяется информационной мощностью (информативностью) ее источника питания - а именно, разнообразием и интеллектом среды. В этом состоит частный информационный принцип усиления.

Другая формулировка общего принципа усиления: малое количество энергии, несущее информацию, управляет большими массами и большими количествами энергии. Здесь важно, что энергия, инициирующая управление, несет информацию - иначе управление несостоятельно. Информация - вот первоисточник любого управления. В теории управления этот принцип называют кибернетическим принципом управления.

Принцип оптимальной фильтрации. Из принципа порога следует, что субпороговый сигнал не обнаруживается. Однако обращено внимание на механизм оптимальной фильтрации, реализованный технически и, возможно, биологически и психически. Согласимся, что каждому из нас приходится сталкиваться с феноменами вспоминания давно «похороненных» следов памяти, вдохновенного творчества, когда неизвестными путями к нам приходит информация, нужная для решения задачи и обычно недоступная, спрятанная в информационном шуме. Полагаем, что за этими феноменами в определенной мере скрываются биологические и психические механизмы оптимальной фильтрации, обнаруживающие скрытый шумами сигнал. Возможно, самонастройка медиумов на взаимодействие с информационным полем означает именно сосредоточенную внутреннюю настройку психического оптимального фильтра. Эффект оптимальной фильтрации существен для понимания нестандартных информационных процессов, связанных с восприятием латентной информации.

На рис. 25а приведен пример оптимальной фильтрации сигнала за счет синфазирования трех частотных составляющих сигнала в момент времени t0. Здесь же показано, что при малейшем сдвиге фаз относительно момента t0 пик сигнала рассыпается и может скрыться под порогом (рис.

256). Заметим, что при оптимальной фильтрации происходит сжатие сигналов и, следовательно, улучшение их разрешения во времени.

a)\ 6)

Рис. 25. Оптимальная фильтрация (вариант)

Техническая реализация оптимальных фильтров достаточно разнообразна [142]. Для нас важно их общее свойство - подобие (т.е. совпадение с точностью до постоянных коэффициентов) информационных характеристик передаваемого сигнала и приемника (оптимального фильтра) этого сигнала. Такими взаимосвязанными характеристиками являются амплитудно-фазочастотный спектр сигнала и соответствующая рабочая характеристика приемника. Очевидно, что оптимальная фильтрация в приведенном смысле возможна при условии априорного знания информационных характеристик ожидаемого сигнала.

На основании изложенного сформулируем обобщенный принцип оптимальной фильтрации в следующем виде: для эффективного обнаружения латентного сигнала в маскирующем шуме информационные параметры приемника и сигнала должны быть подобны.

Этот принцип, доведенный до схемотехнических решений, материализует философскую суть эффективного познания объекта: субъект должен уподобиться объекту, чтобы эффективно познать последний. Сосредоточение мысли субъекта на объекте познания, феноменологическая ин-тенциональность сознания, по нашему мнению, суть процессы именно такого уподобления, самонастройки интеллектуального приемника субъекта на режим оптимальной фильтрации сигналов познания, передаваемых объектом. Важно, что для адекватного уподобления объекту познания субъект должен априори, если не знать, то, по крайней мере, представлять латентные познаваемые свойства объекта. Следовательно, для эффективного познания субъект априори должен иметь теорию объекта, чтобы настроить свои средства познания (чувства, приборы, мозг) на режим оптимальной фильтрации сигналов, несущих внешнюю информацию об объекте.

Отсюда возникает неожиданная точка соприкосновения с априоризмом И. Канта, согласно которому в каждом акте познания познающий субъект заранее обладает некими существовавшими до него формами, категориями, которые придают смысл познанию объекта и обеспечивают познание его смысла. В этом априоризм Канта «находит взаимопонимание», во-первых, с концепцией информационного поля как хранителя информации, во-вторых, с принципом оптимальной фильтрации. Воистину мудрость Канта - на все времена!

Принцип оптимальной фильтрации - не сциентистский домысел, а прагматическое правило поведения интеллектуальных систем: «решая задачу, знай ответ» (математики), «нужная информация - тому, кто ее ожидает» (ученые, экстрасенсы), «каждый видит (слышит) то, что хочет видеть (слышать)» (социум в целом).

Принцип оптимальной фильтрации согласуется с законом сохранения информации и подтверждает его следствия [см. (36) и последний вывод к главе 2] с гносеологических и праксеологических позиций.

Остается вопрос о взаимопревращениях символов и знаков (кодов) непосредственно на выходе источника и на входе потребителя информации. Это знакомые нам проблемы физических оснований кодового преобразования идеального в материальное, трансцендентального в эмпирическое, репликации внутренней информации во внешнюю,подробно рассмотренные в разделе 2.1.2.

Из изложенного следует, что коды-знаки суть продукты материального проявления информационного поля (носителя символов) в физических полях, если по самому характеру информационного процесса внешняя информация должна быть явленной, а ее носитель, соответственно, -энергетическим. Тогда декодирование кодов в символы должно быть обратным процессом, т.е. виртуализацией физических полей в информационное поле. При неэнергетическом характере информационного процесса такие взаимопревращения излишни, кодирование превращается в неявленную символьную интерпретацию объекта в том же информационном поле. Данная гипотеза представляет интерес для дальнейшего философского анализа.

Изложенные принципы коммуникации работают не порознь, а в комплексе. Объективный рост уровня естественных и искусственных помех по мере интенсификации информационного метаболизма в развивающейся системе имплицирует рост порогов отбора («проходной балл») ценной информации, в результате чего ее все более значительная часть оказывается субпороговой, нераспознанной, рассеянной, не выявляемой усилением и с трудом поддающейся оптимальной фильтрации.

Данная проблема должна быть рассмотрена в аспекте безопасности информации. Здесь требуется четко различать несколько подходов: а) защита информации от рассеяния и искажения помехами; б) защита потребителя от дезинформации и информационного шума; в) защита информации от несанкционированного доступа, копирования и имитации. Каждый из данных подходов требует самостоятельного глубокого исследования во всех аспектах существования информации, включая социальный. Наша рефлексия ограничивается первым подходом в онтологическом аспекте.

Налицо энтропийная тенденция, диссипативная по отношению к внешней информации, но, как ни парадоксально, благоприятная для внутренней информации в аспекте поддержания эволюционного потенциала развивающихся систем. В данном смысле «умеренная» диссипация внешней информации есть стимул ее потенциального генерирования, а накопление без рассеяния опасно для развития в целом, как опасно отсутствие информационного дефицита в «заорганизованной» системе (см. раздел 2.1.2). Нуль-энтропия системы означает конец ее развития, ее свободы. Не только художник, но и любая развивающаяся («творческая») система должна быть свободной.

Возникает проблема меры «умеренности» рассеяния информации. Данную проблему интерпретируем как проблему гармонии между генерированием и рассеянием информации.

Гармония между генерированием и рассеянием информации может пониматься в контексте либо гармоничного лечения, целеполагающего позитивный эффект при допустимом уровне неизбежных негативных «побочных» эффектов, либо эстетической гармонии золотого сечения, либо принятия оптимального решения (по Байесу, Парето, Нейману-Пирсону и др.). Выбор методологии защиты информации зависит от целей обороны.

Проблема безопасности информации в рассмотренном аспекте приобретает философский смысл.

2. Информационные механизмы реализации аксиологических установок познания и управления

Для связи как процесса (коммуникации) важно количество передаваемой информации, для связи как результата (понимания) важно ее качество, т.е. ценность. Дело в том, что прирост количества информации в развивающейся системе явно недостаточен, чтобы судить, куда пойдет развитие. Одно и то же количество информации, как отмечалось выше, может быть для системы полезным (информация, прогресс), вредным (дезинформация, регресс) или бесполезным (шум, стагнация). Например, воспринятая растением информация о весеннем тепле может оказаться полезной для его развития, вызвав сокодвижение и выброс почек, но может и дезинформировать, т.к. от внезапных заморозков погибнут почки и, возможно, все растение. Однако количественно информация и дезинформация были одинаковы.

Таким образом, для полной характеристики развития требуется ввести функцию полезности (ценности) информации, которая определяет эффективность развития системы. Именно поэтому следует отличать абстрактную информацию (количество информации) от конкретной информации (смысла или просто информации). Количество информации важно для каналов связи с их ограниченной пропускной способностью и безразличием к смыслу передаваемых сообщений, будь то информация, дезинформация или шум (бессмыслица). В свою очередь, смысл (информация) как ценностная категория важен для управления. Двухпозиционная кнопка «вкл-выкл» несет один бит внешней информации вне зависимости от того, включает она освещение в кабине летчика, катапульту или открывает бомболюк. Метеосводка о погоде в Твери имеет разную ценность для тве-ритян и парижан, вызывая с их стороны и разные реакции (управления).

Основополагающие исследования развития систем с учетом функции полезности информации провел М. Эйген, показавший, что прогрессивное развитие систем возможно лишь за счет отбора и накопления ими «информации, ассоциированной с высокой «селективной ценностью» [168, с.192].

Что такое ценность информации,и как ее измерить, чтобы судить, будет она способствовать развитию системы или нет?

Очевидно, что для системы ценность информации связана с целью ее развития, а цели могут быть разные. Накануне экзаменационной сессии ценность информации о причудах профессора гораздо выше, чем в начале семестра, а о своем профессоре несравнимо выше, чем о чужом. Изменение цели изменяет и ценность информации, но не наоборот, т.к. ценность информации аксиологически вторична по отношению к цели, преследуемой потребителем информации.

Можно ли сравнивать ценность информации по абсолютной шкале измерений или это относительная категория? Скорей всего, второе, ибо практика свидетельствует: ни одна информация за всю историю Вселенной, жизни и разума не обрела статуса абсолютно ценной. Наоборот, очередной виток развития ставил новые цели и изменял критерии ценности, а то, что казалось прежде абсолютно ценным на все времена, приобретало статус относительной ценности или вообще низвергалось на свалку истории.. Одна и та же информация, как показано выше, может обладать разной ценностью для разных субъектов - потребителей информации - или для одного и того же субъекта в разное время. Так что если мы научимся измерять ценность информации, то шкала измерений представляется нам относительной. Правда, в [53] предлагается ввести абсолютную шкалу ценности: ценнее считать ту информацию, которая генерирует новую информацию с большей вероятностью. Но как оценить эту вероятность?!

Если взять некоторую систему, обладающую внутренней упорядоченностью (информационным кодом), то информация об этом коде для внешнего потребителя может обладать одной ценностью, а для самой системы совершенно другой, т.к. цели потребителя информации и системы, как правило, не совпадают. В таблице 4 с использованием [53] приведены некоторые виды информации в порядке возрастания их относительной ценности для развивающейся системы согласно ее целям.

Таблица 4. Относительная ценность информации и цели развития

Цель развития

Вид информации

Ценность информации

Самовосстановление

Автогенная

Ці

Стимулирование самовосстановления

Автокаталитическая

Ц2>Ц1

Самовоспроизведение

Репликационная

ЦЗ>Ц2

Улучшенное самовоспроизведение

Эволюционная

Ц4>ЦЗ

Стимулирование улучшенного

Эволюционно-

Ц5>Ц4

самовоспроизведения

каталитическая

Шкалу ценностей в этой таблице тоже не следует абсолютизировать, ибо она отражает точку зрения некоторого стороннего наблюдателя и не согласована с «мнением» системы. Эта несогласованность шкал информационной ценности часто приводит к диссенсусу систем, в результате чего они ведут себя неадекватно придуманным инструкциям, наши теории периодически конфликтуют с практикой, государства воюют, фундаменталисты всех ориентации не идут на мировую, ткани разных организмов несовместимы, а студент никак не возьмет в толк, чего от него хочет профессор.

В [113,148] ценность информации в философском смысле определяется как прагматическое отношение между информацией, субъектом (ее потребителем или источником) и целью субъекта. Заменим понятие субъекта на понятие системы и представим ее отношение с целью и информацией в виде треугольника (рис. 26).

Система в каждый момент своего существования ставит перед собой цели, реализовать которые она может только через информацию, обладающую для этого необходимыми свойствами и являющуюся импульсом целенаправленной деятельности системы. И чем больше необходимых свойств, тем ценней информация. С позиций теории управления система как регулятор имеет два информационных входа (прямой и обратный), позволяющих ей управлять выходом - реализацией своей цели. Отсюда ценность информации есть непосредственный аргумент функции полезности информации, определяющий эффективность системы. Именно в этом смысле ценность информации является прагматическим отношением и ни одну из вершин треугольника на рис. 26 нельзя удалить, чтобы не сделать беспредметным само понятие ценности информации, не разрушить эту ценность.

Элиминация цели в актах постижения смысла текста, когда вроде бы объективное содержание цели совпадает с информацией [148, с. 128], вызывает возражение. Информация ценна лишь постольку, поскольку она способствует достижению цели. Если цель - семантический аспект текста, а его синтаксис и морфология не способствуют достижению этой цели, то прагматическое отношение между «осиротевшими» без нее системой и информацией просто разрушается - ценность информации недоступна. Морфология (разнообразие), синтаксис (значение) и семантика (смысл) -три неразрывных стороны информации, участвующие в любых прагматических отношениях систем. При этом, конечно, смысл и есть ценностная компонента информации.

Известные количественные меры ценности информации - прирост вероятности достижения цели (А.А. Харкевич [155]), значение штрафа (потерь) при принятии решения (Р.Л. Стратонович [135]), количество информации, заключенной в правильном ответе (М.М. Бонгард [17]) и др. -исходят из того, что ценность измеряется степенью достижения цели. «Близость реализованного к поставленной цели - вот самый общий критерий ценности» [148, с. 126]. Но эти меры не канонизированы в теории информации и философии, и, как нам кажется, причина - в их утилитарности. Ведь цели от системы к системе разные, соответственно, разнятся и критерии ценности информации. Поэтому представляется важным обратиться к онтологии понятия информации в попытке поиска обобщенной, философски значимой меры ценности информации.

Выше отмечалось, что количество информации, передаваемой по каналу связи, инвариантно к ее смыслу и ценности, и поэтому оно не может характеризовать ценность информации. Пожалуй, с позиций теории управления это слишком сильно сказано. Действительно, если в результате получения некоторого количества информации о системе на ту же величину снизилась неопределенность ее состояния, значит, мы получили действительно ценную информацию, а не дезинформацию (которая эту неопределенность, наоборот, увеличила бы) или шум (который оставил бы априорную неопределенность неизменной). Таким образом, количество информации как мера снятой неопределенности, мера познания вполне может претендовать на роль апостериорной количественной меры ценности информации. Такой подход проистекает из классической (шенно-новской) теории информации: «понятие неценной информации чуждо шенноновской теории - сведения, не уменьшающие неопределенности, информацией просто не являются» [147, с.54]. Но в теории Шеннона-Винера отсутствуют понятия цели информационного процесса и его безопасности, из которых явно следовало бы, что информация всегда селектируется от дезинформации и шума. Соответственно, метрика ценности, связанная с количеством информации, не обеспечивает такой селекции. В этом-то и проблема данной метрики.

Проблема также в том, что такая мера ценности слишком инерционна, ибо только по прошествии некоторого времени можно определить, что мы передали или получили - информацию, дезинформацию или шум. Иногда эта инерционность может оказаться фатальной для системы - механизм поиска и отбора начинает работать, не дожидаясь решения о ценности полученной информации. Например, так случается с общественно-политическими системами в периоды бурь и потрясений. Стоит ли потом удивляться или кусать себе локти, что сделанный выбор оказался ложным? В целом проблема сводится к оценке априорной ценности информации.

Итак, эффективность развития системы зависит от ее умения безошибочно отобрать среди своих состояний (пусть даже упорядоченных) те, которые полезны для цели развития, и закрепить их в потомстве. Так, если цель - самовосстановление, выживание гомеостатической системы во враждебной среде, то система должна поддерживать свои жизненно важные переменные в допустимых границах вне зависимости от воздействий среды. Иными словами, система своими управлениями должна защитить эти переменные от информации среды. Задача внутрисистемного регулятора и состоит в блокировании этой информации. Если мы заболели, значит наш «регулятор» не справился с таким блокированием. В этом плане отбор полезных (ценных) состояний равноценен обеспечению устойчивости выходов (существенных переменных) системы и подчиняется закону необходимого разнообразия. Если цель - улучшенное самовоспроизведение, при отборе оцениваются состояния системы на соответствие изменившейся среде, а еще лучше - прогнозу среды. При этом неудачные состояния вместе с их консервативными носителями отбраковываются, а полезные состояния передаются по наследству. Так происходит, например, с мутирующими генными наборами флоры и фауны, новыми технологиями, машинами и товарами, наукой и искусством, социально-экономическими укладами.

Сама технология отбора носит статистический (массовый), а не индивидуальный характер и состоит в поиске (обнаружении и распознавании) полезных состояний, включении их в тезаурус системы. В свою очередь, поиск носит случайный характер из-за вероятностной природы массовых явлений и связанной с этим хронической априорной неопределенности состояний сложной системы. Поиск и отбор в совокупности образуют механизм селекции.

Известны несколько методов случайного поиска [118] - метод проб и ошибок, метод Монте-Карло, метод рандомизации, гомеостат Эшби, набросовые, адаптивные, блуждающие, бионические алгоритмы поиска и др. Какой или какие из них реализуются в конкретной системе, для нас не столь важно. Важно, что результатом поиска являются удачные варианты, отбираемые на основе информации об устойчивых формах и накопленного опыта [125, с.117]. Следовательно, поиску и отбору ценных для системы состояний, имеющих будущее, предшествует генерирование информации системой; а иначе откуда взяться «информации об устойчивых формах» или «накопленному опыту»?

В [50] автором исследованы некоторые популярные процедуры поиска (метод проб и ошибок, линейный и двоичный методы).

Методу проб и ошибок свойственны два предположения: нероковой характер ошибок и отсутствие априорных соображений о том, в каком направлении делать пробы. Поэтому случайность для этого метода является единственной разумной мерой: она почти ничего не стоит и приведет в конце концов к решению. Но для этого, очевидно, поиск должен быть достаточно длительным. Быстродействие поиска важно в любой информационной технологии, будь то автоматизированная система управления (АСУ) технологическими процессами, системы управления базами данных (СУБД) и базами знаний, диагностические системы и др. Тем более оно важно в алгоритмах развития систем. Ведь речь идет об их судьбе, здесь промедление смерти подобно в буквальном смысле слова. Поэтому вряд ли метод проб и ошибок в чистом виде реализуется в алгоритмах развития.

Обратимся к решению проблемы быстродействия поиска в современных СУБД, файловых мониторах. В них принято перед поиском осуществлять лексикографическую, календарную или размерную (числовую) сортировку (упорядочивание) данных (файлов). Идея упорядочивания не нова, она лежит в основе любого быстрого поиска. Документы в офисах, книги в библиотеках, солдаты в строю, деньги в кассах, товары на складах, списки избирателей, домашние вещи, знания в голове - всюду надо «наводить порядок» для быстрого поиска. А что такое упорядочивание, как не генерирование информации? Ведь согласно одному из распространенных определений информация есть мера упорядоченности систем. Это подтверждает необходимость информации для быстрого поиска.

Из всех рассмотренных методов наиболее быстрым (по числу шагов поиска) оказывается двоичный поиск. Для алгоритма двоичного поиска характерны а) жесткая зависимость между шагами по интервалу и месту поиска, б) равновероятность выбора на каждом шаге в пределах текущего интервала поиска. В свою очередь, зависимость шагов обусловлена упорядоченностью состояний системы, т.е. ее информативностью. Что будет, если устранить всякую зависимость между шагами поиска? Это имеет место, например, при случайном поиске с возвратом проб. Поиск становится бесконечным (зацикленным), ибо неопределенность на каждом шаге не уменьшается, как при двоичном поиске. Словом, независимость шагов поиска делает его бессмысленным. Если она обусловлена игнорированием упорядоченности состояний системы, это свидетельствует о неинтеллектуальности внешнего по отношению к системе механизма отбора. Если независимость шагов поиска вынужденная (из-за отсутствия упорядоченности), это свидетельствует о внутренней неинтеллектуальности системы. Оба варианта потенциально гибельны для системы в смысле достижения ее целей. Таким образом, для реализации конечного поиска нужна упорядоченность состояний системы - внутренняя или внешняя, вносимая самим алгоритмом поиска, например, за счет невозврата проб при линейном поиске. Результаты исследования [50] приводят к следующим выводам:

селекция (поиск и отбор) сводится к целенаправленному ограничению разнообразия состояний системы по априорным или адаптавным критериям ценности с соответствующей генерацией селективной информации;

селективная информация при любом конечном (результативном) поиске одинакова и равна log п, где п - число состояний, из которых производится отбор; метод поиска определяет лишь его длительность (рис. 27);

величина log п имеет двойственную природу - это и количество селективной информации, и длина программы селекции (количество «вопросов, задаваемых системе» для поиска и отбора ее состояний по заданному критерию ценности) -, что согласуется с алгоритмической концепцией понятия количества информации по А.Н. Колмогорову [68, с.с.218-222];


Подобные документы

  • Категория "ценность" и её философский смысл. Аксиологические идеи в западной философской традиции. Критико-рефлексивный анализ современных отечественных аксиологических подходов и концепций. Современный ценностный кризис, поиск общечеловеческих ценностей.

    дипломная работа [171,1 K], добавлен 25.02.2011

  • Основные решения проблемы познаваемости мира: гносеологический оптимизм и агностицизм. Гносеологические концепции, их сущность. Формы чувственного и рационального познания. Виды и критерии истины. Специфика научного и религиозного типов познания.

    презентация [73,1 K], добавлен 08.01.2015

  • Составляющие элементы философской система Гоббса: учения о естественных телах, человеческой природе и государстве. Разработка ученым аналитического и синтетического методов научно-идейного познания. Анализ гносеологического дуализма во взглядах мыслителя.

    дипломная работа [141,6 K], добавлен 30.06.2010

  • Компьютеризация и информационные технологии. Средства массовой информации. Влияние проблем технократизма на развитие общества. Развитие информационного общества. Оценка реальных социальных последствий глобальной информатизации общества.

    реферат [38,2 K], добавлен 19.01.2004

  • Картезианская картина мира и ее влияние на развитие философской теории, европейская философия Декарта и Вольтера. Сущность и формы мышления, компоненты реальной деятельности общественного человека. Мышление как процесс опосредованного познания предметов.

    контрольная работа [36,9 K], добавлен 09.11.2010

  • Исследование мировоззренческих оснований и социокультурных контекстов, эпистемологических парадигм и аксиологических ориентиров, связанных с проблемами философского анализа бытия и функций философской онтологии в развитии социально-гуманитарных теорий.

    монография [2,4 M], добавлен 14.03.2010

  • Теоретический анализ философской интерпретации проблемы смысла и конечной цели мироздания. Смысл и бессмысленность в трудах Камю (абсурд Камю). Проблема смысла жизни по Фрейду и по Франклу. Отличительные черты пессимистических взглядов на смысл жизни.

    контрольная работа [29,3 K], добавлен 30.11.2010

  • Познание как высшая форма отражения. Пять ступеней бытия в эволюции мира согласно философской концепции В.С. Соловьева. Теория личности Л.П. Карсавина. Соотнесение методов в процессе познания. Частные, общенаучные и всеобщие методы научного познания.

    курсовая работа [26,2 K], добавлен 30.09.2009

  • Краткие биографические сведения о Философе. Основные положения философской концепции: понимание бытия; гносеологическая позиция; социальная философия; понимание сущности человека. Оценка концепции рассматриваемого философа.

    реферат [19,8 K], добавлен 29.11.2003

  • Сущность субъективного и объективного идеализма. Рассмотрение вопроса о природе человека, его происхождении и назначении как основной проблемы в истории философской мысли. Характеристика основных этапов познавательного цикла и форм научного познания.

    контрольная работа [29,7 K], добавлен 24.11.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.