Гносеологический и праксеологический аспекты философской концепции информационного подхода
Сущность генерирования и преобразования информации в актах познания и управления. Информационные механизмы реализации аксиологических установок. Влияние на темпы самоорганизации тезауруса реальных кодов. Философский смысл закона информационной экспансии.
Рубрика | Философия |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 05.04.2012 |
Размер файла | 162,1 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Размещено на http://www.allbest.ru/
Гносеологический и праксеологический аспекты философской концепции информационного подхода
Содержание
1. Закономерности генерирования и преобразования информации в актах познания и управления
1.1 Закономерности информациогенеза в актах познания и управления
1.2 Закономерности преобразования информации в актах познания и управления
2. Информационные механизмы реализации аксиологических установок познания и управления
Выводы
Список использованных источников и литературы
1. Закономерности генерирования и преобразования информации в актах познания и управления
1.1 Закономерности информациогенеза в актах познания и управления
Информаииогенез - генерация информации - морфологически (как изменение разнообразия открытой системы) происходит по синергетическим законам. Для нас важно, что это изменение сопровождается семантическим изменением внутренней информации системы, синтаксически отображаемым в ее кодах. Такое изменение может быть либо генерацией (при росте разнообразия), либо диссипацией (при уменьшении разнообразия) информации.
Все исследователи в области системного анализа сходятся во мнении, что тезаурус интеллектуальной системы в процессе развития строится на комбинаторно-иерархическом принципе за счет постепенного объединения информационных блоков - сначала самых простых, затем все более сложных [16,53,120]. Эти блоки используют коды системы - наследственные и(или) инкорпорированные из среды - и представляют в действительности клеточные ансамбли нейронных сетей (естественных или искусственных). Укрупнение блоков, а также их внутренняя морфологическая и функциональная модификация, сводящаяся к креации связей между клетками (нейронами), стимулируется средой (познание) или системой (самопознание). При этом интеллектуальная система с тезаурусом - либо индивид (естественный, искусственный), либо популяция, социум, сеть с распределенной базой знаний - корпоративным тезаурусом.
Сначала происходят количественные изменения внутри блоков: устанавливаются связи между информационными элементами блоков по принципам идентичности (00,11) и комплементарности (01,10). Когда все комбинации связей, формирующих знание, необходимое для регулятивного парирования среды, исчерпаны, вступает в действие закон необходимого разнообразия - тезаурус более не способен помочь системе в парировании среды, требуется укрупнение информационных блоков, что и делается. При этом потенциальный спектр связей расширяется (триады 000,001,010, 011,100,101,110,111, тетрады 0000,0001,0010,0011,0100,0101, 0110,0111, 1000,1001,1010,1011,1100,1101,1110,1111 и т.д.). Любое укрупнение, как мы видим, приводит к росту разнообразия в информационном смысле, т.е. к генерации новой информации - происходит качественный скачок знания. Обратим внимание, что приведенные в качестве примера информационные тетрады (биологические квадруплеты) нулей и единиц базируются на триадах (триплетах), те, в свою очередь, на диадах (дуплетах) и, наконец, последние - на монадах двоичного кода, способных только не две комбинации (0 и 1).
Реальные коды тезаурусов (генетический, белковые, метаболические - в широком смысле) оказывают существенное влияние на темпы самоорганизации тезауруса. Чем сложнее код (по объему алфавита), тем большим разнообразием обладает каждый информационный блок тезауруса по сравнению с аналогичным блоком при простом коде. Так, монада («буква») генетического кода способна дать 4 комбинации, монада белкового кода -20, русского языка - 33 комбинации, а дуплет - соответственно 16, 400 и 1089 комбинаций (у дуплета двоичного кода - 4 комбинации). Следовательно, при очередном качественном скачке (укрупнении блоков) тезауруса, кодированного неизменным сложным кодом, внутриблочные связи комбинируются дольше, чем при простом кодировании, и только потому, что их потенциально больше. Эти механизмы объяснимы в рамках принципа роста разнообразия (22), где переход к очередному показателю степени (уровню иерархии) и есть укрупнение информационных блоков.
Увеличение длительности внутриблочных комбинаторных процессов функционально-морфологического связывания информационных элементов тезауруса по мере его развития приводит к тому, что частота качественных скачков знания на поздних стадиях развития уменьшается по сравнению с ранними стадиями самоорганизации тезауруса. Это подтверждает, например, график скорости восприятия человеком новых знаний на рис. 14, заимствованном из [53, с.25]. Здесь явно видна тенденция уменьшения скорости восприятия знаний после 4-хлетнего возраста - вначале медленная, а к старости катастрофически быстрая.
Относительная скорость восприятия
Конечно, этот эффект объясняется сложнее, чем мы это сделали. Ведь объединение информационных блоков и комбинирование связей внутри них (по принципу роста разнообразия) - лишь внешнее имплицитное проявление латентных информационных факторов, которые нам еще предстоит выявить. Свидетельство тому - инкрементная часть графика (до 4-хлетнего возраста) на рис. 14. Кроме того, согласно разделу 2.2 интеллект не использует без разбора (а вернее, без отбора) все потенциальные комбинации внутри- и межблочных информационных связей для обогащения тезауруса. Механизм интеллектуального отбора выбирает наиболее ценные из этих связей в соответствии с некоторой целью. И если первые шаги в становлении и развитии тезауруса начинаются с первоначального накопления некоторого минимума разнообразия связей (состояний) по принципу «лучше что попало, чем ничего», то целенаправленный отбор ценных и отбраковка бесполезных (вредных) связей осуществляются по принципу «лучше ничего, чем что попало».
Накопление, связывание, комбинирование, укрупнение, отбор и, наконец, генерирование информации - операции (действия), составляющие целенаправленную последовательность - алгоритм, реализуемый через программу. Логично назвать ее программой генерирования информации.
Откуда ей взяться и где ее хранить? Когда учащегося выручает память, ему не нужна такая программа. Но как только в результате нескольких провалов он почувствует, что метод простого накопления данных не помогает и, более того, опасен, возникает потребность в другом методе, основанном не на запоминании, а на понимании данных и взаимосвязей между ними. Подобная ломка метода мучительна, но необходима. Удастся - система выживет и будет развиваться, не удастся - система умрет,не живя, или деградирует вплоть до полного разложения.
Так возникает программа генерирования информации как меры организованности системы знаний. Без такой программы самоорганизация системы, а следовательно, и сама система невозможны. Далее под самоорганизацией системы будем понимать плановый процесс роста ее разнообразия за счет вещества и энергии среды. Рост разнообразия эквивалентен генерированию информации в морфологических кодах.
Таким образом, программа генерирования информации может возникнуть параллельно с процессом роста разнообразия. Естественным местом ее хранения является тезаурус системы. Очевидно, что до возникновения потребности в такой программе не было потребности и в тезаурусе. Но, однажды образовавшись как запоминающее устройство (ЗУ), тезаурус, так же как ЗУ ЭВМ, позволяет хранить и редактировать помещенные в него программы (дополнять, модифицировать, стирать) наряду с данными {принцип хранимой программы в неймановской машине [64,114]). При этом разнообразие элементного состава системы {данных) растет за счет вещественно-энергетических обменных процессов под управлением генетической программы, а разнообразие связей (отношений) между элементами - за счет информационного метаболизма под управлением программы генерирования информации, которая, в свою очередь, возникает и совершенствуется в процессе этого же метаболизма (рис. 15а). Обе программы взаимосвязаны.
Генерирование информации, предположительно, дискретно и совпадает с моментами самопознания системой своего возросшего разнообразия N>n (рис. 156). Сгенерированная информация согласно закону конечной информации конечна. В соответствии с принципом хранимой программы программа генерирования информации хранится в кодах тезауруса.
Благодаря этой программе рост разнообразия приобретает более ценный для системы характер, ибо ее состояния включают комбинации уже не только свойств отдельных элементов, но и образованных этой программой свойств взаимосвязей и групповых свойств элементов. И так же как случай оказывает основное влияние на раннее морфологическое развитие системы, так по мере наполнения и совершенствования ее тезауруса все большее влияние на самоорганизацию системы оказывает программа генерирования информации и информационный обмен со средой. Система, сначала запасавшая впрок что попало, по мере развития становится разборчивой, отметает случайные данные и заполняет память уже не ими, а знаниями, где все элементы накопленного разнообразия увязаны между собой в единую систему, отвечающую цели развития.
Это нивелирование случайности развития по мере усложнения тезауруса приводит и к уменьшению естественных мутаций биосистем [53]. Вероятность ощутимых генетических мутаций высокоразвитых систем исчезающе мала. Правда, это может оказаться опасным для таких систем в том смысле, что они теряют способность быстро адаптироваться к резко изменившейся среде обитания. Передозировка информации, генерируемой сверхсложным тезаурусом, устойчивость систем к мутациям по своим последствиям сходны с судьбой консервативных систем, потерявших способность развиваться.
Отметим, что любая система со стабильным тезаурусом в разных условиях может обладать разной степенью организованности. Так, достаточно организованная целостная система житейских знаний некоторого человека может вносить слишком малый вклад в систему его производственных и, тем более, научных знаний. Причин здесь две - нехватка данных на каждом из более высоких уровней и нехватка связей между данными. В результате целостная система знаний сужается и (или) рассыпается на более мелкие целостные системы вплоть до полного исчезновения систем как таковых. На рис. 16 согласно [170] показан пример разрушения целостной системы за счет разрывов связей между элементами при увеличении некоторого порога U (порога обнаружения, порога понимания, порога терпения и т.д.). Выше порога возможны связи (взаимовлияния) элементов, ниже порога связей нет (элементы не реагируют на состояния друг друга).
Таким образом, понятие порога гносеологически и онтологически значимо и заслуживает специального исследования.
С другой стороны, система, однажды организованная в некоторой среде, может сохранять свою организацию в других средах без повреждения ( «принцип бетона» ). Целостность такой системы можно нарушить только экстремальными воздействиями. Так, если человек что-то понял и полученное знание закрепилось, целостность системы знаний может быть нарушена только при патологических изменениях мозга.
Словом, результат самоорганизации открытой системы зависит от программы генерирования информации, хранимой в тезаурусе системы и управляющей процессом самоорганизации с соблюдением законов и принципов информационного подхода, в частности, закона сохранения информации, гносеологическая версия которого позволяет утверждать, что полная взаимная информация развивающейся системы и среды всегда ограничена достигнутой информативностью тезауруса.
Обратим внимание на технологию работы программы генерирования информации. Эта технология базируется на синергетическом принципе программного управления, реализованном в эволюционном механизме развивающихся систем и в неймановском компьютере [64,114]. Суть принципа состоит в том, что программа планирует поведение системы (компьютера) не на весь жизненный цикл (сеанс работы), а всего на один следующий шаг (одну команду). Для развивающегося тезауруса реализация этого принципа сводится к незначительному увеличению базы знаний на очередном шаге самоорганизации по отношению к предыдущему шагу.
Все в мире развивается именно таким путем - от простого к сложному, пошагово, постепенно. Ничто не совершается сразу. Наличие переходного (эволюционного) процесса - закон. Точно предсказать его исход невозможно, т.к. это вероятностный процесс, в котором корреляции между случайными событиями не жестко детерминированы. Для биосистем и тезауруса это правило может быть сформулировано так: «Каждая отдельная система, возникающая в результате мутаций и отбора, непредсказуема в отношении своей структуры, тем не менее неизбежным результатом всегда является процесс эволюции - это закон» [168, с.207].
Малая дозировка сложности, как и незнакомого лекарства, представляется единственно разумным способом поведения системы в условиях априорной неопределенности последствий. Передозировка чревата летальным исходом, если «лекарство» вредно для системы, в частности, если оно не оптимизирует ее целевую функцию развития. Малая доза не способна убить систему. Но если система своевременно не распознает вреда, она может продолжать наращивать свою сложность в избранном ложном направлении, и в конце концов, при очередной бифуркации сработает отрицательный кумулятивный эффект вредной сложности - система деградирует и погибает. Куда программа развития (генерирования информации) заведет систему - к правильному решению или сбою - зависит только от программы и использованных ею данных. Для этого в ней должны быть предусмотрены средства защиты от ошибок выполнения и некачественных данных.
Самоорганизация - статистический процесс, и наряду с безнадежными системами найдутся и такие, которые благодаря средствам защитного программирования своевременно отказались от вредных данных и выполнения сбойных команд. Приращение сложности таких систем направлено на оптимизацию их целевой функции. При очередной количественно-качественной бифуркации такие системы будут прогрессировать. Но и эти системы наращивают свою сложность осторожно, малыми дозами, пошагово, не «переедая».
Достоинство пошагового достижения заданной сложности и эффективности в том, что система может это сделать сама, без внешней помощи. Так, начинающий спортсмен может сразу стать олимпийским чемпионом разве что с помощью Бога. Но, упорно тренируясь, он шаг за шагом сам (и никто за него!) придет к олимпийскому пьедесталу. Если же его программа тренировок была тупиковой, что ж, олимпийским чемпионом станет другой.
На вопрос, почему прогрессивное развитие идет от простого к сложному, а не наоборот, отвечает закон необходимого разнообразия Эшби, согласно которому чем больше (разнообразнее, сложнее) среда возмущает (стимулирует) развивающуюся систему, тем больше должно быть ответных реакций системы для ее эффективного существования в среде, т.е. система должна усложняться. И наоборот, чем меньше стимулируется система, тем проще она может быть. Но это уже регрессивное развитие -деградация системы.
Платой за самостоятельность (в изложенном смысле) является время. Самоорганизация систем требует существенно большего времени, чем потребовалось бы их создателю. Есть феноменальные люди, способные практически мгновенно «создать» ответ некоторой вычислительной задачи. Если же для ее решения использовать итерационный алгоритм вычислительной математики, то чем более точный (а следовательно, и более сложный - по числу точных знаков после десятичной запятой) результат мы хотим получить, тем больше итераций должна сделать программа и, соответственно, тем дольше она занимает компьютер.
Эволюция космических тел согласно научным данным проходит в течение нескольких миллиардов лет, эволюция живой природы на Земле -сотни миллионов лет, эволюция разума - десятки миллионов лет. А Бог на третий день создал «зелень, траву, сеющую семя по роду и по подобию ее, и дерево плодовитое, приносящее по роду своему плод, в котором семя его на земле», на четвертый день - «светила на тверди небесной» (Библия, Бытие, 1). За следующие два дня Господь создал всю фауну и человека. Мы восхищаемся проворностью Творца. Эволюции же Творец не требуется. Господь Бог или эволюция? - извечная дилемма.
Многошаговые (бесконечношаговые) процессы с оптимизацией некоторой целевой функции, подобные эволюции и самоорганизации тезауруса, часто встречаются в задачах динамического планирования, распределения ресурсов, оптимизации транспортных перевозок и др. Для решения подобных задач есть свой аппарат - метод динамического программирования [11,30], суть которого сводится к следующему: из двух возможных способов решения многошаговых задач (искать сразу все элементы решения на всех шагах либо строить оптимальное управление шаг за шагом, на каждом этапе оптимизируя только один шаг) второй способ оптимизации проще, чем первый, особенно при большом числе шагов. Обратим внимание, что задачи распределения ресурсов и оптимизации транспортных перевозок, по существу, являются основными в биологических и интеллектуальных процессах метаболизма. Соответственно, нет оснований полагать, что природа для решения задач самоорганизации выбирает сложные пути (созидание) вместо простых (эволюция). Ее существующая сложность изначально проста. Наша задача - понять эту простоту.
Было бы наивным полагать, что простота механизма самоорганизации в нашем понимании идентична простоте в «понимании» природы. Поиск простоты в сложности природы как одна из сторон реализации принципа простоты, по возможности, не должен быть слишком антропным. Достичь такого понимания природы, не ограниченного человеческим опытом, дано немногим. В физике XX века это, пожалуй, Бор, Эйнштейн, Лоренц, де Бройль, Паули, Гейзенберг, Ландау. Известный афоризм Н. Бора о теориях, недостаточно безумных, чтобы быть правильными, образно демонстрирует стиль, исповедуемый современной наукой.
Проанализируем некоторые эмпирические примеры самоорганизации. В [111] приводятся примеры биологической самоорганизации (популяций амеб и термитов): при угрозе голода амебы стягиваются в единую многоклеточную массу, личинки термитов концентрируются в ограниченной области термитника. Подобная кооперативная самоорганизация свойственна любой популяции, т.к. «общий котел» всегда выгодней, экономней, чем раздельное питание. В этих примерах (вне зависимости от конкретного механизма самоорганизации каждой популяции) важно понять, что стимулом самоорганизации было достижение величиной разнообразия популяции некоторого контролируемого порога, вызывающего подпрограмму принятия «организационного решения». Подобный алгоритм самоорганизации характерен для коацерватных капель [101], развивающихся и конкурирующих фирм, государств, избирательных блоков, студентов перед экзаменом, семей и кланов и т.д. При этом глубинным мотивом кооперативной самоорганизации в общем случае является инстинкт самосохранения (выживания), проявляющийся не только при угрозе голода, но и при любой опасности со стороны враждебной среды. Так, «сытые» поодиночке предприниматели объединяются перед угрозой национализации частной собственности, слабые объединяются в стаи, племена, государства, (кон)федерации, союзы перед угрозой силы. Вполне вероятно, что и многоклеточные организмы появились в результате кооперативной самоорганизации одноклеточных, что облегчило совместное выживание, усвоение энергии и вещества, устойчивость в агрессивной среде [88].
В основе (на входе) любого организационного решения лежит информация - пока система не осознала входной информации, ни о каком решении речи быть не может. Это, если угодно, аксиома теории управления. Следовательно, к самоорганизации, действительно, можно придти только через познание собственного разнообразия. А познание без тезауруса, хранящего информацию и программу ее генерирования, невозможно.
Итак, генерация информации происходит в процессе освоения (самопознания) системой приобретенного разнообразия, и этот процесс состоит в опосредованном (через разнообразие) распознавании и перекодировании внешней информации среды во внутренние более ценные информационные коды упорядоченности, смысла, знания (в зависимости от достигнутого системой уровня развития). Такое распознавание и перекодирование эквивалентно генерации все более ценных видов информации и возможно только при наличии программы развития и, в частности, программы генерирования информации1, по принципам своей работы сходной с принципами «неймановского компьютера».
Это не случайное совпадение - фон Нейман тесно сотрудничал с Винером и другими пионерами кибернетики в выработке компьютерных и кибернетических концепций [32].
Программное управление объектом осуществляется посредством команд. При этом априори полагается, что энергетика команд может быть малой - значительно меньшей, чем энергетика объекта управления. И чем меньше потребная энергетика управления по сравнению с энергоресурсом объекта при неизменном качестве управления, тем управление эффективнее. Следовательно, наиболее эффективно в указанном смысле управление, вообще не требующее энергии - безэнергетическое управление.
С другой стороны, из закона необходимого разнообразия следует, что ограничение, т.е. уменьшение разнообразия выходов объекта как цель управления достигается увеличением разнообразия управлений, т.е. ростом сложности регулятора. Но чем регулятор сложнее, тем он энергозатратнее.
Налицо энергетическая антиномия оптимального управления: для достижения эффективного управления его энергетику надо одновременно уменьшать и увеличивать. Это говорит о скрытом энергетическом оптимуме управления как консенсусе разнополярных тенденций. Для поиска этого оптимума перейдем от энергетического базиса управления к информационному, опираясь на известный тезис Шеннона о том. что с информацией можно обращаться почти так же, как с массой и энергией, т.е. давать информации физическую интерпретацию по метапринципу аналогии.
Начнем с того, что фундаментальную значимость закона необходимого разнообразия для управления, на наш взгляд, не следует преувеличивать. Во-первых, этот закон выведен только для гомеостатического управления в кибернетических системах. В иерархии задач управления гомеостаз состояний и процессов занимает самую нижнюю ступень [53], и это не случайно. Гомеостаз, как отмечалось, генетически связан с законами сохранения физических систем и поэтому, несмотря на свою распространенность, уступает по сложности многим алгоритмам управления, встречающимся в кибернетических системах. В этих алгоритмах, связанных не с сохранением, а с изменением состояний и процессов, единичными актами поведения, сериями и комбинациями единичных актов, закон необходимого разнообразия в лучшем случае соограничивает управления наравне с другими ресурсными ограничениями (по энергетике, запаздыванию, стоимости, живучести и т.п.), а в худшем случае излишен, если ни прямо, ни косвенно не связан с критерием эффективности управления, как при гомеостазе.
Во-вторых, целеполагание любого управления в определенном смысле оптимально, т.е. либо максимизируется эффективность при заданных ресурсных ограничениях, либо минимизируются ресурсные затраты при заданной эффективности. Иными словами, любое управление решает экстремальную задачу относительно некоторой целевой функции при заданных ограничениях. Можно ли считать необходимый оптимум (минимум) разнообразия управлений, предлагаемый законом Эшби, достаточным для гомеостатического управления? На наш взгляд, нельзя, ибо этот оптимум априорен, т.е. зависим от априорного разнообразия воздействий среды на объект управления.
Достаточный оптимум достижим только в адаптивном регуляторе, в котором ресурс разнообразия управлений закладывается с учетом возможных вариаций разнообразия возмущений от ожидаемой среды обитания объекта, а необходимые управления адаптивно формируются с учетом текущего разнообразия возмущений. Поскольку текущее разнообразие управлений не превышает своего максимально возможного значения для адаптивного регулятора, последний всегда имеет резерв управлений, требующий ресурсных затрат и, как показывают системные исследования, не беспредельный.
В системных исследованиях подобные задачи известны как проблема отношений «эффективность-ресурс», «эффективность-сложность», «эффективность-стоимость», где ресурс и сложность могут быть сведены к понятию стоимости как количественной меры любой платы (материально-энергетической, финансовой, психологической, социальной и т.п.) за ресурс или сложность [46,53,126]. Эффективность управления тоже может измеряться в единицах стоимости как доход, обеспечиваемый ресурсными затратами на управление, его усложнением. Далее рассмотрим задачу управления как проблему отношения «эффективность-стоимость-сложность», где под сложностью будем понимать функционал от разнообразия управлений.
Известные в системном анализе типовые зависимости эффективности и стоимости от сложности системы представлены на рис. 17, где эффективность и стоимость приведены к общим условным единицам измерения, а сложность характеризует разнообразие управлений. Здесь же - соответствующая кривая отношения «эффективность/стоимость».
На рис. 18 приведена типичная зависимость безусловной информационной энтропии источника (системы) от объема алфавита его состояний. Напомним, что согласно принципу роста разнообразия алфавит состояний реальных источников информации стратифицирован по сложности, т.е. представляет многократную показательно-степенную функцию типа (22), где каждый показатель степени соответствует своему иерархическому уровню сложности вплоть до того надуровня, для которого и оценивается разнообразие состояний. Последнее, в свою очередь, будет служить объемом алфавита для вышележащего уровня иерархии страт сложности. Поэтому аргумент п на рис.18, имеющий смысл объема алфавита на і-ом уровне иерархии сложности, является разнообразием состояний Q на (і-1)-ом уровне стратификации согласно формуле (19). Иными словами, сложность регулятора как источника команд (информации) управления на рис. 17 и 18 имеет одинаковый смысл - смысл разнообразия управлений.
Обратим внимание на следующие особенности поведения эффективности, стоимости и информационной энтропии регулятора с изменением его сложности:
1) существует оптимальное (максимальное) отношение Эффективность/Стоимость; недостаточное разнообразие управлений вредно не меньше, чем и его излишняя избыточность;
тренды Эффективность-Сложность и Энтропия-Сложность подобны, хотя математически логистическая кривая Эффективность (п) отличается от зависимости Н (п) тем, что первая содержит экспоненциальное ядро, а вторая - логарифмическое;
с ростом сложности регулятора его стоимость растет непропорционально быстро по сравнению с ростом эффективности управления;
кривая Эффективность (п) имеет предел, а Н (п) его не имеет, медленно, но монотонно стремясь к бесконечности.
За внешним подобием тенденций поведения эффективности и информативности регулятора с изменением разнообразия его управлений, по-видимому, скрывается их сущностная корреляция. Для этого достаточно вспомнить (см. раздел 2.1), что «ограничение разнообразия» есть одно из определений внешней информации. И оно же есть одно из определений управления.
Можно возразить, что поведенчески энтропия подобна эффективности лишь в математическом смысле - просто потому, что мы используем из некоторых соображений логарифмическую меру информации. На самом деле такая мера вполне физична (см. раздел 2.2.2).
Проинтерпретируем характер зависимостей эффективности и стоимости регулятора от его сложности. Грань между реальностью и мнимостью любой системы обусловливается, в конце концов, ее сложностью. Так, стабильная кибернетическая система согласно закону необходимого разнообразия должна иметь определенный минимум сложности для самоорганизации и жизнеспособности. Слишком простая система не способна адекватно реагировать на многообразие возмущающих воздействий внешней среды. В то же время увеличение сложности сверх некоторого порога увеличивает вероятность отказа системы, если последняя не предпринимает мер по ресурсному обеспечению возросшей сложности. Для поддержания ее живучести при отказах требуется введение резервных цепей, узлов, агрегатов, взаимосвязанных через сложную систему саморегулирования, т.е. дальнейшее усложнение. Пример этому - растения, животные и человек, которые, несмотря на болезни, раны и даже клиническую смерть, выкарабкиваются снова и снова за счет включения внутреннего горячего резерва в экстремальных ситуациях.
При этом нельзя считать, что резервирование всегда полезно для сложной системы. Занимая некоторую физическую часть системы, резерв отнимает часть ее энергетического и информационного ресурсов и иногда вступает в неожиданные и конфликтные взаимодействия с основным (активным) ресурсом системы. Так, в технических системах известны неспровоцированные срабатывания аварийных агрегатов, сбои и внутренние конфликты переусложненных аппаратно-программных средств компьютеров (например, при внедрении мультимедийных и телекоммуникационных технологий) и т.д. Аналогичные проблемы свойственны биологическим системам (мозг в состоянии психической перегрузки), крупным популяциям, сложным организационным системам. Сложная сверх меры система становится внутренне противоречивой (конфликтной) и как бы «пожирает саму себя», уплатив слишком высокую цену за свою эффективность - вот в чем проблема, во многом давшая начало современной теории конфликтных ситуаций [55,124]. При этом стоимость каждого грана эффективности для развитой системы непропорционально выше, чем для неразвитой, что и отражает график стоимости на рис. 17.
Следовательно, есть предел сложности, выше которого реальность стабильного материального существования системы так же сомнительна, как и при ее недостаточной сложности. Поэтому жизнеспособная система, приблизившись по сложности к этому пределу, если и развивается дальше, то только не в сторону усложнения своей морфологии. Возможно, поэтому многие виды жизни на Земле или не эволюционируют в течение десятков тысячелетий, или их эволюция протекает очень медленно, или они вымирают, превысив допустимую (по стоимости) сложность. Возможно, по той же причине развитие мозга высших животных и человека давно уже идет не по морфологическому пути (предел достигнут), а по информационному и функциональному (накопление и генерация новых знаний и умений, личностная и популяционная интеллектуализация).
Итак, предельность эффективности регулятора обусловлена его ресурсными, прежде всего материально-энергетическими ограничениями, налагающими запрет на безудержный рост стоимости управлений. В то же время беспредельность энтропии (информативности) можно объяснить ее внеэнергетической природой. Так, ограниченный по памяти и быстродействию компьютер в то же время не имеет принципиальных информационных ограничений по сложности решаемых задач, т.к. программы в потенции сгенерируют любую недостающую ему информацию. Аналогично не существует принципиальных теоретических ограничений на уровень естественного и искусственного интеллектов, управляемых программами самообучения. Но плата за программы неизбежна со стороны как компьютера, так и программистов, и здесь возникает оптимизационная задача, приводящая нас к информационному принципу управления: управление информационно-энергетически оптимально, если выбрано такое разнообразие управлений, при котором потенциально достижим максимум информативности управления на единицу ресурсных затрат.
Оптимальность разнообразия управлений физически означает невозможность ни убавить управления (во избежание опасной несенситивности регулятора в результате нарушения закона необходимого разнообразия), ни прибавить их (во избежание чрезмерных для регулятора ресурсных затрат). Если разнообразие управлений меньше требуемого по закону необходимого разнообразия, информативность управления будет низкой, далекой от оптимума, ибо при этом не достигается необходимое ограничение разнообразия возмущений. Поэтому информационный принцип управления может включать в себя закон необходимого разнообразия в качестве ограничения.
Информационный принцип управления созвучен феноменологическому определению эстетического качества Гемстергейса (XVIII в.) как «сообщению возможно большего числа представлений в возможно меньшее время» [12, с.74], эстетической мере Г.Д. Биркгоффа как отношению меры «порядка» к мере «сложности» (усилий понимания) [там же], принципу «наименьшей затраты сил» Р. Авенариуса и отчасти принципу «экономии мышления Э. Маха.
Воспользуемся математическими дескрипциями кривых информативности и стоимости регулятора для вывода закона на основе сформулированного информационного принципа управления. Математическая формулировка этого принципа имеет следующий вид:
Сложность
Рис. 19. К информационному принципу управления
Представим теперь информативность регулятора не в логарифмиче ской, а комбинаторной форме nm,где m - длина сообщений (команд). Тогда информационный принцип управления ( 34) приобретает вид:
Из ( 35) и (37) следует, что вне зависимости от формального представления информативности регулятора оптимальные информационно-энергетические управления по мере роста п, т.е. с повышением сложности («интеллекта») регулятора в ходе его развития требуют все меньшего прироста ресурсных затрат, а в пределе (при п--»°о) - нулевого прироста (Р--»0). Следовательно, у высокоинформативных интеллектуальных систем информационные процессы, начиная с некоторого достаточно большого п, практически не требуют дополнительной энергетики (и других ресурсов).
Налицо информационная экспансия - с ростом сложности системы ее информативность (внутренняя информация) растет, а потребность в увеличении ресурсных затрат уменьшается и в пределе фиксируется на нулевом приросте, что соответствует исходному уровню затрат а (рис. 20).
Поэтому назовем выведенный закон законом информационной экспансии и сформулируем его в следующем виде: чем более информативна система, тем меньше должен быть темп роста ее стоимости, при этом сама стоимость должна стабилизироваться на уровне первоначальной (до начала развития) ресурсной платы.
Философский смысл закона информационной экспансии мы усматриваем в следующем. Если перейти от понятия регулятора к понятию системы, то вопреки материально-энергетической тенденции убыстрения роста стоимости системы по мере ее усложнения и роста информативности задача согласно выведенному закону состоит как раз в обратном -с усложнением системы темп Р роста стоимости (а значит, энергетических затрат) должен асимптотически стремиться к нулю, стабилизируя стоимость оптимальной системы на уровне ее первоначальных ресурсных затрат а (рис. 20). Такой парадоксальный вывод противоречил бы всем канонам классической науки и здравому смыслу, если бы мы игнорировали возможность безэнергетического (несилового) или, по крайней мере, малоэнергетического информационного управления, обсужденного в главе 2. Но мы не будем этого делать, мы не будем игнорировать такой возможности, хотя аподиктических, общепризнанных данных на этот счет нет. Что ж, все научные и философские концепции при своем возникновении не были аподиктическими. Часть из них приводила к отрицательным (пока\) результатам, другая - к положительным (пока\). Из этого вовсе не следуют умозаключения об абсолютной пользе общепринятых и абсолютном вреде непризнанных концепций. Последуем мудрости Н. Винера, который призывал: «Когда единственный недостаток доказательства - его необычность, пусть у вас достанет смелости принять и его, и эту необычность» [31,с.343].
Закон информационной экспансии по своей природе интенционален, обусловлен сознанием, поэтому пока возможные области его действия -гносеология, праксеология, но не онтология. Впрочем, с вероятностью, отличной от нуля, не исключены и онтологические корни данного закона, что представляет интерес для дальнейших исследований
Закон информационной экспансии с позиций, внешне весьма далеких от концепции информационного монизма и герменевтического подхода к понятию отражения, от теорий информационного и калибровочного полей, косвенно указывает на оптимальность чисто информационного управления как перспективы развития традиционного информационно-энергетического управления с его проблематичной оптимальностью. У простейших систем с конечным относительно малым разнообразием управлений (п>1) скорость Р>0, что означает допустимость энергозатратного управления. У сложных систем (биосистем, животных, человека, перспективных компьютеров) с п--»°о скорость Р^О, и энергозатратное управление становится недопустимым (первоначальные затраты а не увеличиваются). Если предположить, что человек как система (регулятор) оптимален (а на этом настаивают все антропоцентрические учения), то все его высшие управления, направленные вовне и внутрь себя, чисто информационны. Высшие формы управления (регуляции) требуют погружения системы (регулятора) в информацию и только в нее, разрешая использовать для этого минимум имеющихся ресурсов.
Физически это может быть объяснено тем, что с ростом сложности (и, соответственно, энергозатрат) материальных регуляторов обычно возрастает их внутренний уровень шумов, что загрубляет чувствительность каналов связи. Достаточно сравнить эти чувствительности у насекомых, рептилий, птиц и далее по восходящей - вплоть до человека, чтобы убедиться в этом. У высших (сверхсложных) регуляторов шумы, если не предпринять специальных мер, могут вообще элиминировать связь как таковую. Такими мерами, на наш взгляд, и являются чисто информационные управления, инициируемые особыми состояниями регулятора, далекими от «шумящей» энергетики традиционных управлений. На необходимость и, более того, на реальность таких особых состояний указывает закон информационной экспансии, подтверждаемый на практике прогрессом энергосбережения в компьютерах по мере их эволюции от энергозатратных вычислительных машин (мэйнфреймов) 50-70 г.г. к современным и, тем более, перспективным микроминиатюрным информационным компьютерам, возможности которых по обработке информации ушли далеко вперед по сравнению с ЭВМ - «большими калькуляторами» прошлых десятилетий -и все больше конкурируют с информационными возможностями человека. Другой пример - эволюция постиндустриального общества в информационное с его культом знаний, информацией как национальным ресурсом и производительной силой, перекачкой трудовых ресурсов из сферы материального производства в информационную сферу.
Из закона информационной экспансии следует, что хороший регулятор отличается от плохого оптимальным разнообразием своего командного языка. Но разве мало примеров, что при одинаковом уровне оптимальности одни регуляторы эффективны, а другие нет? Дело в том, что информационный оптимум управления интенциально возможен (достижим по информационному принципу управления), он целеполагается, но он не ригористичен (как не ригористичен закон информационной экспансии). Именно в этом смысле надо понимать его принципиальную достижимость. И суть здесь в том, что каждая из потенциально возможных команд управления не равновозможна, а разновозможна в использовании. Равновоз-можность - лишь гипотетический частный случай разновозможности команд. Во-первых, разновозможны элементарные команды (микрокоманды), причем степень разновозможности применения даже одной микрокоманды зависит от области применения (литературной, научной, бытовой, публицистической и т.п.). Во-вторых, разновозможны комбинации микрокоманд (команды, макрокоманды), ибо ценность каждой команды (макрокоманды) зависит от ситуации управления. В этом смысле управления по ценности должны быть релевантны, адекватны ситуации, сложившейся для объекта управления в его среде обитания.
В этом состоит интенциональный принцип максимума внешней информации, или просто принцип максимума информации как следствие закона информационной экспансии: любой информационный процесс управления направлен на максимизацию информационно-регулятивного эффекта при допустимых ресурсных затратах.
Этот принцип так же всеобщ, как и изложенные выше принципы и законы. Он действует в косной и живой природе, будь то взаимодействие лекарства с вирусом, произведения искусства с созерцателем, власти с народом и т.п. В синергетике этот принцип был обоснован М. Эйгеном в рамках развитой им теории биоэволюции как принцип селективной ценности информации [168], а также Н.Н. Моисеевым (принцип минимума диссипации [88]).
В [43] принцип максимума информации для биосистем сформулирован в следующем виде: «организм стремится обеспечить максимум взаимной информации между стимулами и реакциями» [с. 16].
1.2 Закономерности преобразования информации в актах познания и управления
философский информационный аксиологический тезаурус
Рассмотрим элементарный информационный процесс - одностороннюю связь: источник (внутренняя информация в форме символов) --» кодер (коды) --> передатчик (сигналы) --> среда (сигналы, помехи) --> приемник (коды) --» декодер (символы) --» потребитель (внутренняя информация).
Данный процесс фундаментален, т.к. включен во все более сложные информационные процессы (двусторонний, иерархический, многосвязный, сотовый, циркулярный, кольцевой и др.). Именно поэтому мы его исследуем. Если информационный процесс явлен в материально-энергетической форме, то коды - знаковая интерпретация внутренней информации источника, сигналы - материально-энергетические носители кодов. В безэнергетических (несиловых) информационных процессах коды - символы информационного поля, сигналы - безэнергетические носители этих кодов. Помехи - возмущающие воздействия среды на сигналы.
Из предъявленной схемы связи, пограничными феноменами которой являются внутренняя информация источника и внутренняя информация потребителя, следует: связь как процесс есть установление понимания источника потребителем информации; связь как результат есть понимание источника потребителем.
Отсюда проблема связи есть герменевтическая проблема. Понимание как цель связи имплицирует адекватность кодов символам, переданных сигналов кодам, принятых сигналов переданным и, наконец, отображения в потребителе отображаемому источнику. Установление понимания есть коммуникативный процесс, для которого важны надежность и быстродействие.
Данные утверждения в определенной мере расходятся с общепринятым понятием связи как коммуникации (и только!). Возможно, такое представление о связи обусловлено этимологической полисемией словарей - в частности, английскому слову communication соответствуют более десятка русских слов, в том числе связь; возможно, это представление перекочевало из кибернетики, теорий информации и связи, устойчиво ориентированных на процессуальную роль связи. Как бы то ни было, но философское понятие связи представляется нам шире его традиционной интерпретации. Первыми рассмотрим принципы кодирования, которые должны реа-лизовывать коды, оптимальные в изложенном выше информационном смысле. Во-первых, речь идет о лингвистической оптимальности. Язык кодера должен обеспечить первичное преобразование знаков исходного сообщения источника в кодовые символы, понятные передатчику сообщений. И чем больше разных кодовых символов, различаемых передатчиком, тем сложнее должны быть и кодер, и передатчик. Отсюда проблема простоты кода. Она особенно важна для простых систем, например, искусственных. Не менее важна и проблема краткости кода, напрямую связанная с быстродействием информационного процесса. Эта проблема важна для систем с ограниченным ресурсом времени, например, для биосистем. Требования простоты и краткости взаимопротиворечивы.
Во-вторых, кодер, находясь между источником информации и каналом связи, должен быть по входу информационно согласован с выходом источника, а по выходу - со входом канала связи. Цель этого двукратного согласования - обеспечение своевременности и сохранности информации при ее передаче по зашумленному каналу связи. Если в технических системах необходимость информационного согласования кодера в указанном смысле уже давно очевидна, то хотелось бы обратить внимание на всеобщность принципа согласования кодера вне зависимости от природы объект-субъектной системы.
Исходное сообщение объекта-источника информационно всегда избыточно, будь то извержение вулкана или речь политика, поворот руля или смена парадигмы, мысль или слово. Избыточность здесь понимается в том смысле, что каждый знак исходного сообщения из-за объективной неравновероятности использования и межзнаковой зависимости несет информацию, заведомо меньшую максимально возможной, которая, в свою очередь, достигается только при равновероятности и независимости знаков [42,52]. Следовательно, одну и ту же информацию можно передать меньшим числом знаков, если каким-то образом компенсировать их неравновероятность и коррелированность. Вот эта разница между реальным и оптимальным числом знаков и характеризует избыточность исходного сообщения, которая, в свою очередь, ответственна за запаздывание (несвоевременность приема) информации в целом.
С другой стороны, объективная открытость реальной системы произвольной природы означает наличие у нее не менее одного входа, не зависимого от системы, но зависимого от ее среды обитания. Следовательно, в общем случае цель системы и цель среды тоже независимы, а в частном худшем для системы случае связаны жесткой обратной зависимостью, т.е. противоположны.. В результате воздействия среды на открытую систему чаще не способствуют, а мешают цели системы. Эти мешающие воздействия {помехи) на канал связи системы приводят к ошибкам несовпадения переданной и принятой информации. Для компенсации (обнаружения и коррекции) этих ошибок испытанное средство - избыточность, например, в виде простейшего повторения сигнала. Очевидно, что число таких повторений не должно быть слишком большим во избежание недопустимого запаздывания.
Итак, для обеспечения своевременности информации избыточность сообщений источника должна быть минимизирована (согласование входа -кодер источника), для обеспечения сохранности информации избыточность закодированного сообщения должна быть согласована с состоянием канала связи, т.е. с характером и уровнем помех (согласование выхода -кодер канала). Оба вида согласования взаимно противоречивы, но объективно необходимы кодеру. В результате обобщенные структуры кодера и декодера имеют вид, изображенный на рис. 21, где кодер источника и кодер канала объединены в т.н. кодер Шеннона [42,52].
Напомним, что кодеры входят в структуры как естественных, так и искусственных систем, приобретая самые причудливые, а часто латентные формы, о которых мы можем только догадываться.
Лингвистический {первичный) кодер и кодер Шеннона подчиняются каждый своим принципам кодирования, которые мы и рассмотрим.
Принцип сохранения разнообразия (информации). Кодирование на языке математики есть однозначное функциональное отображение F счетного (конечного) множества А неповторяющихся знаков на множество В кодов : B=F(A). Здесь А - множество с разнообразием Na, равным численности множества, т.е. все элементы ai (aieA)|i=i2,...N не повторяются. Соответственно и множество В есть множество с разнообразием Nb, равным разнообразию множества А (ЬієВ)| i=i,2,...NB где Na= Nb. При этом объем исходного алфавита знаков (пи) в общем случае не равен объему алфавита кодера (пк) и, соответственно, при Na= пи Nb.^ пк.
Равенство разнообразий множеств А и В принципиально. Задача кодирования и состоит в том, чтобы отображение F при разных (в общем случае) алфавитах источника и кодера обеспечило равенство NA= NB. В этом и состоит принцип сохранения разнообразия, сформулированный У.Р. Эшби: при кодировании посредством взаимооднозначного преобразования разнообразие не изменяется [170].
Математическая строгость этого принципа при однозначном функциональном отображении очевидна, т.к. каждому элементу ai отображение F сопоставляет элемент bi при Na= Nb. Проблема состоит в реализации F, и эту проблему природа и человек решают в меру своих возможностей и отпущенного времени.
Итак, кодирование - это преобразование исходного разнообразия источника информации с сохранением разнообразия. Или проще, кодирование - это преобразование информации без ее потери. Поэтому в равной степени принцип сохранения разнообразия можно называть кодовым принципом сохранения информации.
Принцип выбора кода (лингвистический кодер). Вопрос о выборе кода привычен для человеческой практики. Он ставится всякий раз при создании новой информационной системы - компьютерной, связной, диагностической, библиотечной и т.п. У нас нет оснований полагать, что подобный вопрос не возникал при возникновении (создании) Универсума (Творения) и жизни в нем. Решался ли он длительным естественным отбором (эволюция) или однократным выбором (Логос, Бог), непринципиально.
На рис. 22 пи - объем первичного алфавита (основание знакового кода), пк - основание кода кодера.
В принципе каждому знаку (букве, символу) можно сопоставить свой код, т.е. объемы первичного и вторичного алфавитов можно сделать одинаковыми: пи= nK. Это обеспечивает максимально возможное быстродействие кода, т.к. одному знаковому символу соответствует один кодовый символ. Но при большом знаковом алфавите кодер получится слишком сложным, ненадежным и дорогостоящим. Так, если пи= пк=32, в электронном кодере потребуются элементы с 32 устойчивыми состояниями (токовыми, потенциальными, полевыми). Современные электроника, оп-тоэлектроника и спинэлектроника вряд ли смогут предложить нечто приемлемое в обозримом будущем. Поэтому, как правило, алфавит кодера, предназначенного для кодирования текстов и десятичных чисел, удовлетворяет неравенству пи> пк.
Но уменьшая алфавит кодера, мы расплачиваемся удлинением кодовых комбинаций, соответствующих знакам первичного алфавита. Как следствие, удлиняются закодированные сообщения. При этом увеличивается память (место) для их хранения и время для их передачи. Например, при пк=10 (десятичный код) представим некоторое закодированное сообщение в виде цепочки независимых кодов от 0 до 9: 591704852 (9 символов). То же сообщение в равномерном двоичном коде (пк= 2) имеет вид: 010110010001011100000100100001010010 (36 символов). Длина сообщения получилась в 4 раза больше, чем в десятичном коде, т.к. каждой десятичной цифре соответствует тетрада двоичных символов (квадруплет на языке биологии).
В неравномерном двоичном коде сообщение укоротится до 24 символов: 101100111110100100010110. И все равно проигрыш в лаконичности по сравнению с десятичным кодом составляет примерно 2,7 раза. При этом, начиная с первого же символа сообщения, закодированного неравномерным кодом, оно неоднозначно - первым декодируемым знаком может оказаться 1 (1) или 2 (10) или 5 (101). Неоднозначность (трек ошибок) декодирования охватывает все сообщение. Таким образом, за лаконичность (быстродействие) неравномерного кода приходится платить его неоднозначностью, для компенсации которой потребуются специальные меры [99].
Подобные документы
Категория "ценность" и её философский смысл. Аксиологические идеи в западной философской традиции. Критико-рефлексивный анализ современных отечественных аксиологических подходов и концепций. Современный ценностный кризис, поиск общечеловеческих ценностей.
дипломная работа [171,1 K], добавлен 25.02.2011Основные решения проблемы познаваемости мира: гносеологический оптимизм и агностицизм. Гносеологические концепции, их сущность. Формы чувственного и рационального познания. Виды и критерии истины. Специфика научного и религиозного типов познания.
презентация [73,1 K], добавлен 08.01.2015Составляющие элементы философской система Гоббса: учения о естественных телах, человеческой природе и государстве. Разработка ученым аналитического и синтетического методов научно-идейного познания. Анализ гносеологического дуализма во взглядах мыслителя.
дипломная работа [141,6 K], добавлен 30.06.2010Компьютеризация и информационные технологии. Средства массовой информации. Влияние проблем технократизма на развитие общества. Развитие информационного общества. Оценка реальных социальных последствий глобальной информатизации общества.
реферат [38,2 K], добавлен 19.01.2004Картезианская картина мира и ее влияние на развитие философской теории, европейская философия Декарта и Вольтера. Сущность и формы мышления, компоненты реальной деятельности общественного человека. Мышление как процесс опосредованного познания предметов.
контрольная работа [36,9 K], добавлен 09.11.2010Исследование мировоззренческих оснований и социокультурных контекстов, эпистемологических парадигм и аксиологических ориентиров, связанных с проблемами философского анализа бытия и функций философской онтологии в развитии социально-гуманитарных теорий.
монография [2,4 M], добавлен 14.03.2010Теоретический анализ философской интерпретации проблемы смысла и конечной цели мироздания. Смысл и бессмысленность в трудах Камю (абсурд Камю). Проблема смысла жизни по Фрейду и по Франклу. Отличительные черты пессимистических взглядов на смысл жизни.
контрольная работа [29,3 K], добавлен 30.11.2010Познание как высшая форма отражения. Пять ступеней бытия в эволюции мира согласно философской концепции В.С. Соловьева. Теория личности Л.П. Карсавина. Соотнесение методов в процессе познания. Частные, общенаучные и всеобщие методы научного познания.
курсовая работа [26,2 K], добавлен 30.09.2009Краткие биографические сведения о Философе. Основные положения философской концепции: понимание бытия; гносеологическая позиция; социальная философия; понимание сущности человека. Оценка концепции рассматриваемого философа.
реферат [19,8 K], добавлен 29.11.2003Сущность субъективного и объективного идеализма. Рассмотрение вопроса о природе человека, его происхождении и назначении как основной проблемы в истории философской мысли. Характеристика основных этапов познавательного цикла и форм научного познания.
контрольная работа [29,7 K], добавлен 24.11.2011