Применение гибридных самоорганизующихся нейронных сетей и быстрого дискретного вейвлет-преобразования для построения систем классификации сигналов

Топологическая модель быстрой нейронной сети. Применение гибридных быстрого дискретного вейвлет-преобразования для построения систем классификации сигналов. Структурный синтез быстрых нейронных сетей. Модели и концепции эволюционной кибернетики.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 29.05.2017
Размер файла 68,7 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http: //www. allbest. ru/

Применение гибридных самоорганизующихся нейронных сетей и быстрого дискретного вейвлет-преобразования для построения систем классификации сигналов

С.В. Болдырев

На сегодняшний день одним из эффективных средств, для обработки сигналов, являются нейронные сети. Для эффективного решения задачи классификации образов нейронная сеть должна иметь устойчивость к зашумлению входных данных, уметь распознавать сигнал на неполной представительской выборке, иметь наиболее простую и эффективную в использовании внутреннюю структуру.

Всеми из перечисленным факторов, в той или иной степени, обладают сети на основе самоорганизации. Их основу составляет подмеченная закономерность, что глобальное упорядочение сети становится возможным в результате самоорганизующихся [4] операций, независимо друг от друга проводящихся в различных локальных сегментах сети. В соответствии с поданными входными сигналами осуществляется активация нейронов, которые вследствие изменения значений синаптических весов адаптируются к поступающим обучающим выборкам. В процессе обучения наблюдается тенденция к росту значений весов, из-за которой создается своеобразная положительная обратная связь: более мощные возбуждающие импульсы - более высокие значения весов - большая активность нейронов. При этом происходит естественное расслоение нейронов на различные группы. Отдельные нейроны или их группы сотрудничают между собой и активизируются в ответ на возбуждение, создаваемое конкретными обучающими [4, 5] выборками, подавляя своей активностью другие нейроны. При этом можно говорить как о сотрудничестве между нейронами внутри группы, так и о конкуренции между нейронами внутри группы и между различными группами.

При обучении самоорганизующихся сетей широкий спектр обучающих данных, включающий многократные повторения похожих друг на друга выборок, образует "базу знаний" для обучения сети, из которой путем соответствующих сопоставлений выводятся решения по формированию на входе сети определенного отклассифицированного вектора.

Как правило, это однослойные сети, в которых каждый нейрон соединен со всеми компонентами N-мерного входного вектора х так.

Веса синаптических связей нейронов образуют вектор wi=[wi1, wi2, … win]T. После нормализации входных векторов при активации сети вектором х в конкурентной борьбе побеждает тот нейрон, веса [4] которого в наименьшей степени отличаются от соответствующих компонентов этого вектора. Для w-го нейрона-победителя выполняется отношение:

,

где d(x,w) обозначает расстояние (в смысле выбранной метрики) между векторами x и w, а n - количество нейронов. Вокруг нейрона-победителя образуется топологическая окрестность Sw(k) с определенной энергетикой, уменьшающейся с течением времени. Нейрон-победитель [4, 5] и все нейроны, лежащие в пределах его окрестности, подвергаются адаптации, в ходе которой их векторы весов изменяются в направлении вектора х.

Применение принципов самоорганизации позволяет синтезировать многослойные нейронные сети минимальной конфигурации на неполной, непредставительной обучающей выборке. Для синтеза нейронной сети, обеспечивающей минимальное число ошибок на обучающей выборке, не требуется заранее оценивать значимость входных переменных (признаков), задавать число слоев, а также определять синаптические связи. Конфигурация обученной нейронной сети будет минимальной.

Недостатком самоорганизующихся сетей считается сложность отображения пар обучающих данных (x,d), поскольку сеть с самоорганизацией, выполняющая обработку только входного вектора х, не обладает свойствами хорошего аппроксиматора, присущими [4] многослойному персептрону или радиальной сети. Очень хорошие результаты удается получить при объединении самоорганизующегося слоя и персептронной сети, что позволяет совместить самоорганизующейся сети к локализации и возможности аппроксимации, свойственные многослойному персептрону. Подобная структура образует гибридную сеть. Она представляет собой каскадное подключение самоорганизующегося слоя и персептронной сети. Самоорганизующийся слой улавливает значимые признаки процесса (локализует их на основе входных данных x), после чего им приписывается входной вектор в персептроном слое. Вследствие хорошей локализации признаков процесса первым слоем сети в большинстве приложений бывает достаточно применение персептрона, содержащего только один слой нейронов.

В результате сеть обучается за меньшее количество итераций, число нейронов гораздо меньше чем в традиционных сетях что приводит к сокращению затрат машинного времени на обучение. Что позволяет уменьшить время обработки сигналов и увеличить эффективность их классификации.

Иногда, поступающие для классификации сигналы содержат помехи, наводки, шум либо являются сложными по структуре или содержат избыточное количество информации. Для предварительной обработки и очистки сигнала от шума эффективно применять методыв на основе вейвлет-преобразования. Теория вейвлетов дает более гибкую технику обработки сигналов, чем преобразование Фурье. Оно предоставляет возможность анализа сигнала не только по его частотным составляющим, но и локализует их. В процессе построения нейронных сетей применение предварительной обработки сигналов, входящих как в обучающую выборку так и непосредственно в сами классифицируемые сигналы посредством вейвлет-анализа позволяет повысить скорость и качество обучения сети.

При использовании вейвлет-анализа для обработки сигналов поступающих на классификацию целесообразно использование методов кратномасштабного анализа и быстрого алгоритма нахождения вейвлет-коэффициентов. Многомасштабное представление дает возможность рассмотрения сигнала на разных уровнях его разложения. В то время как алгоритм быстрого вейвлет-преобразования позволяет обойти вычисление большого количества интегралов. К тому же существует возможность построения нейросетевой структуры, реализующей алгоритм быстрого вейвлет-преобразования. Данной структурой являются так называемые [2, 3] быстрые нейронные сети. Вейвлет-преобразование сигнала состоит в его разложении по базису, сконструированному из импульса или группы импульсов посредством масштабных изменений и сдвигов по временной оси [1]. Каждая функция этого базиса характеризуется локализациями в частотной и временной областях, вследствие чего вейвлет-преобразование формирует двумерную характеристику сигнала. При этом частота и временная позиция импульса рассматриваются как независимые переменные. Реализация быстрого вейвлет-преобразования в технологии больших интегральных схем приводит к существенному уменьшению площади кристаллов спектральных анализаторов и к уменьшению их энергопотребления.

Алгоритмы быстрого вейвлет-преобразования имеют выраженную многослойную структуру, подобную структуре многослойных персептронов, поэтому возможно построение нейронных сетей с использованием [2] принципов быстрого вейвлет-преобразования. Для этого в операциях преобразования необходимо заменить коэффициенты преобразования перестраиваемыми синаптическими весами и добавить нелинейные функции активации. Обобщенное спектральное преобразование можно рассматривать как нейронную сеть с линейными функциями активации.

Быстрые нейронные сети представляют собой вариант многослойных сетей, поэтому для их обучения могут быть использованы градиентные методы типа обратного распространения ошибки. Ортогональные перестраиваемые преобразования с различной топологией традиционно используются для построения спектральных преобразований. В терминах перестраиваемых преобразований процедура обучения называется настройкой.

Классические системы базисных функций имеют аналитическую форму, поэтому настройка преобразования также выполняется в аналитическом виде. В построении быстрых нейронных сетей допускается многомерное обобщение, что с имеющимся высоким быстродействием способствует их использованию для построения классификаторов зрительных сцен. Идеология быстрых нейронных сетей основана на представлении структуры алгоритма нейрообработки в виде слабосвязанного многослойного графа. Каждая вершина графа является нейронным [2, 3] ядром, и определяет базовую операцию над векторной компонентой.

Поскольку вейвлет-преобразование является линейным, то все функции активации являются линейными функциями с единичной передачей и нулевым смещением аргумента. В общем случае базовая операция нейронного ядра задается матрицей размерности pi Ч pi (синаптической картой нейронного ядра). Особенностью структурной модели быстрых нейронных сетей является отсутствие параллельных путей между вершинами графа. Это свойство позволяет представить преобразование данных как совокупность преобразований векторных компонент вдоль путей, связывающих вершины терминальных слоев сети. Построим алгоритм быстрого вейвлет-преобразования на временном интервале длиной N = p0 , p1 , …, pk-1, pi - произвольные целые числа. В быстрых нейронных сетях обработка данных выполняется последовательно по слоям от начального слоя к конечному. Обозначим через Xл, Yл входной и выходной векторы слоя л. В данном случае алгоритм преобразования запишется следующим образом:

Yл= Xл Hл , Xл+1= Yл , л=0,1,…,k-1 (1)

где матрица Hл преобразования в слое л. Матрица является слабозаполненной и состоит из непересекающихся [2, 3] блоков, каждый из которых содержит синаптическую карту нейронного ядра. Для построения алгоритма достаточно сделать привязку ядер к переменным Uл, Vл слоя л. Глобальные переменные слоя в поразрядной форме имеют вид:

,

Подставляя в (1) глобальные [3] переменные, получаем:

где .

Соответствия и определяются топологией слабозаполненной матрицы . Анализируя выше приведенное выражение нетрудно получить аналитическую форму для поэлементного представления данной матрицы. Поскольку в ненулевых позициях матрицы одноименные локальные разрядные числа первой и третьей строки таблицы совпадают по значениям, то через них устанавливается равенство между разрядными глобальными переменными второй и четвертой строки. В ненулевых позициях матрицы размещаются элементы нейронных ядер. В поэлементном виде матрица описывается выражением:

Для вейвлет-базиса Хаара заданного на интервале длиной 23 базис порождается одиночным двуполярным импульсом с временной базой, равной двум. По частотным локализациям функции базиса разбиваются на октавы. Из выражения (2) и определения функции [2] Хаара получаем . Матрица образующих импульсов для каждой октавы и имеет вид: . Структурная модель быстрого алгоритма в виде графа для данной размерности имеет вид:

Рис. 1 Структурная модель сети в виде графа быстрого вейвлет-алгоритма для размерности 23

На основе данной схемы строится топология нейронной сети, которая соответствует упорядоченности базисных функций. Топологическая модель показывает непосредственно структуру нейросети, где каждая вершина соответствует одному нейрону, а дуги определяют связи между нейронами.

Рис. 2 Топологическая модель быстрой нейронной сети для размерности 23

Базисные функции разбиваются на три октавы, а матрица преобразования факторизуется в произведение трех матриц: . Поразрядное [2, 3] представление строк и столбцов матрицы H можно записать в виде:

.

В нулевом слое все матрицы нейронных ядер равны матрице образующих импульсов. Матрица синаптической карты слоя определяется выражением:

,

где .

В первом слое матрица слоя в поэлементном [3] представлении записывается в виде:

Ядра с матрицей образующих импульсов будут занимать позиции , остальные ядра представляют собой [2, 3] единичные матрицы.

Во втором слое матрица преобразования в аналитическом виде выглядит следующим образом:

В этой матрице только нулевое ядро совпадает с матрицей образующих импульсов, все остальные ядра равны единичной матрице. На рисунке 3 приведены все матрицы послойных преобразований и показаны поразрядные представления номеров строк и столбцов матрицы.

Рис. 3 Матрицы послойных преобразований

Для вейвлета Добеши матрица перобразования выглядит следующим образом:

кибернетика нейронный сеть сигнал

Каждая строка матрицы соответствует свертке вектора сигнала с локализованным вейвлет-фильтром.

Литература

1. Астафьева Н.М. Вейвлет-анализ: Основы теории и примеры применения. Успехи физических наук, 1996, т.166, № 11.

2. Дорогов А. Ю. Быстрые нейронные сети: Проектирование, настройка, приложения. Научная Сессия МИФИ - 2004. VI всероссийская научно-техническая конференция «Нейроинформатика-2004»: Лекции по нейроинформатике. Часть 1. - М.: МИФИ, 2004.

3. Дорогов А.Ю. Структурный синтез быстрых нейронных сетей. Нейрокомпьютер. №1 1999.

4. Осовский С. Нейронные сети для обработки информации. Перевод с польского И.Д. Рудинского. - М.: Финансы и статистика, 2004.

5. Редько В.Г. Эволюция, нейронные сети, интеллект: Модели и концепции эволюционной кибернетики. Изд. 3-е. - М.: КомКнига, 2005.

Размещено на Аllbеst.ru


Подобные документы

  • Применение вейвлет-преобразования для сжатия и обработки медицинских сигналов и изображений. Разработка алгоритма автоматизированного выделения PQRST-признаков в сигнале электрокардиограмм с помощью вейвлет-инструментария математического пакета Matlab.

    дипломная работа [4,6 M], добавлен 16.07.2013

  • Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки.

    дипломная работа [814,6 K], добавлен 29.09.2014

  • Способы применения технологий нейронных сетей в системах обнаружения вторжений. Экспертные системы обнаружения сетевых атак. Искусственные сети, генетические алгоритмы. Преимущества и недостатки систем обнаружения вторжений на основе нейронных сетей.

    контрольная работа [135,5 K], добавлен 30.11.2015

  • Механизм работы нервной системы и мозга человека. Схема биологического нейрона и его математическая модель. Принцип работы искусственной нейронной сети, этапы ее построения и обучения. Применение нейронных сетей в интеллектуальных системах управления.

    презентация [98,6 K], добавлен 16.10.2013

  • Применение нейрокомпьютеров на российском финансовом рынке. Прогнозирование временных рядов на основе нейросетевых методов обработки. Определение курсов облигаций и акций предприятий. Применение нейронных сетей к задачам анализа биржевой деятельности.

    курсовая работа [527,2 K], добавлен 28.05.2009

  • Описание технологического процесса напуска бумаги. Конструкция бумагоделательной машины. Обоснование применения нейронных сетей в управлении формованием бумажного полотна. Математическая модель нейрона. Моделирование двух структур нейронных сетей.

    курсовая работа [1,5 M], добавлен 15.10.2012

  • Понятие искусственного нейрона и искусственных нейронных сетей. Сущность процесса обучения нейронной сети и аппроксимации функции. Смысл алгоритма обучения с учителем. Построение и обучение нейронной сети для аппроксимации функции в среде Matlab.

    лабораторная работа [1,1 M], добавлен 05.10.2010

  • Математическая модель искусственной нейронной сети. Структура многослойного персептрона. Обучение без учителя, методом соревнования. Правило коррекции по ошибке. Метод Хэбба. Генетический алгоритм. Применение нейронных сетей для синтеза регуляторов.

    дипломная работа [1,5 M], добавлен 17.09.2013

  • Способы применения нейронных сетей для решения различных математических и логических задач. Принципы архитектуры их построения и цели работы программных комплексов. Основные достоинства и недостатки каждой из них. Пример рекуррентной сети Элмана.

    курсовая работа [377,4 K], добавлен 26.02.2015

  • Возможности программ моделирования нейронных сетей. Виды нейросетей: персептроны, сети Кохонена, сети радиальных базисных функций. Генетический алгоритм, его применение для оптимизации нейросетей. Система моделирования нейронных сетей Trajan 2.0.

    дипломная работа [2,3 M], добавлен 13.10.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.