Нейрокомпьютерная техника

Основы искусственных нейронных сетей. Персептроны. Процедура обратного распространения. Сети встречного распространения. Стохастические методы. Сети Хопфилда. Двунаправленная ассоциативная память. Адаптивная резонансная теория. Оптические нейронные сети.

Рубрика Экономико-математическое моделирование
Вид дипломная работа
Язык русский
Дата добавления 22.06.2008
Размер файла 3,6 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Если величина случайного изменения весов определяется в соответствии с распределением Больцмана, сходимость к глобальному минимуму будет осуществляться только в том случае, если температура изменяется обратно пропорционально логарифму прошедшего времени обучения. Это может привести к невероятной длительности процесса обучения, поэтому большое внимание уделялось поиску более быстрых методов обучения. Выбором размера шага в соответствии с распределением Коши может быть достигнуто уменьшение температуры, обратно пропорциональное обучающему времени, что существенно уменьшает время, требуемое для сходимости.

Заметим, что существует класс статистических методов для нейронных сетей, в которых переменными сети являются выходы нейронов, а не веса. В гл. 5 эти алгоритмы рассматривались подробно.

САМООРГАНИЗАЦИЯ

В работе [3] описывались интересные и полезные результаты исследований Кохонена на самоорганизующихся структурах, используемых для задач распознавания образов. Вообще эти структуры классифицируют образы, представленные векторными величинами, в которых каждый компонент вектора соответствует элементу образа. Алгоритмы Кохонена основываются на технике обучения без учителя. После обучения подача входного вектора из данного класса будет приводить к выработке возбуждающего уровня в каждом выходном нейроне; нейрон с максимальным возбуждением представляет классификацию. Так как обучение проводится без указания целевого вектора, то нет возможности определять заранее, какой нейрон будет соответствовать данному классу входных векторов. Тем не менее это планирование легко проводится путем тестирования сети после обучения.

Алгоритм трактует набор из n входных весов нейрона как вектор в n-мерном пространстве. Перед обучением каждый компонент этого вектора весов инициализируется в случайную величину. Затем каждый вектор нормализуется в вектор с единичной длиной в пространстве весов. Это делается делением каждого случайного веса на квадратный корень из суммы квадратов компонент этого весового вектора.

Все входные вектора обучающего набора также нормализуются и сеть обучается согласно следующему алгоритму:

1. Вектор Х подается на вход сети.

2. Определяются расстояния Djn-мерном пространстве) между Х и весовыми векторами Wj каждого нейрона. В евклидовом пространстве это расстояние вычисляется по следующей формуле

,

где хi - компонента i входного вектора X,

wij - вес входа i нейрона j.

3. Нейрон, который имеет весовой вектор, самый близкий к X, объявляется победителем. Этот весовой вектор, называемый Wc, становится основным в группе весовых векторов, которые лежат в пределах расстояния D от Wc.

4. Группа весовых векторов настраивается в соответствии со следующим выражением:

Wj(t+l) = Wj(t) + [X - Wj(t)]

для всех весовых векторов в пределах расстояния D от Wc

5. Повторяются шаги с 1 по 4 для каждого входного вектора.

В процессе обучения нейронной сети значения D и постепенно уменьшаются. Автор [3] рекомендовал, чтобы коэффициент в начале обучения устанавливался приблизительно равным 1 и уменьшался в процессе обучения до 0, в то время как D может в начале обучения равняться максимальному расстоянию между весовыми векторами и в конце обучения стать настолько маленьким, что будет обучаться только один нейрон.

В соответствии с существующей точкой зрения, точность классификации будет улучшаться при дополнительном обучении. Согласно рекомендации Кохонена, для получения хорошей статистической точности количество обучающих циклов должно быть, по крайней мере, в 500 раз больше количества выходных нейронов.

Обучающий алгоритм настраивает весовые векторы в окрестности возбужденного нейрона таким образом, чтобы они были более похожими на входной вектор. Так как все векторы нормализуются в векторы с единичной длиной, они могут рассматриваться как точки на поверхности единичной гиперсферы. В процессе обучения группа соседних весовых точек перемещается ближе к точке входного вектора. Предполагается, что входные векторы фактически группируются в классы в соответствии с их положением в векторном пространстве. Определенный класс будет ассоциироваться с определенным нейроном, перемещая его весовой вектор в направлении центра класса и способствуя его возбуждению при появлении на входе любого вектора данного класса.

После обучения классификация выполняется посредством подачи на вход сети испытуемого вектора, вычисления возбуждения для каждого нейрона с последующим выбором нейрона с наивысшим возбуждением как индикатора правильной классификации.


Подобные документы

  • Базовые понятия искусственного нейрона: структура, активационные функции, классификация. Изучение преимуществ нейронных сетей, позволяющих эффективно строить нелинейные зависимости, более точно описывающие наборы данных, чем линейные методы статистики.

    реферат [88,7 K], добавлен 17.05.2010

  • Определение роли индексов потребительских цен в экономике. Нейронные сети и их применение в прогнозировании. Определение долгосрочной оценки паритета покупательной способности по странам, денежно-кредитной политики по установлению процентных ставок.

    презентация [108,3 K], добавлен 14.08.2013

  • Использование эконометрических моделей в оценке цены на недвижимость. Методы искусственных нейронных сетей и влияние экзогенных переменных. Анализ чувствительности, который позволяет оценить влияние входных переменных на рыночную цену недвижимости.

    практическая работа [1,0 M], добавлен 01.07.2011

  • Построение схемы сети. Расчет интенсивностей входных потоков для каждой СМО. Проверка стационарности сети. Модель сети на языке моделирования GPSS. Сравнение расчетных и экспериментальных данных по критерию Стьюдента. Проверка адекватности модели.

    контрольная работа [94,6 K], добавлен 28.07.2013

  • Характеристика развития You Tube каналов и партнерских сетей. Частные партнерские сети: преимущества, особенности функционирования. Построение рекомендаций для помощи принятия управленческого решения менеджерам партнерской сети. Монетизация You Tube.

    дипломная работа [374,6 K], добавлен 19.06.2017

  • Математический аппарат для моделирования динамических дискретных систем. Направление развития теории сетей Петри. Построение сети, в которой каждой позиции инцидентно не более одной ингибиторной дуги. Появление и устранение отказов оборудования.

    реферат [116,2 K], добавлен 21.01.2015

  • История возникновения и развития нейронной сети, ее значение и применение. Реализация приложения, позволяющего определить фигуры изображенные пользователем на панели приложения. Создание однослойной нейронной сети (персептрон) с возможностью её обучения.

    курсовая работа [860,1 K], добавлен 13.07.2012

  • Динамика распространения безналичных платежей с использованием банковских карт и региональные специфики рынка эквайринга в России. Построение эконометрических моделей для выявления факторов, влияющих на скорость и уровень распространения инноваций.

    дипломная работа [1,2 M], добавлен 17.10.2016

  • Изучение на практике современных методов управления и организации производства, совершенствование применения этих методов. Описание ориентированной сети, рассчет показателей сети для принятия управленческих решений. Проблема выбора и оценка поставщика.

    курсовая работа [137,6 K], добавлен 21.08.2010

  • Анализ возможности применения нейронных сетей в оценке вероятности наступления банкротства предприятия в современных условиях хозяйствования. Проблема рисков в экономике. Финансовые коэффициенты, применяемые в российских методиках оценки банкротства.

    курсовая работа [451,6 K], добавлен 14.08.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.