Обучение искусственных нейронных сетей

Определение алгоритмов (оптимизационных методов) обучения искусственных нейронных сетей. Характеристика их видов: метод случайного поиска и стохастического градиентного спуска. Оценка программной реализации адаптивного метода обучения нейронной сети.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 29.05.2017
Размер файла 19,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Алгоритм и программная реализация адаптивного метода обучения искусственных нейронных сетей

В. Б.Лила

Задача обучения искусственной нейронной сети (ИНС) может рассматриваться как задача оптимизации, при этом основная проблема заключается в выборе среди разнообразных оптимизационных методов наиболее подходящего[1,2,3,4,5].

В основном все оптимизационные алгоритмы можно разбить на три категории: обучение нейронный сеть программный

- методы случайного поиска;

- методы стохастического градиентного спуска;

- градиентные методы.

К группе градиентных методов относятся следующие методы:

- метод градиентного спуска;

- метод тяжелого шарика;

- методы сопряженных градиентов.

Выбор в пользу градиентных методов обоснован тем, что, как правило, в задачах обучения критерий обучения можно выразить в виде дифференцируемой функции от весов нейронной сети. Тем не менее, неопределенность выбора метода обучения сохраняется. В автоматизированных системах нейро-сетевого программирования следует стремиться к сокращению неопределенности, которая присуща этим технологиям. Неопределенность в выборе алгоритма обучения в некоторой степени устраняется в предлагаемом ниже адаптивном методе обучения.

Общий анализ градиентных методов обучения нейронных сетей позволяет утверждать, что любой из этих методов можно представить как частный случай предлагаемого алгоритма.

Общую формулу для изменения весов выразим формулой (1):

, (1)

где вектор задает направление движения, а - размер шага на k-ой итерации.

Формулу расчета вектора выразим следующим образом:

,(2)

где вектор задает направление движения; - направление антиградиента на j-ой итерации; - коэффициент, определяющий вес i-го градиента; m определяет кол-во запоминаемых градиентов; k - порядковый номер текущей итерации.

Градиентный метод обучения из формулы 2 получается при . А методы сопряженных градиентов[1], которые наиболее часто употребляются при обучении нейронных сетей, получаются путем суммирования всех предыдущих направлений (при ).

Таким образом, предлагаемый адаптивный алгоритм является более гибким решением при обучении нейронных сетей.

Общий алгоритм адаптивного метода:

1. Начало

2. Выбираем стартовую точку с некоторыми координатами (x0;y0;...).

3. Проверяем критерий остановки (число итераций, средняя квадратическая ошибка и др)

4. Вычисляем антиградиент в текущей точке (на первой итерации стартовая точка).

5. Заносим текущее направление в стек направлений.

6. Считаем вектор направления по формуле 2.

7. Перемещаемся по вычисленному вектору в новую точку.

8. Возвращаемся в шаг 2. Если критерий остановки положителен, то заканчиваем алгоритм, если нет - переходим к шагу 3.

9. Конец алгоритма. Имеем точку, близкую к минимуму функции.

Рассмотрим пример использования такого подхода при оптимизации функции Розенброка [2]:

(3)

Вычисление минимума функции Розенброка считается трудной проблемой для итерационных методов поиска минимума.

Для проведения экспериментов было разработано программное обеспечение на платформе Microsoft .NET на языке C#.

Проведены эксперименты, из одной стартовой точки с координатами (-1.5; 3.5), с изменением параметров: з, m, в.

Для градиентного спуска (m=0), при оптимальном з=0.005 значение целевой функции - 0.30103179 достигается на 121-ой итерации.

Для метода тяжелого шарика[1] , который также является частным случаем адаптивного метода, при m = 1, в=0.9 и з=0.005, значение целевой функции 0.12836612 достигается на 52-ой итерации.

Для адаптивного алгоритма с параметрами з=0.0004, m = 2, в = (0.9,0.081) значение целевой функции - 0.04807101 получено на 35-ой итерации.

Таким образом, для сложной функции Розенброка (3) адаптивный алгоритм оказался лучшим, по сравнению с классическими методами: градиентного спуска и тяжелого шарика.

Применение адаптивного алгоритма для обучения нейронных сетей требует настройки параметров: m, в и h . В связи с этим предлагается следующий адаптивный метод обучения ИНС, на основе адаптивного алгоритма.

Обозначим через ИНС 1 - основную нейронную сеть, которая будет обучаться на реальных данных - обучающей выборке 1 с помощью настроенного адаптивного алгоритма. Для настройки параметров алгоритма обучения используется ИНС 2, топологически вложенная в ИНС 1 и обучающая выборка 2, полученная путем случайного отбора некоторых примеров обучающей выборки 1. Для сокращения числа настраиваемых параметров воспользуемся представлением , где .

Контроллер, обучающий ИНС 2 в автоматическом режиме на примере обучающей выборки 2, подбирает оптимальные параметры для адаптивного алгоритма. Критерием при этом является минимум числа итераций необходимых для достижения минимума.

После чего оптимальные параметры обучения передаются в ИНС 1 для обучения на реальных данных.

Предложенный метод обучения сводит к минимуму вмешательство человека в обучение ИНС, что делает его привлекательным. Поскольку не каждый пользователь ИНС-технологий владеет знаниями в области методов оптимизации. Кроме этого метод является гибким и настраиваемым на обучающую выборку методом обучения.

Список использованной литературы

1. Тархов Д.А. Нейронные сети. Модели и алгоритмы. Кн.18. Справочное издание. (Серия 'Нейрокомпьютеры и их применение'): - М.: Радиотехника, 2005. - 256с.

2. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. - М.: Горячая линия - Телеком, 2002. - 382с.: ил.

3. Пучков Е.В., Лила В.Б. Применение градиентных методов оптимизации для обучения искусственных нейронных сетей на примере задачи прогнозирования временного ряда. - Нечеткие системы и мягкие вычисления: сб. ст. Третьей Всероссийской научной конференции: В 2.т. Т. I / Волгоград. гос. техн. ун-т; редкол.: А.В. Заболеева-Зотова (отв. ред.) [и др.]. - Волгоград, 2009. - 214с. с.109-116.

4. Хайкин С. Нейронные сети: полный курс, 2-е издание. : Пер. с англ. - М.: Издательский дом «Вильямс», 2006. - 1104 с.: ил. - Парал. тит. англ.

5. Бэстен Д.-Э., ванн ден Берг В.-М., Вуд Д. Нейронные сети и финансовые рынки: принятие решений в торговых операциях. - Москва: ТВП, 1997.-236с.

Размещено на Allbest.ru


Подобные документы

  • Понятие искусственного нейрона и искусственных нейронных сетей. Сущность процесса обучения нейронной сети и аппроксимации функции. Смысл алгоритма обучения с учителем. Построение и обучение нейронной сети для аппроксимации функции в среде Matlab.

    лабораторная работа [1,1 M], добавлен 05.10.2010

  • Обучение простейшей и многослойной искусственной нейронной сети. Метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Реализация в программном продукте NeuroPro 0.25. Использование алгоритма обратного распространения ошибки.

    курсовая работа [1019,5 K], добавлен 05.05.2015

  • Рост активности в области теории и технической реализации искусственных нейронных сетей. Основные архитектуры нейронных сетей, их общие и функциональные свойства и наиболее распространенные алгоритмы обучения. Решение проблемы мертвых нейронов.

    реферат [347,6 K], добавлен 17.12.2011

  • Искусственные нейронные сети как одна из широко известных и используемых моделей машинного обучения. Знакомство с особенностями разработки системы распознавания изображений на основе аппарата искусственных нейронных сетей. Анализ типов машинного обучения.

    дипломная работа [1,8 M], добавлен 08.02.2017

  • Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки.

    дипломная работа [814,6 K], добавлен 29.09.2014

  • Диагностический анализ изучения алгоритмов обучения нейронных сетей "с учителем". Сбор входных и выходных переменных для наблюдений и понятие пре/пост процессирования. Подготовка и обобщение многослойного персептрона, модель обратного распространения.

    курсовая работа [249,3 K], добавлен 22.06.2011

  • Понятие и свойства искусственных нейронных сетей, их функциональное сходство с человеческим мозгом, принцип их работы, области использования. Экспертная система и надежность нейронных сетей. Модель искусственного нейрона с активационной функцией.

    реферат [158,2 K], добавлен 16.03.2011

  • Особенности нейронных сетей как параллельных вычислительных структур, ассоциируемых с работой человеческого мозга. История искусственных нейронных сетей как универсального инструмента для решения широкого класса задач. Программное обеспечение их работы.

    презентация [582,1 K], добавлен 25.06.2013

  • Различные методы решения задачи классификации. Нейросетевые парадигмы, методы обучения нейронных сетей, возникающие при этом проблемы и пути их решения. Описание программной реализации классификатора, его функциональные возможности и результаты обучения.

    дипломная работа [1,0 M], добавлен 28.12.2015

  • Сущность и функции искусственных нейронных сетей (ИНС), их классификация. Структурные элементы искусственного нейрона. Различия между ИНС и машинами с архитектурой фон Неймана. Построение и обучение данных сетей, области и перспективы их применения.

    презентация [1,4 M], добавлен 14.10.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.