Линейная классификация объектов с использованием нормальных гиперплоскостей

Применение многослойных нейронных сетей для построения нелинейных классификаторов. Особенности использования геометрического подхода к распознаванию объектов. Возможности использования нормальных разделяющих гиперплоскостей на примере пары классов.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 30.05.2017
Размер файла 246,4 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Линейная классификация объектов с использованием нормальных гиперплоскостей

А.М. Крашенинников, Н.И. Гданский, М.Л. Рысин

В системах искусственного интеллекта одной из основных функций является распознавание, позволяющее соотнести исследуемый объект а к одному из ранее выделенных классов ,….

Применение многослойных нейронных сетей для построения нелинейных классификаторов требует выполнения большого объема вычислений либо не дают приемлемого решения. В частности, метод обратного распространения ошибки не всегда дает успешные результаты при обучении многослойных сетей из-за паралича сети или попадания в локальный минимум.

Геометрический подход к распознаванию основан на пространственном представлении совокупности признаков {xi}, характеризующих объекты в многомерном евклидовом пространстве U. Каждому объекту а соответствует своя точка . При данном способе интерпретации объектов в роли классификатора выступает одна или несколько гиперповерхностей в пространстве U, разделяющих множества точек в U, соответствующие заданным классам ,….

Рассмотрим использование нормальных разделяющих гиперплоскостей на примере пары классов.

Обозначим координаты центров тяжести классов , черези, радиусы их (расстояния от центра до максимально удаленной точки) - через R1, R2, Межцентровым назовем вектор, соединяющий центры и. По определению . Длину вектораобозначим 12 и назовем межцентровым расстоянием множеств ,.

Для упрощения построения разделяющих гиперповерхностей в пространстве U предложено использовать гиперплоскости, нормальные к вектору. Для краткости они названы нормальными. Уравнение нормальной плоскости имеет простой вид:

гиперплоскость нейронный сеть распознавание

(1)

Основной геометрический смысл нормальных гиперплоскостей в том, что при наличии линейной разделимости классов , ориентация соответствующей гиперплоскости-классификатора Г12 относительно осей пространства U близка к ориентации осей у нормальных гиперплоскостей .

Нормально разделимыми назовем такую пару классов ,, для которых существует нормальная разделяющая их гиперплоскость. Данный вид является частным случаем линейной разделимости.

Фактически, единственным управляемым параметром плоскости является ее свободный коэффициент . Обозначим через точку пересечения нормальной плоскости с межцентровым вектором, приложенным в точке. Связь и и следующая:.

Для определенности будем считать, что условием разделения для точек классов А1 и А2 является следующая пара неравенств:

, если ,

, если . (2)

Соответственно, два класса , будем называть нормально разделимыми, если для них существует разделяющая их нормальная гиперплоскость. Доказаны две теоремы, описывающие условия существования нормальной разделимости классов в многомерном пространстве признаков.

Теорема 1. Если для классов , имеющих радиусы , а также межцентровое расстояние , выполняется условие

(3)

то данные классы нормально разделимы и, в частности, классификатором будет являться нормальная гиперплоскость , у которой свободный коэффициент принимает следующее значение:

,

. (4)

Формула (4) задает положение точки на межцентровом векторе пропорционально радиусам разделяемых множеств.

Теорема 1 задает простейшее по форме достаточное, но не являющееся необходимым условие нормальной разделимости классов. Его преимуществом является то, что в нем не требуется дополнительно рассматривать отдельные точки классов А1 и А2. Для краткости вариант разделимости, при котором удовлетворяется условие (3), назовем шаровым.

Пример 1. Рассмотрим в двухмерном пространстве признаков {x1, x2} множества точек

и (рис.1).

Рис. 1 Множества точек в двухмерном пространстве признаков

Координаты центров тяжести, радиусы множеств, межцентровый вектор и межцентровое расстояние следующие:; ; ; ; ; Условие (3) выполняется: 1,80 + 1,80 < 5,09. Следовательно, шаровая разделимость существует. Координаты точки и свободный коэффициент разделяющей нормальной прямой:

, .

Уравнение разделяющей нормальной прямой :

.

Если форма множеств точек и значительно отличается от шаровой (они являются существенно вытянутыми вдоль одной или нескольких пространственных осей), то нормальная разделимость у классов А1,А2 может присутствовать и при значительном нарушении условия Теоремы 1. Изучение этого случая нормальной разделимости требует дополнительного исследования отдельных точек классов.

Для быстрой проверки возможного отсутствия нормальной разделимости классов предложено использовать набор простых условий.

Допустим, для классов с межцентровым вектором и межцентровым расстоянием построена нормальная плоскость, которая не является разделяющей. При этом нарушается либо только одно из условий разделимости (2) либо одновременно оба.

Обозначим через максимально удаленную от , в которой нарушается условие разделения (2) для точек , т.е. и модуль максимален. Если для данных точек нарушения нет (у всех), то принимаем в качестве такую точку, в которой модуль , минимален.

Аналогично через обозначим максимально удаленную от точку, в которой нарушается условие разделения (2) для точек Для нее и величина максимальна. Если для точек нарушения условия разделимости нет (у всех), то принимаем в качестветакую точку, в которой модуль минимален.

Для исследования более сложных случаев нормальной разделимости введем вспомогательные понятия.

Рассмотрим плоскость , проходящую через точку перпендикулярно вектору Уравнение для координат любой точки плоскости , можно задать в виде неявной зависимости вида:

Данную функцию можно также использовать для определения расстояния от произвольной точки до плоскости :

где - длина вектора.

Позицией точкииз класса А1 c центромС1 относительно плоскости назовем величину

. (5)

Смысл введенного понятия в том, что если точка и центрмножества А1 лежат по одну сторону от плоскости , то позиция положительна. Если они лежат по разные стороны, то величина позиции отрицательна. Так как нормальным вектором к нормальной плоскости для множества принимают , а для А2 - , то практические формулы для расчета позиций точек множеств А1 и А2 принимают следующий вид:

а) , ,

б) , .

Позицией множестваc центромотносительно плоскости назовем величину где .

При анализе нормальной разделимости множеств и в качестве нормального вектора плоскости примем межцентровый вектор и на нем же будем рассматривать начальные точки плоскости.

Критерий нормальной разделимости для классов , можно задать в следующей форме.

Теорема 2. Классы , с межцентровым вектором нормально разделимы тогда и только тогда, когда относительно какой-либо опорной нормальной плоскости для их позиций выполняется условие:

(6)

В частности, в качестве нормально разделяющей плоскости может быть принята плоскость, полученная сдвигом точки по вектору:

,

новой точкой и свободным параметром :

Доказательство теоремы не составляет большого труда. При доказательстве достаточности, в частности, несложно показать, что в тех случаях, когда опорная нормальная плоскость, не является разделяющей (а) , ; ; б) , ;, то соответствующую разделяющую плоскость можно получить, задавая ее точке пересечения с межцентровым вектором смещение, равное (в случае а)) и (в случае б)). В качестве опорной плоскости в Теореме 2 удобнее всего использовать нормальную плоскость, используемую в Теореме 1.

Пример 2. Рассмотрим в двухмерном пространстве признаков {x1, x2} множество точек

А1 ={(1,2);(2,1);(4,1);(5,2)} и А2 = {(2,3);(3,3);(4,4)} (рис.2).

Рис. 2 Множества точек в двухмерном пространстве признаков

Координаты центров тяжести, радиусы множеств, межцентровой вектор и межцентровое расстояние следующие:

; ; ; ; .

Условие (3) не выполняется: 2,06 + 1,20 > 1,83. Следовательно, шаровой разделимости не существует. Проверим выполнение условий Теоремы 2. Координаты точки Р0 и свободный коэффициент С0 опорной нормальной прямой:

.

Примем в качестве опорной прямой линию:

Позиции точек множества относительно опорной прямой равны: -0,20; 0,80; 0,80, -0,20. Позиция множества относительно опорной плоскости равна .

Позиции точек множества относительно опорной прямой равны: 1,20; 1,20; 2,20.Позиция множества относительно опорной плоскости равна

.

Условия Теоремы 2 выполняются: -0,20+1,20 = 1,00 > 0. Рассчитываем смещение по межцентровому вектору, новое положение точки и новое значение свободного параметра разделяющей прямой :

;

0;1,83)/1,83= (3; 2,43);

.

Уравнение нормальной разделяющей линии имеет вид:

.

После сокращения на 0,83 данное уравнение принимает вид:

.

Принцип линейной нормальной классификации объектов в многомерных пространствах признаков может быть использован для построения классификаторов для нелинейно разделимых множеств, более эффективных в плане сложности вычислений по сравнению с многослойными нейросетями.

Список литературы

1. Каллан Р. Основные концепции нейронных сетей = The Essence of Neural Networks First Edition. 1-е. // «Вильямс», 2001. С. 288.

2. Комарцова Л. Г., Максимов А. В. Нейрокомпьютеры. 1-е. // Изд-во МГТУ им. Н.Э. Баумана, 2002. С. 320.

3. Круглов В. В., Борисов В. В. Искусственные нейронные сети. Теория и практика.// Телеком, 2001. С. 382.

4. Патрик Э. Основы теории распознавания образов. // Сов. радио, 1980.

5. Ясницкий Л.Н. Введение в искусственный интеллект. 1-е. // Издательский центр «Академия», 2005. С. 176.

Размещено на Allbest.ru


Подобные документы

  • Исследование эффективности применения нейронных сетей в рамках отношений между людьми. Принцип работы с нейросимулятором. Составление обучающей выборки и проектирование персептронов. Анализ выбора супружеской пары с использованием нейросетевых технологий.

    презентация [150,8 K], добавлен 19.08.2013

  • Исследование задачи и перспектив использования нейронных сетей на радиально-базисных функциях для прогнозирования основных экономических показателей: валовый внутренний продукт, национальный доход Украины и индекс потребительских цен. Оценка результатов.

    курсовая работа [4,9 M], добавлен 14.12.2014

  • Алгоритмы кластеризации данных, отбора факторов, построения множественной линейной регрессии, оценки параметров процесса на скользящем постоянном интервале. Решение задач анализа данных на нейронных сетях и результаты моделирования нелинейных функций.

    контрольная работа [1,5 M], добавлен 11.01.2016

  • Понятие и свойства искусственных нейронных сетей, их функциональное сходство с человеческим мозгом, принцип их работы, области использования. Экспертная система и надежность нейронных сетей. Модель искусственного нейрона с активационной функцией.

    реферат [158,2 K], добавлен 16.03.2011

  • Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки.

    дипломная работа [814,6 K], добавлен 29.09.2014

  • Нейронные сети и оценка возможности их применения к распознаванию подвижных объектов. Обучение нейронной сети распознаванию вращающегося трехмерного объекта. Задача управления огнем самолета по самолету. Оценка экономической эффективности программы.

    дипломная работа [2,4 M], добавлен 07.02.2013

  • Методика сериализации объектов и её практическое применение. Клонирование объектов при помощи сериализации. Обработка действий мыши и клавиатуры. Изучение классов Menu, MenuBar, MenuItem, Dialog, FileDialog пакета java.awt, использование таблиц.

    лабораторная работа [180,8 K], добавлен 30.06.2009

  • Применение нейрокомпьютеров на российском финансовом рынке. Прогнозирование временных рядов на основе нейросетевых методов обработки. Определение курсов облигаций и акций предприятий. Применение нейронных сетей к задачам анализа биржевой деятельности.

    курсовая работа [527,2 K], добавлен 28.05.2009

  • Описание технологического процесса напуска бумаги. Конструкция бумагоделательной машины. Обоснование применения нейронных сетей в управлении формованием бумажного полотна. Математическая модель нейрона. Моделирование двух структур нейронных сетей.

    курсовая работа [1,5 M], добавлен 15.10.2012

  • Технологии решения задач с использованием нейронных сетей в пакетах расширения Neural Networks Toolbox и Simulink. Создание этого вида сети, анализ сценария формирования и степени достоверности результатов вычислений на тестовом массиве входных векторов.

    лабораторная работа [352,2 K], добавлен 20.05.2013

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.