Функциональные модели универсального нейрокомпьютера

Развитие информатики и средств вычислительной техники. Развитие систем искусственного интеллекта на базе алгоритмических языков. Искусственные нейронные сети. Нейрокибернетика. Элементарные детали вычислительных устройств. Анализ нейросетевых парадигм.

Рубрика Программирование, компьютеры и кибернетика
Вид диссертация
Язык русский
Дата добавления 12.10.2008
Размер файла 1,6 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

(2)

Показатель значимости (2) может вычисляться для различных объектов. Наиболее часто его вычисляют для обучаемых параметров сети. Однако показатель значимости вида (2) применим и для сигналов. Как уже отмечалось в главе «Описание нейронных сетей» сеть при обратном функционировании всегда вычисляет два вектора градиента - градиент функции оценки по обучаемым параметрам сети и по всем сигналам сети. Если показатель значимости вычисляется для выявления наименее значимого нейрона, то следует вычислять показатель значимости выходного сигнала нейрона. Аналогично, в задаче определения наименее значимого входного сигнала нужно вычислять значимость этого сигнала, а не сумму значимостей весов связей, на которые этот сигнал подается.

8.4.2. Усреднение по обучающему множеству

Показатель значимости параметра зависит от точки в пространстве параметров, в которой он вычислен и от примера из обучающего множества. Существует два принципиально разных подхода для получения показателя значимости параметра, не зависящего от примера. При первом подходе считается, что в обучающей выборке заключена полная информация о всех возможных примерах. В этом случае, под показателем значимости понимают величину, которая показывает насколько изменится значение функции оценки по обучающему множеству, если текущее значение параметра заменить на выделенное значение . Эта величина вычисляется по следующей формуле:

. (3)

В рамках другого подхода обучающее множество рассматривают как случайную выборку в пространстве входных параметров. В этом случае показателем значимости по всему обучающему множеству будет служить результат некоторого усреднения по обучающей выборке.

Существует множество способов усреднения. Рассмотрим два из них. Если в результате усреднения показатель значимости должен давать среднюю значимость, то такой показатель вычисляется по следующей формуле:

. (4)

Если в результате усреднения показатель значимости должен давать величину, которую не превосходят показатели значимости по отдельным примерам (значимость этого параметра по отдельному примеру не больше чем ), то такой показатель вычисляется по следующей формуле:

. (5)

Показатель значимости (5) хорошо зарекомендовал себя при использовании в работах группы НейроКомп.

8.4.3. Накопление показателей значимости

Все показатели значимости зависят от точки в пространстве параметров сети, в которой они вычислены, и могут сильно изменяться при переходе от одной точки к другой. Для показателей значимости, вычисленных с использованием градиента эта зависимость еще сильнее, поскольку при обучении по методу наискорейшего спуска (см. раздел «Метод наискорейшего спуска») в двух соседних точках пространства параметров, в которых вычислялся градиент, градиенты ортогональны. Для снятия зависимости от точки пространства используются показатели значимости, вычисленные в нескольких точках. Далее они усредняются по формулам аналогичным (4) и (5). Вопрос о выборе точек в пространстве параметров в которых вычислять показатели значимости обычно решается просто. В ходе нескольких шагов обучения по любому из градиентных методов при каждом вычислении градиента вычисляются и показатели значимости. Число шагов обучения, в ходе которых накапливаются показатели значимости, должно быть не слишком большим, поскольку при большом числе шагов обучения первые вычисленные показатели значимости теряют смысл, особенно при использовании усреднения по формуле (5).

8.5. Запросы к компоненту контрастер

Компонента контрастер одновременно работает только с одним контрастером. Запросы к компоненте контрастер можно разбить на следующие группы.

Контрастирование сети.

Чтение/запись контрастера.

Инициация редактора контрастера.

Работа с параметрами контрастера.

8.5.1. Контрастирование сети

К данной группе относятся три запроса - контрастировать сеть (ContrastNet), прервать контрастирование (CloseContrast) и контрастировать пример (ContrastExample).

8.5.1.1. Контрастировать сеть(ContrastNet)

Описание запроса:

Pascal:

Function ContrastNet: Logic;

C:

Logic ContrastNet()

Аргументов нет.

Назначение - производит контрастирование сети.

Описание исполнения.

Если Error <> 0, то выполнение запроса прекращается.

Если в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя компонента, управление передается обработчику ошибок, а обработка запроса прекращается.

Выполняется главная процедура загруженного контрастера.

Если во время выполнения запроса возникает ошибка, а значение переменной Error равно нулю, то генерируется внутренняя ошибка 705 - ошибка исполнения контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

Если во время выполнения запроса возникает ошибка, а значение переменной Error не равно нулю, то обработка запроса прекращается.

8.5.1.2. Прервать контрастирование (CloseContrast)

Описание запроса:

Pascal:

Function CloseContrast: Logic;

C:

Logic CloseContrast()

Аргументов нет.

Назначение - прерывает контрастирование сети.

Описание исполнения.

Если Error <> 0, то выполнение запроса прекращается.

Если в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя компонента, управление передается обработчику ошибок, а обработка запроса прекращается.

Если в момент получения запроса не выполняется запрос ContrastNet, то возникает ошибка 706 - неверное использование запроса на прерывание контрастирования, управление передается обработчику ошибок, а обработка запроса прекращается.

Завершается выполнение текущего шага контрастирования сети.

Если во время выполнения запроса возникает ошибка, а значение переменной Error равно нулю, то генерируется внутренняя ошибка 705 - ошибка исполнения контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

Если во время выполнения запроса возникает ошибка, а значение переменной Error не равно нулю, то обработка запроса прекращается.

8.5.1.3. Контрастировать пример (ContrastExample)

Описание запроса:

Pascal:

Function ContrastExample( TheEnd : Logic) : Logic;

C:

Logic ContrastExample(Logic TheEnd )

Описание аргумента:

TheEnd - значение аргумента имеет следующий смысл: ложь - обработан еще один пример обучающего множества при обучении по всему задачнику в целом.

Назначение - извлекает из сети необходимые для вычисления показателей значимости параметры.

Описание исполнения.

Если Error <> 0, то выполнение запроса прекращается.

Вызывает функцию, адрес которой хранится в переменной ContrastFunc, передавая ей аргумент TheEnd в качестве аргумента.

Если функция ContrastFunc возвращает значение ложь, а значение переменной Error равно нулю, то генерируется внутренняя ошибка 705 - ошибка исполнения контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

Если функция ContrastFunc возвращает значение ложь, а значение переменной Error не равно нулю, то обработка запроса прекращается.

Запрос в качестве результата возвращает возвращенное функцией ContrastFunc значение.

8.5.2. Чтение/запись контрастера

В данном разделе описаны запросы позволяющие, загрузить контрастер с диска или из памяти, выгрузить контрастера и сохранить текущего контрастера на диске или в памяти.

8.5.2.1. Прочитать контрастера (cnAdd)

Описание запроса:

Pascal:

Function cnAdd( CompName : PString ) : Logic;

C:

Logic cnAdd(PString CompName)

Описание аргумента:

CompName - указатель на строку символов, содержащую имя файла компонента или адрес описания компонента.

Назначение - читает контрастера с диска или из памяти.

Описание исполнения.

Если в качестве аргумента CompName дана строка, первые четыре символа которой составляют слово File, то остальная часть строки содержит имя компонента и после пробела имя файла, содержащего компонент. В противном случае считается, что аргумент CompName содержит указатель на область памяти, содержащую описание компонента в формате для записи на диск. Если описание не вмещается в одну область памяти, то допускается включение в текст описания компонента ключевого слова Continue, за которым следует четыре байта, содержащие адрес следующей области памяти.

Если в данный момент загружен другой контрастер, то выполняется запрос cnDelete. Контрастер считывается из файла или из памяти.

Если считывание завершается по ошибке, то возникает ошибка 702 - ошибка считывания контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

8.5.2.2. Удаление контрастера (cnDelete)

Описание запроса:

Pascal:

Function cnDelete : Logic;

C:

Logic cnDelete()

Аргументов нет.

Назначение - удаляет загруженного в память контрастера.

Описание исполнения.

Если список в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

8.5.2.3. Запись контрастера (cnWrite)

Описание запроса:

Pascal:

Function cnWrite(Var FileName : PString) : Logic;

C:

Logic cnWrite(PString* FileName)

Описание аргументов:

CompName - указатель на строку символов, содержащую имя контрастера.

FileName - имя файла или адрес памяти, куда надо записать контрастера.

Назначение - сохраняет контрастера в файле или в памяти.

Описание исполнения.

Если в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

Если в качестве аргумента FileName дана строка, первые четыре символа которой составляют слово File, то остальная часть строки содержит имя файла, для записи компонента. В противном случае FileName должен содержать пустой указатель. В этом случае запрос вернет в нем указатель на область памяти, куда будет помещено описание компонента в формате для записи на диск. Если описание не вмещается в одну область памяти, то в текст будет включено ключевое слово Continue, за которым следует четыре байта, содержащие адрес следующей области памяти.

Если во время сохранения компонента возникнет ошибка, то возникает ошибка 703 - ошибка сохранения контрастера, управление передается обработчику ошибок, а обработка запроса прекращается.

8.5.3. Инициация редактора контрастера

К этой группе запросов относится запрос, который инициирует работу не рассматриваемого в данной работе компонента - редактора контрастера.

8.5.3.1. Редактировать контрастера (cnEdit)

Описание запроса:

Pascal:

Procedure cnEdit(CompName : PString);

C:

void cnEdit(PString CompName)

Описание аргумента:

CompName - указатель на строку символов - имя файла или адрес памяти, содержащие описание контрастера.

Если в качестве аргумента CompName дана строка, первые четыре символа которой составляют слово File, то остальная часть строки содержит имя контрастера и после пробела имя файла, содержащего описание контрастера. В противном случае считается, что аргумент CompName содержит указатель на область памяти, содержащую описание контрастера в формате для записи на диск. Если описание не вмещается в одну область памяти, то допускается включение в текст описания ключевого слова Continue, за которым следует четыре байта, содержащие адрес следующей области памяти.

Если в качестве аргумента CompName передан пустой указатель или указатель на пустую строку, то редактор создает нового контрастера.

8.5.4. Работа с параметрами контрастера

В данном разделе описаны запросы, позволяющие изменять параметры контрастера.

8.5.4.1. Получить параметры (cnGetData)

Описание запроса:

Pascal:

Function cnGetData(Var Param : PRealArray ) : Logic;

C:

Logic cnGetData(PRealArray* Param)

Описание аргумента:

Param - адрес массива параметров.

Назначение - возвращает вектор параметров контрастера.

Описание исполнения.

Если Error <> 0, то выполнение запроса прекращается.

Если в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя компонента, управление передается обработчику ошибок, а обработка запроса прекращается.

В массив, адрес которого передан в аргументе Param, заносятся значения параметров. Параметры заносятся в массив в порядке описания в разделе описания статических переменных.

8.5.4.2. Получить имена параметров (cnGetName)

Описание запроса:

Pascal:

Function cnGetName(Var Param : PRealArray ) : Logic;

C:

Logic cnGetName(PRealArray* Param)

Описание аргумента:

Param - адрес массива указателей на названия параметров.

Назначение - возвращает вектор указателей на названия параметров контрастера.

Описание исполнения.

Если Error <> 0, то выполнение запроса прекращается.

Если в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя компонента, управление передается обработчику ошибок, а обработка запроса прекращается.

В массив, адрес которого передан в аргументе Param, заносятся адреса символьных строк, содержащих названия параметров.

8.5.4.3. Установить параметры (cnSetData)

Описание запроса:

Pascal:

Function cnSetData(Param : PRealArray ) : Logic;

C:

Logic cnSetData(PRealArray Param)

Описание аргументов:

Param - адрес массива параметров.

Назначение - заменяет значения параметров контрастера на значения, переданные, в аргументе Param.

Описание исполнения.

Если Error <> 0, то выполнение запроса прекращается.

Если в момент получения запроса контрастер не загружен, то возникает ошибка 701 - неверное имя компонента, управление передается обработчику ошибок, а обработка запроса прекращается.

Параметры, значения которых хранятся в массиве, адрес которого передан в аргументе Param, передаются контрастеру.

8.5.5. Обработка ошибок

В табл. 1 приведен полный список ошибок, которые могут возникать при выполнении запросов компонентом контрастер, и действия стандартного обработчика ошибок.

Таблица 1

Ошибки компонента контрастер и действия стандартного обработчика ошибок.

Название ошибки

Стандартная обработка

701

Несовместимость сети и контрастера

Занесение номера в Error

702

Ошибка считывания контрастера

Занесение номера в Error

703

Ошибка сохранения контрастера

Занесение номера в Error

704

Некорректная работа с памятью

Занесение номера в Error

705

Ошибка исполнения контрастера

Занесение номера в Error

706

Неверное использование запроса на прерывание контрастирования

Занесение номера в Error

9. Нейронные сети ассоциативной памяти, функционирующие в дискретном времени

В данной главе проиллюстрирована эффективность математического подхода к нейронным сетям (теоретическое поднаправление инженерного направления в нейроинформатике). Нейронные сети ассоциативной памяти - сети восстанавливающие по искаженному и/или зашумленному образу ближайший к нему эталонный. Исследована информационная емкость сетей и предложено несколько путей ее повышения, в том числе - ортогональные тензорные (многочастичные) сети. Описаны способы предобработки, позволяющие конструировать нейронные сети ассоциативной памяти для обработки образов, инвариантной относительно групп преобразований. Описан численный эксперимент по использованию нейронных сетей для декодирования различных кодов. Доказана теорема об информационной емкости тензорных сетей.

9.1. Описание задачи

Прежде чем заниматься конструированием сетей ассоциативной памяти необходимо ответить на следующие два вопроса: «Как устроена ассоциативная память?» и «Какие задачи она решает?». Когда мы задаем эти вопросы, имеется в виду не устройство отделов мозга, отвечающих за ассоциативную память, а наше представление о макропроцессах, происходящих при проявлении ассоциативной памяти.

Принято говорить, что у человека возникла ассоциация, если при получении некоторой неполной информации он может подробно описать объект, к которому по его мнению относится эта информация. Достаточно хорошим примером может служить описание малознакомого человека. К примеру, при высказывании: «Слушай, а что за парень, с которым ты вчера разговаривал на вечеринке, такой высокий блондин?»- у собеседника возникает образ вчерашнего собеседника, не ограничивающийся ростом и цветом волос. В ответ на заданный вопрос он может рассказать об этом человеке довольно много. При этом следует заметить, что содержащейся в вопросе информации явно недостаточно для точной идентификации собеседника. Более того, если вчерашний собеседник был случайным, то без дополнительной информации его и не вспомнят.

Подводя итог описанию можно сказать, что ассоциативная память позволяет по неполной и даже частично недостоверной информации восстановить достаточно полное описание знакомого объекта. Слово знакомого является очень важным, поскольку невозможно вызвать ассоциации с незнакомыми объектами. При этом объект должен быть знаком тому, у кого возникают ассоциации.

Одновременно рассмотренные примеры позволяют сформулировать решаемые ассоциативной памятью задачи:

Соотнести входную информацию со знакомыми объектами, и дополнить ее до точного описания объекта.

Отфильтровать из входной информации недостоверную, а на основании оставшейся решить первую задачу.

Очевидно, что под точным описанием объекта следует понимать всю информацию, которая доступна ассоциативной памяти. Вторая задача решается не поэтапно, а одновременно происходит соотнесение полученной информации с известными образцами и отсев недостоверной информации.

Нейронным сетям ассоциативной памяти посвящено множество работ (см. например, [75, 77, 82, 86, 114, 130, 131, 153, 231, 247, 296, 316, 329]). Сети Хопфилда являются основным объектом исследования в модельном направлении нейроинформатики.

9.2. Формальная постановка задачи

Пусть задан набор из эталонов - -мерных векторов . Требуется построить сеть, которая при предъявлении на вход произвольного образа - вектора - давала бы на выходе “наиболее похожий” эталон.

Всюду далее образы и, в том числе, эталоны - -мерные векторы с координатами . Примером понятия эталона «наиболее похожего» на x может служить ближайший к x вектор . Легко заметить, что это требование эквивалентно требованию максимальности скалярного произведения векторов и : . Первые два слагаемых в правой части совпадают для любых образов и , так как длины всех векторов-образов равны . Таким образом, задача поиска ближайшего образа сводится к поиску образа, скалярное произведение с которым максимально. Этот простой факт приводит к тому, что сравнивать придется линейные функции от образов, тогда как расстояние является квадратичной функцией.

9.3. Сети Хопфилда

Наиболее известной сетью ассоциативной памяти является сеть Хопфилда [316]. В основе сети Хопфилда лежит следующая идея - запишем систему дифференциальных уравнений для градиентной минимизации «энергии» H (функции Ляпунова). Точки равновесия такой системы находятся в точках минимума энергии. Функцию энергии будем строить из следующих соображений:

Каждый эталон должен быть точкой минимума.

В точке минимума все координаты образа должны иметь значения .

Функция

не удовлетворяет этим требованиям строго, но можно предполагать, что первое слагаемое обеспечит притяжение к эталонам (для вектора x фиксированной длины максимум квадрата скалярного произведения достигается при ), а второе слагаемое - приблизит к единице абсолютные величины всех координат точки минимума). Величина характеризует соотношение между этими двумя требованиями и может меняться со временем.

Используя выражение для энергии, можно записать систему уравнений, описывающих функционирование сети Хопфилда [316]:

. (1)

Сеть Хопфилда в виде (1) является сетью с непрерывным временем. Это, быть может, и удобно для некоторых вариантов аналоговой реализации, но для цифровых компьютеров лучше воспользоваться сетями, функционирующими в дискретном времени - шаг за шагом.

Построим сеть Хопфилда [316] с дискретным временем. Сеть должна осуществлять преобразование входного вектора так, чтобы выходной вектор был ближе к тому эталону, который является правильным ответом. Преобразование сети будем искать в следующем виде:

, (2)

где - вес -го эталона, характеризующий его близость к вектору , Sign - нелинейный оператор, переводящий вектор с координатами yi в вектор с координатами sign yi .

9.4. Функционирование сети.

Сеть работает следующим образом:

На вход сети подается образ , а на выходе снимается образ .

Если , то полагаем и возвращаемся к шагу 1.

Полученный вектор является ответом.

Таким образом, ответ всегда является неподвижной точкой преобразования сети (2) и именно это условие (неизменность при обработке образа сетью) и является условием остановки.

Пусть - номер эталона, ближайшего к образу . Тогда, если выбрать веса пропорционально близости эталонов к исходному образу , то следует ожидать, что образ будет ближе к эталону , чем , а после нескольких итераций он станет совпадать с эталоном .

Наиболее простой сетью вида (2) является дискретный вариант сети Хопфилда [316] с весами равными скалярному произведению эталонов на предъявляемый образ:

. (3)

О сетях Хопфилда (3) известно [53, 231, 247, 316], что они способны запомнить и точно воспроизвести «порядка слабо коррелированных образов». В этом высказывании содержится два ограничения:

число эталонов не превосходит .

эталоны слабо коррелированны.

Наиболее существенным является второе ограничение, поскольку образы, которые сеть должна обрабатывать, часто очень похожи. Примером могут служить буквы латинского алфавита. При обучении сети Хопфилда (3) распознаванию трех первых букв (см. рис. 1 а, б, в), при предъявлении на вход сети любого их эталонов в качестве ответа получается образ, приведенный на рис. 1 г (все образы брались в рамке 10 на 10 точек).

В связи с такими примерами первый вопрос о качестве работы сети ассоциативной памяти звучит тривиально: будет ли сеть правильно обрабатывать сами эталонные образы (т.е. не искажать их)?

Мерой коррелированности образов будем называть следующую величину:

Зависимость работы сети Хопфилда от степени коррелированности образов можно легко продемонстрировать на следующем примере. Пусть даны три эталона таких, что

(4)

Для любой координаты существует одна из четырех возможностей:

В первом случае при предъявлении сети -го эталона в силу формулы (3) получаем , так как все скалярные произведения положительны по условию (4). Аналогично получаем в четвертом случае .

Во втором случае рассмотрим отдельно три варианта

так как скалярный квадрат любого образа равен , а сумма двух любых скалярных произведений эталонов больше , по условию (4). Таким образом, независимо от предъявленного эталона получаем . Аналогично в третьем случае получаем .

Окончательный вывод таков: если эталоны удовлетворяют условиям (4), то при предъявлении любого эталона на выходе всегда будет один образ. Этот образ может быть эталоном или «химерой», составленной, чаще всего, из узнаваемых фрагментов различных эталонов (примером «химеры» может служить образ, приведенный на рис. 1 г). Рассмотренный ранее пример с буквами детально иллюстрирует такую ситуацию.

Приведенные выше соображения позволяют сформулировать требование, детализирующие понятие «слабо коррелированных образов». Для правильного распознавания всех эталонов достаточно (но не необходимо) потребовать, чтобы выполнялось следующее неравенство . Более простое и наглядное, хотя и более сильное условие можно записать в виде . Из этих условий видно, что, чем больше задано эталонов, тем более жесткие требования предъявляются к степени их коррелированности, тем ближе они должны быть к ортогональным.

Рассмотрим преобразование (3) как суперпозицию двух преобразований:

(5)

Обозначим через - линейное пространство, натянутое на множество эталонов. Тогда первое преобразование в (5) переводит векторы из в . Второе преобразование в (5) переводит результат первого преобразования в одну из вершин гиперкуба образов. Легко показать, что второе преобразование в (5) переводит точку в ближайшую вершину гиперкуба. Действительно, пусть и две различные вершины гиперкуба такие, что - ближайшая к , а . Из того, что и различны следует, что существует множество индексов, в которых координаты векторов и различны. Обозначим это множество через . Из второго преобразования в (5) и того, что , следует, что знаки координат вектора всегда совпадают со знаками соответствующих координат вектора . Учитывая различие знаков i-х координат векторов и при можно записать . Совпадение знаков i-х координат векторов и при позволяет записать следующее неравенство . Сравним расстояния от вершин и до точки

Полученное неравенство противоречит тому, что - ближайшая к . Таким образом, доказано, что второе преобразование в (5) переводит точку в ближайшую вершину гиперкуба образов.

9.5. Ортогональные сети

Для обеспечения правильного воспроизведения эталонов вне зависимости от степени их коррелированности достаточно потребовать, чтобы первое преобразование в (5) было таким, что [67]. Очевидно, что если проектор является ортогональным, то это требование выполняется, поскольку при , а по определению множества .

Для обеспечения ортогональности проектора воспользуемся дуальным множеством векторов. Множество векторов называется дуальным к множеству векторов , если все векторы этого множества удовлетворяют следующим требованиям:

.

Преобразование является ортогональным проектором на линейное пространство .

Ортогональная сеть ассоциативной памяти преобразует образы по формуле

. (6)

Дуальное множество векторов существует тогда и только тогда, когда множество векторов линейно независимо. Если множество эталонов линейно зависимо, то исключим из него линейно зависимые образы и будем рассматривать полученное усеченное множество эталонов как основу для построения дуального множества и преобразования (6). Образы, исключенные из исходного множества эталонов, будут по-прежнему сохраняться сетью в исходном виде (преобразовываться в самих себя). Действительно, пусть эталон является линейно зависимым от остальных эталонов. Тогда его можно представить в виде . Подставив полученное выражение в преобразование (6) и учитывая свойства дуального множества получим:

(7)

Рассмотрим свойства сети (6) [65]. Во-первых, количество запоминаемых и точно воспроизводимых эталонов не зависит от степени их коррелированности. Во-вторых, формально сеть способна работать без искажений при любом возможном числе эталонов (всего их может быть до ). Однако, если число линейно независимых эталонов (т.е. ранг множества эталонов) равно , сеть становится прозрачной - какой бы образ не предъявили на ее вход, на выходе окажется тот же образ. Действительно, как было показано в (7), все образы, линейно зависимые от эталонов, преобразуются проективной частью преобразования (6) сами в себя. Значит, если в множестве эталонов есть линейно независимых, то любой образ можно представить в виде линейной комбинации эталонов (точнее линейно независимых эталонов), а проективная часть преобразования (6) в силу формулы (7) переводит любую линейную комбинацию эталонов в саму себя.

Если число линейно независимых эталонов меньше n, то сеть преобразует поступающий образ, отфильтровывая помехи, ортогональные всем эталонам.

Отметим, что результаты работы сетей (3) и (6) эквивалентны, если все эталоны попарно ортогональны.

Остановимся несколько подробнее на алгоритме вычисления дуального множества векторов. Обозначим через матрицу Грама множества векторов . Элементы матрицы Грама имеют вид (-ый элемент матрицы Грама равен скалярному произведению -го эталона на -ый). Известно, что векторы дуального множества можно записать в следующем виде:

, (8)

где - элемент матрицы . Поскольку определитель матрицы Грама равен нулю, если множество векторов линейно зависимо, то матрица, обратная к матрице Грама, а следовательно и дуальное множество векторов существует только тогда, когда множество эталонов линейно независимо.

Для работ сети (6) необходимо хранить эталоны и матрицу .

Рассмотрим процедуру добавления нового эталона к сети (6). Эта операция часто называется дообучением сети. Важным критерием оценки алгоритма формирования сети является соотношение вычислительных затрат на обучение и дообучение. Затраты на дообучение не должны зависеть от числа освоенных ранее эталонов.

Для сетей Хопфилда это, очевидно, выполняется - добавление еще одного эталона сводится к прибавлению к функции H одного слагаемого , а модификация связей в сети - состоит в прибавлении к весу ij-й связи числа - всего операций.

Для рассматриваемых сетей с ортогональным проектированием также возможно простое дообучение. На первый взгляд, это может показаться странным - если добавляемый эталон линейно независим от старых эталонов, то вообще говоря необходимо пересчитать матрицу Грама и обратить ее. Однако симметричность матрицы Грама позволяет не производить заново процедуру обращения всей матрицы. Действительно, обозначим через - матрицу Грама для множества из векторов ; через - единичную матрицу размерности . При обращении матриц методом Гаусса используется следующая процедура:

Запишем матрицу размерности следующего вида: .

Используя операции сложения строк и умножения строки на ненулевое число преобразуем левую квадратную подматрицу к единичной. В результате получим .

Пусть известна - обратная к матрице Грама для множества из m векторов . Добавим к этому множеству вектор . Тогда матрица для обращения матрицы методом Гауса будет иметь вид:

.

После приведения к единичной матрице главного минора ранга m получится следующая матрица:

,

где - неизвестные величины, полученные в ходе приведения главного минора к единичной матрице. Для завершения обращения матрицы необходимо привести к нулевому виду первые m элементов последней строки и -о столбца. Для обращения в ноль i-о элемента последней строки необходимо умножить i-ю строку на и вычесть из последней строки. После проведения этого преобразования получим

,

где , . только если новый эталон является линейной комбинацией первых m эталонов. Следовательно . Для завершения обращения необходимо разделить последнюю строку на и затем вычесть из всех предыдущих строк последнюю, умноженную на соответствующее номеру строки . В результате получим следующую матрицу

,

где . Поскольку матрица, обратная к симметричной, всегда симметрична получаем при всех i. Так как следовательно .

Обозначим через вектор , через - вектор . Используя эти обозначения можно записать . Матрица записывается в виде

.

Таким образом, при добавлении нового эталона требуется произвести следующие операции:

Вычислить вектор ( скалярных произведений - операций, ).

Вычислить вектор (умножение вектора на матрицу - операций).

Вычислить (два скалярных произведения - операций).

Умножить матрицу на число и добавить тензорное произведение вектора на себя ( операций).

Записать .

Таким образом эта процедура требует операций. Тогда как стандартная схема полного пересчета потребует:

Вычислить всю матрицу Грама ( операций).

Методом Гаусса привести левую квадратную матрицу к единичному виду ( операций).

Записать .

Всего операций, что в раз больше.

Используя ортогональную сеть (6), удалось добиться независимости способности сети к запоминанию и точному воспроизведению эталонов от степени коррелированности эталонов. Так, например, ортогональная сеть смогла правильно воспроизвести все буквы латинского алфавита в написании, приведенном на рис. 1.

Основным ограничением сети (6) является малое число эталонов - число линейно независимых эталонов должно быть меньше размерности системы .

9.6. Тензорные сети

Для увеличения числа линейно независимых эталонов, не приводящих к прозрачности сети, используется прием перехода к тензорным или многочастичным сетям [75, 86, 93, 294].

В тензорных сетях используются тензорные степени векторов. -ой тензорной степенью вектора будем называть тензор , полученный как тензорное произведение векторов . Поскольку в данной работе тензоры используются только как элементы векторного пространства, далее будем использовать термин вектор вместо тензор. Вектор является -мерным вектором. Однако пространство имеет размерность, не превышающую величину , где - число сочетаний из по . Обозначим через множество -х тензорных степеней всех возможных образов.

Теорема. При в множестве линейно независимыми являются векторов. Доказательство теоремы приведено в последнем разделе данной главы.

2

3

4

4

7

8

5

11

15

16

6

16

26

31

32

7

22

42

57

63

64

8

29

64

99

120

127

128

9

37

93

163

219

247

255

256

10

46

130

256

382

466

502

511

512

Рис. 2. “Тензорный” треугольник Паскаля

Небольшая модернизация треугольника Паскаля, позволяет легко вычислять эту величину. На рис. 2 приведен «тензорный» треугольник Паскаля. При его построении использованы следующие правила:

1. Первая строка содержит двойку, поскольку при n=2 в множестве X всего два неколлинеарных вектора.

Таблица 1.

n

k

5

2

25

15

11

3

125

35

15

10

3

1 000

220

130

6

1 000 000

5005

466

8

100 000 000

24310

511

2. При переходе к новой строке, первый элемент получается добавлением единицы к первому элементу предыдущей строки, второй - как сумма первого и второго элементов предыдущей строки, третий - как сумма второго и третьего элементов и т.д. Последний элемент получается удвоением последнего элемента предыдущей строки.

В табл. 1 приведено сравнение трех оценок информационной емкости тензорных сетей для некоторых значений n и k. Первая оценка - - заведомо завышена, вторая - - дается формулой Эйлера для размерности пространства симметричных тензоров и третья - точное значение

Как легко видеть из таблицы, уточнение при переходе к оценке является весьма существенным. С другой стороны, предельная информационная емкость тензорной сети (число правильно воспроизводимых образов) может существенно превышать число нейронов, например, для 10 нейронов тензорная сеть валентности 8 имеет предельную информационную емкость 511.

Легко показать, что если множество векторов не содержит противоположно направленных, то размерность пространства равна числу векторов в множестве

. Сеть (2) для случая тензорных сетей имеет вид

, (9)

а ортогональная тензорная сеть

, (10)

где - элемент матрицы .

Рассмотрим как изменяется степень коррелированности эталонов при переходе к тензорным сетям (9)

.

Таким образом при использовании сетей (9) сильно снижается ограничение на степень коррелированности эталонов. Для эталонов, приведенных на рис.1, данные о степени коррелированности эталонов для нескольких тензорных степеней приведены в табл. 2.

Таблица 2

Степени коррелированности эталонов, приведенных на рис. 1, для различных тензорных степеней.

Тензорная степень

Степень коррелированности

Условия

1

0.74

0.72

0.86

1.46

1.60

1.58

2

0.55

0.52

0.74

1.07

1.29

1.26

3

0.41

0.37

0.64

0.78

1.05

1.01

4

0.30

0.26

0.55

0.56

0.85

0.81

5

0.22

0.19

0.47

0.41

0.69

0.66

6

0.16

0.14

0.40

0.30

0.56

0.54

7

0.12

0.10

0.35

0.22

0.47

0.45

8

0.09

0.07

0.30

0.16

0.39

0.37

Анализ данных, приведенных в табл. 2, показывает, что при тензорных степенях 1, 2 и 3 степень коррелированности эталонов не удовлетворяет первому из достаточных условий (), а при степенях меньше 8 - вторму ().

Таким образом, чем выше тензорная степень сети (9), тем слабее становится ограничение на степень коррелированности эталонов. Сеть (10) не чувствительна к степени коррелированности эталонов.

9.7. Сети для инвариантной обработки изображений

Для того, чтобы при обработке переводить визуальные образов, отличающиеся только положением в рамке изображения, в один эталон, применяется следующий прием [93]. Преобразуем исходное изображение в некоторый вектор величин, не изменяющихся при сдвиге (вектор инвариантов). Простейший набор инвариантов дают автокорреляторы - скалярные произведения образа на сдвинутый образ, рассматриваемые как функции вектора сдвига.

В качестве примера рассмотрим вычисление сдвигового автокоррелятора для черно-белых изображений. Пусть дан двумерный образ размером . Обозначим точки образа как . Элементами автокоррелятора будут величины , где при выполнении любого из неравенств . Легко проверить, что автокорреляторы любых двух образов, отличающихся только расположением в рамке, совпадают. Отметим, что при всех , и при выполнении любого из неравенств . Таким образом, можно считать, что размер автокоррелятора равен .

Автокорреляторная сеть имеет вид

. (11)

Сеть (11) позволяет обрабатывать различные визуальные образы, отличающиеся только положением в рамке, как один образ.

Подводя итоги, можно сказать, что все сети ассоциативной памяти типа (2) можно получить, комбинируя следующие преобразования:

Произвольное преобразование. Например, переход к автокорреляторам, позволяющий объединять в один выходной образ все образы, отличающиеся только положением в рамке.

Тензорное преобразование, позволяющее сильно увеличить способность сети запоминать и точно воспроизводить эталоны.

Переход к ортогональному проектору, снимающий зависимость надежности работы сети от степени коррелированности образов.

Наиболее сложная сеть будет иметь вид:

, (12)

где - элементы матрицы, обратной матрице Грама системы векторов , - произвольное преобразование.

Возможно применение и других методов предобработки. Некоторые из них рассмотрены в работах [68, 93, 278]

9.8. Численный эксперимент

Работа ортогональных тензорных сетей при наличии помех сравнивалась с возможностями линейных кодов, исправляющих ошибки. Линейным кодом, исправляющим k ошибок, называется линейное подпространство в n-мерном пространстве над GF2, все вектора которого удалены друг от друга не менее чем на 2k+1. Линейный код называется совершенным, если для любого вектора n-мерного пространства существует кодовый вектор, удаленный от данного не более, чем на k. Тензорной сети в качестве эталонов подавались все кодовые векторы избранного для сравнения кода. Численные эксперименты с совершенными кодами показали, что тензорная сеть минимально необходимой валентности правильно декодирует все векторы. Для несовершенных кодов картина оказалась хуже - среди устойчивых образов тензорной сети появились «химеры» - векторы, не принадлежащие множеству эталонов.

Таблица 3

Результаты численного эксперимента.

МР - минимальное расстояние между эталонами, ЧЭ - число эталонов

Раз-

мер- ность

Число векто-

ров

МР

ЧЭ

Валент-ность

Число химер

Число

ответов

После обработки сетью расстояние до правильного ответа стало

верн.

неверн.

меньше

то же

больше

1

10

1024

3

64

35

896

128

896

0

856

0

2

721

384

640

384

0

348

0

3

10

1024

5

8

3

260

464

560

240

260

60

4

515

230

494

530

240

230

60

5

1721

140

532

492

240

182

70

6

15

32768

7

32

3

15456

17312

15456

0

15465

0

7

521

14336

18432

14336

0

14336

0

Таблица 4.

Результаты численного эксперимента

Число химер, удаленных

от ближайшего эталона на:

Число неверно распознанных векторов, удаленных от ближайшего эталона на:

1

2

3

4

5

1

2

3

4

5

1

640

256

0

0

0

896

0

0

0

0

2

384

0

0

0

0

384

0

0

0

0

3

0

210

50

0

0

0

210

290

60

0

4

0

180

50

0

0

0

180

290

60

0

5

0

88

50

2

0

0

156

290

60

0

6

0

0

1120

13440

896

0

0

1120

13440

896

7

0

0

0

13440

896

0

0

0

13440

896

В случае n=10, k=1 (см. табл. 3 и 4, строка 1) при валентностях 3 и 5 тензорная сеть работала как единичный оператор - все входные вектора передавались на выход сети без изменений. Однако уже при валентности 7 число химер резко сократилось и сеть правильно декодировала более 60% сигналов. При этом были правильно декодированы все векторы, удаленные от ближайшего эталона на расстояние 2, а часть векторов, удаленных от ближайшего эталона на расстояние 1, остались химерами. В случае n=10, k=2 (см. табл. 3 и 4, строки 3, 4, 5) наблюдалось уменьшение числа химер с ростом валентности, однако часть химер, удаленных от ближайшего эталона на расстояние 2 сохранялась. Сеть правильно декодировала более 50% сигналов. Таким образом при малых размерностях и кодах, далеких от совершенных, тензорная сеть работает довольно плохо. Однако, уже при n=15, k=3 и валентности, большей 3 (см. табл. 3 и 4, строки 6, 7), сеть правильно декодировала все сигналы с тремя ошибками. В большинстве экспериментов число эталонов было больше числа нейронов.

Подводя итог можно сказать, что качество работы сети возрастает с ростом размерности пространства и валентности и по эффективности устранения ошибок сеть приближается к коду, гарантированно исправляющему ошибки.

9.9. Доказательство теоремы

В данном разделе приведено доказательство теоремы о числе линейно независимых образов в пространстве k-х тензорных степеней эталонов.

При построении тензорных сетей используются тензоры валентности k следующего вида:

, (13)

где - n-мерные вектора над полем действительных чисел.

Если все вектора , то будем говорить о k-й тензорной степени вектора a, и использовать обозначение . Для дальнейшего важны следующие элементарные свойства тензоров вида (13).

1. Пусть и , тогда скалярное произведение этих векторов может быть вычислено по формуле

. (14)

Доказательство этого свойства следует непосредственно из свойств тензоров общего вида.

2. Если в условиях свойства 1 вектора являются тензорными степенями, то скалярное произведение имеет вид:

. (15)

Доказательство непосредственно вытекает из свойства 1.

3. Если вектора a и b ортогональны, то есть то и их тензорные степени любой положительной валентности ортогональны.

Доказательство вытекает из свойства 2.

4. Если вектора a и b коллинеарны, то есть , то .

Следствие. Если множество векторов содержит хотя бы одну пару противоположно направленных векторов, то система векторов будет линейно зависимой при любой валентности k.

5. Применение к множеству векторов невырожденного линейного преобразования в пространстве эквивалентно применению к множеству векторов линейного невырожденного преобразования, индуцированного преобразованием , в пространстве .

Сюръективным мультииндексом над конечным множеством L назовем k-мерный вектор, обладающий следующими свойствами:

1. для любого существует такое, что ;

2. для любого существует такое, что .

Обозначим через число компонент сюръективного мультииндекса равных i, через - число элементов множества L, а через - множество всех сюръективных мультииндексов над множеством L.

Предложение 1. Если вектор a представлен в виде где - произвольные действительные коэффициенты, то верно следующее равенство

(16)

Доказательство предложения получается возведением в тензорную степень k и раскрытием скобок с учетом линейности операции тензорного умножения.

В множестве , выберем множество X следующим образом: возьмем все (n-1)-мерные вектора с координатами 1, а в качестве n-й координаты во всех векторах возьмем единицу.

Предложение 2. Множество X является максимальным множеством n-мерных векторов с координатами равными 1 и не содержит пар противоположно направленных векторов.

Доказательство. Из равенства единице последней координаты всех векторов множества X следует отсутствие пар противоположно направленных векторов. Пусть x - вектор с координатами 1, не входящий в множество X, следовательно последняя координата вектора x равна минус единице. Так как в множество X включались все (n-1)-мерные вектора с координатами 1, то среди них найдется вектор, первые n-1 координата которого равны соответствующим координатам вектора x со знаком минус. Поскольку последние координаты также имеют противоположные знаки, то в множестве X нашелся вектор противоположно направленный по отношению к вектору x. Таким образом множество X максимально.

Таким образом в множестве X содержится ровно вектор. Каждый вектор можно представить в виде , где . Для нумерации векторов множества X будем использовать мультииндекс I. Обозначим через число элементов в мультииндексе I. Используя введенные обозначения можно разбить множество X на n непересекающихся подмножеств: , .

Теорема. При в множестве линейно независимыми являются векторов.

Для доказательства этой теоремы потребуется следующая интуитивно очевидная, но не встреченная в литературе лемма.

Лемма. Пусть дана последовательность векторов

таких, что при всех и при всех i, тогда все вектора множества линейно независимы.

Доказательство. Известно, что процедура ортогонализации Грама приводит к построению ортонормированного множества векторов, а все вектора линейно зависящие от предыдущих векторов последовательности обращаются в нулевые. Проведем процедуру ортогонализации для заданной последовательности векторов.

1.

2. . Причем , так как , и .

...

j. . Причем , так как , при всех , и .

...

Доказательство теоремы. Произведем линейное преобразование векторов множества X с матрицей . Легко заметить, что при этом преобразовании все единичные координаты переходят в единичные, а координаты со значением -1 в нулевые. Таким образом . По пятому свойству заключаем, что число линейно независимых векторов в множествах X и Y совпадает. Пусть . Докажем, что при содержит компоненту, ортогональную всем . Из предложения 1 имеем

. (17)

Представим (17) в виде двух слагаемых:

(18)

Обозначим первую сумму в (18) через . Докажем, что ортогонален ко всем , и второй сумме в (18). Так как , существует . Из свойств сюръективного мультииндекса следует, что все слагаемые, входящие в содержат в качестве тензорного сомножителя , не входящий ни в одно тензорное произведение, составляющие в сумме . Из свойства 2 получаем, что . Аналогично, из того, что в каждом слагаемом второй суммы следует ортогональность каждому слагаемому второй суммы в (18) и, следовательно, всей сумме.

Таким образом содержит компоненту ортогональную ко всем и . Множество тензоров удовлетворяет условиям леммы, и следовательно все тензоры в линейно независимы. Таким образом, число линейно независимых тензоров в множестве не меньше чем .

Для того, чтобы показать, что число линейно независимых тензоров в множестве не превосходит этой величины достаточно показать, что добавление любого тензора из Y к приводит к появлению линейной зависимости. Покажем, что любой при может быть представлен в виде линейной комбинации тензоров из . Ранее было показано, что любой тензор может быть представлен в виде (17). Разобьем (17) на три суммы:

(19)

Рассмотрим первое слагаемое в (19) отдельно.

.

Заменим в последнем равенстве внутреннюю сумму в первом слагаемом на тензоры из:

. (20)

Преобразуем второе слагаемое в (19).

(21)

Преобразуя аналогично (21) второе слагаемое в (20) и подставив результаты преобразований в (19) получим

(22)

В (22) все не замененные на тензоры из слагаемые содержат суммы по подмножествам множеств мощностью меньше k. Проводя аналогичную замену получим выражение, содержащее суммы по подмножествам множеств мощностью меньше k-1 и так далее. После завершения процедуры в выражении останутся только суммы содержащие вектора из , то есть будет представлен в виде линейной комбинации векторов из . Теорема доказана.

10. Заключение

В работе получены следующие основные результаты:

Разработана функциональная модель идеального нейрокомпьютера. Определены принципы выделения функциональных компонентов. Произведена декомпозиция нейрокомпьютера на функциональные компоненты в соответствии с предложенными принципами.

Разработан принцип построения нового типа оценок, названный эффективной функцией оценки. Эффективность предложенного типа оценок состоит в том, что их использование позволяет ускорить обучение нейронной сети, оценить уровень уверенности нейронной сети в полученном ответе, обучить с малой надежностью сеть решению тех задач, которые сеть данной архитектуры не может решить с высокой надежностью, учесть при обучении различие в достоверности ответов в разных примерах.

Разработан метод получения явных знаний из данных с помощью логически прозрачных нейронных сетей, получаемых из произвольных обученных сетей специальной процедурой контрастирования. Этот метод позволяет получить явные зависимости выходных сигналов нейронной сети от входных. При решении задач классификации в большинстве случаев удается получить логический вывод.

Разработан метод построения минимально необходимых наборов входных данных и построения на их основе наборов входных данных повышенной надежности (устойчивости к искажениям во входных данных). Доказаны теоремы, устанавливающие соотношения между такими наборами, построенными различными способами.

Развит метод описания процедуры конструирования нейронных сетей из простейших элементов и более простых сетей. Разработан язык описания результатов конструирования.

Получены оценки способности сети ассоциативной памяти к точному воспроизведению эталонов. В работе рассмотрена сеть Хопфилда, функционирующая в дискретном времени. Разработаны методы, позволяющие повысить ее информационную емкость. С помощью этих методов построены три сети ассоциативной памяти, имеющие большую информационную емкость и менее зависящие от степени коррелированности эталонов. Предложен метод конструирования сетей ассоциативной памяти со свойствами, необходимыми для решения конкретной задачи. Доказана теорема об информационной емкости ортогональной тензорной сети.

Большинство полученных результатов были реализованы в ряде программных продуктов, разработанных под руководством или при участии автора.

11. Приложение 1. Логически прозрачная сеть для прогнозирования шизофрении

Задача прогнозирования шизофрении является актуальной задачей. Возможность предсказать возникновение шизофрении позволяет организовать наблюдение врача за потенциальным больным и начать лечение на ранней стадии заболевания.

Обучающая выборка по прогнозированию шизофрении содержала 219 записей о пациентах. Входные данные - ответы на 185 вопросов. Каждый вопрос подразумевает ответ «Да» или «Нет». Каждому пациенту был сопоставлен диагноз - «здоров», «доброкачественная шизофрения» или «патологическая шизофрения».

В результате обучения серии нейронных сетей удалось установить, что линейное разделение всех трех групп больных возможно по 40 входным параметрам. Разделение трех групп больных с помощью нелинейных нейронных сетей возможно при использовании 18 признаков. Однако наиболее простое (в смысле интерпретации) решение было получено при использовании 67 признаков. Для набора из 67 признаков решение было получено в виде правил логического вывода. Приведем список признаков, используемых при решении задачи. Нумерация приведена в соответствии с нумерацией в исходной таблицей данных.

1 Прадед по материнской линии - русский.

3 Прадед по материнской линии - выходец из крестьян.

4 Прабабка по материнской линии - вышла из крестьян.

5 Прадед по материнской линии - выходец из рабочих.

8 Прабабка по материнской линии - вышла из интеллигенции.


Подобные документы

  • Определение перспектив, направлений и тенденций развития вычислительных систем как совокупности техники и программных средств обработки информации. Развитие специализации вычислительных систем и проблема сфер применения. Тенденции развития информатики.

    реферат [19,5 K], добавлен 17.03.2011

  • Нейрокибернетика как направление изучения "искусственного интеллекта". Программный, аппаратный и гибридный подход к созданию нейросетей. Развитие института нейрокибернетики в России. Направления внедрение нейрокибернетики и интеллектуальных систем.

    контрольная работа [31,4 K], добавлен 26.02.2012

  • Историческое развитие средств вычислений. Структурные схемы вычислительных систем. Развитие элементной базы и развитие архитектуры самих систем. Основные классы вычислительных машин. Каналы передачи данных. Требования к составу периферийных устройств.

    реферат [48,7 K], добавлен 09.01.2011

  • Искусственные нейронные сети, строящиеся по принципам организации и функционирования их биологических аналогов. Элементарный преобразователь в сетях. Экспериментальный автопилотируемый гиперзвуковой самолет-разведчик LoFLYTE, использующий нейронные сети.

    презентация [1,3 M], добавлен 23.09.2015

  • Примеры счетно-решающих устройств до появления ЭВМ. Суммирующая машина Паскаля. Счетная машина Готфрида Лейбница. "Аналитическая машина" Чарльза Бэббиджа, развитие вычислительной техники после ее создания. Поколения электронно-вычислительных машин.

    презентация [1,2 M], добавлен 10.02.2015

  • Характеристика моделей обучения. Общие сведения о нейроне. Искусственные нейронные сети, персептрон. Проблема XOR и пути ее решения. Нейронные сети обратного распространения. Подготовка входных и выходных данных. Нейронные сети Хопфилда и Хэмминга.

    контрольная работа [1,4 M], добавлен 28.01.2011

  • Понятие искусственного интеллекта как свойства автоматических систем брать на себя отдельные функции интеллекта человека. Экспертные системы в области медицины. Различные подходы к построению систем искусственного интеллекта. Создание нейронных сетей.

    презентация [3,0 M], добавлен 28.05.2015

  • Основы нейрокомпьютерных систем. Искусственные нейронные сети, их применение в системах управления. Алгоритм обратного распространения. Нейронные сети Хопфилда, Хэмминга. Современные направления развития нейрокомпьютерных технологий в России и за рубежом.

    дипломная работа [962,4 K], добавлен 23.06.2012

  • Преимущества нейронных сетей. Модели нейронов, представляющих собой единицу обработки информации в нейронной сети. Ее представление с помощью направленных графов. Понятие обратной связи (feedback). Основная задача и значение искусственного интеллекта.

    реферат [1,2 M], добавлен 24.05.2015

  • Рождение искусственного интеллекта. История развития нейронных сетей, эволюционного программирования, нечеткой логики. Генетические алгоритмы, их применение. Искусственный интеллект, нейронные сети, эволюционное программирование и нечеткая логика сейчас.

    реферат [78,9 K], добавлен 22.01.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.