Искусственный интеллект. Основные направления и этапы развития

Искусственный интеллект как научное направление, связанное с попытками формализовать мышление человека. Структура мозга и моделирование функций нервной системы. Применение нейронных сетей для решения прикладных задач и основные алгоритмы обучения.

Рубрика Программирование, компьютеры и кибернетика
Вид учебное пособие
Язык русский
Дата добавления 24.04.2014
Размер файла 3,1 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

3

X4, X5, X6, X8

Если проводить дальнейшее разбиение, центры кластеров изменяться не будут.

4. Алгоритм нечётких K-средних (fuzzy C-means clustering)

Алгоритм предложен американским учёным Bezdek.

Fuzzy ISODATA

Твёрдые алгоритмы С-means (CM)

Hard C- means (HCM)

Основу алгоритма HCM составляет введение некоторой функции качества при заданных ограничениях.

Пусть U - матрица, определяющая принадлежность множества векторов X некоторым кластерам.

X1, X2, … , Xn - вектора множества X

q - число кластеров

Размерность матрицы U:

X

q

1

2

…………………………

q

1

1

0

0

0

0

0

0

2

0

0

1

0

0

0

0

1

0

0

0

0

0

0

n

0

0

0

1

0

0

0

,

,

Общие ограничения:

1) (1)

2) (2)

3) ЦФ: , (3)

Рассмотрим вариант нечёткой кластеризации:

Матрица принадлежности U может иметь следующий вид:

X

q

1

2

……………

(q-1)

q

1

0,1

0,2

0,08

0,3

0,5

2

0,3

0,02

0,42

k

0,1

0,4

0

n

0,001

0,08

0,9

Принадлежность векторов кластеру в случае нечёткой кластеризации может находиться в интервале: .

Вектор может относится к различным кластерам с разной степенью принадлежности (grade), но ограничение (1) остаётся справедливо.

Формула (3) сохраняется, а m изменяется в интервале: .

Основная цель кластеризации: подбор центров Z1, Z2, … Zq с целью удовлетворения показателю (3) с учётом ограничений (1) и (2).

Для оптимизации целевой функции (3) Bezdek ввёл функцию Лагранжа:

(4)

Bezdek доказал, что минимизация функции (4) осуществляется по следующим формулам:

(5) (6)

В режиме off -line алгоритм fuzzy C-means сводится к следующей последовательности действий:

1. Инициализировать матрицу U случайным образом числами в интервале , при этом должны выполняться ограничения (1) и (2).

2. Вычислить q нечётких кластерных центров по формуле (5).

3. Вычислить стоимостную функцию по формуле (3).

4. Останов, если значение целевой функции J окажется ниже заданного порога или её уменьшение на предыдущем шаге ниже допустимого значения. В противном случае вычисляем значения по формуле (6) и переходим к шагу 2.

Замечание 1. Вместо инициализации матрицы U (шаг 1) могут инициализироваться кластерные центры.

Замечание 2. Алгоритм не даёт гарантии получения оптимального решения, поэтому начальная инициализация центров должна производиться с помощью других алгоритмов или с помощью приёма "мультстарт".

5. Алгоритм состязания процедур соединения и разделения.

Алгоритм основан на использовании двух процедур: разделяющей и собирающей.

Для работы алгоритма необходимо определить:

· множество векторов X1, X2, … , Xn

· число кластеров q

· пропорцию: собирающая процедура : разделяющая процедура

· способ вычисления расстояния между векторами

Алгоритм сводится к следующей последовательности действий:

1. Образование кластерных центров по одному на каждый вектор.

2. Реализация разделяющей процедуры, то есть нахождение двух наиболее удалённых друг от друга элементов. Найденные элементы разделяются таким образом, чтобы к ним нельзя было применить собирающую процедуру.

3. Реализация собирающей процедуры, то есть нахождение двух наиболее близких (ранее не разделённых) друг к другу элементов. Найденные элементы объединяются в один кластер.

4. Применение собирающей и разделяющей процедур осуществляется в соответствии с определённой стратегией. Например, задаётся два интервала (0; 30) и (31; 100). Один из них соответствует собирающей процедуре, другой - разделяющей. На каждом шаге берётся произвольное число из интервала (0; 100), определяется, какому из двух интервалов оно принадлежит, и в соответствии с этим определяется применяемая процедура.

5. Останов, если все входное множество разделено или достигнуто заданное число кластеров q.

Для определения начальных кластерных центров в алгоритмах кластеризации используется метод пикового группирования (the mountain clustering method).

Данный метод предложили Ягер, Филев.

Алгоритм сводится к следующей последовательности действий:

1. Формирование сетки пространства данных. В узлах сетки - кандидаты в центры кластеров (V). В зависимости от количества узлов определяется детальность исследования сетки.

2. Конструируется пиковая функция, определяющая меру плотности размещения векторов во входном пространстве.

(1)

где - входной вектор; - среднее квадратичное отклонение (задаётся).

Каждой точке соответствует своя высота данной функции. Пиковая функция может быть рассмотрена как мера плотности данных, которые группируются около некоторого узла.

3. Выбираются кластерные центры:

a. находится точка-кандидат, для которой значение функции наибольшее, найденная точка соответствует первому кластерному центру ;

b. выбирается следующий кластерный центр: из множества V исключаются узел , а также узлы, находящиеся в непосредственной от него близости. Для этого вычисляется:

где - эмпирический коэффициент; - центр исключенного кластера.

4. Вновь выбирается кластерный центр, для которого значение функции наибольшее.

5. Останов, если найдено заданное число кластерных центров.

Сети адаптивного резонанса

Одна из основных проблем человеческого восприятия - это проблема стабильности-пластичности. При поступлении некоторой новой информации перед человеком возникает дилемма: относится ли эта информация к новому образу либо она представляет вариант старой, уже знакомой ситуации, её не требуется запоминать. Таким образом, память должна оставаться пластичной, способной к восприятию новых образов и в то же время сохранять стабильность, гарантирующую неразрушение старых образов.

Сети Кохонена не в состояние отделить новые образы от искаженных или зашумленных версий старых образов. Невозможно выделить новый класс среди существующих.

Основы адаптивного резонанса

Идея ART заключается в том, чтобы при подаче входного образа определить, существует ли выходной нейрон, который связан с некоторым образом, наиболее схожим с входным. Если таких выходных нейронов нет, то создается новый нейрон. Явление совпадения входного и хранящегося в памяти сети образов называется адаптивным резонансом.

При обучении в сети ART используется два типа памяти:

1. Кратковременная (Short-term memory)

2. Долговременная (Long-term memory)

Во время процедуры обучения происходит сопоставление содержимого кратковременной и долговременной памятей и постепенное выделение шаблона критических черт, соответствующих входному образу.

Особенности реализации ART:

1. Адаптация входного образа к образам, хранящимся в сети, осуществляется на основе резонанса.

2. Резонанс в сети происходит тогда, когда образ максимально совпадает с образом, хранящимся в сети.

В процессе адаптации входного вектора к образам, хранящимся в сети, происходит контрастное население входного образа. Оно характеризуется тем, что только отличительные черты образа отображаются на весовые коэффициенты. Это явление аналогично биологической эволюции, когда одни признаки организма при его функционировании в данной среде усиливаются, а другие ослабляются.

Хранение информации осуществляется в кратковременной и долговременной памяти, что свойственно человеку. ART имеет биологические предпосылки.

Сходимость сети ART доказана С. Гроссбергом на основе дифференциальных уравнений и функции Ляпунова.

Разновидности сетей ART:

· ART-1 - ориентированна на обработку образов, содержащих двоичную информацию

· ART-2, ART-3 - могут работать с непрерывной информацией

· ART MAP

Для функционирования нейронных сетей имеет значение вид оценки сходства входных векторов с векторами, хранящимися в сети. Используются параметр с, характеризующий уровень сходства.

с выбирается на основе требования решения задач:

· При высоких значениях с сформируется большое число классов, к каждому из которых относятся только очень похожие вектора.

· При низком уровне с сеть формирует большое число классов с высокой степенью обобщения («грубая» классификация).

Для повышения гибкости работы ART необходима реализация стратегии динамического изменения критерия сходства с во время процедуры обучения, обеспечивающая грубую классификацию в начале обучения (при низких с) и увеличивающая с для выработки точной классификации в конце обучения.

Архитектура ART

Слой В - слой сравнения (воспринимающий), слой Т - слой, хранящий образы сети (распознающий).

При обучении используется правило "победитель забирает всё" - конкурентное обучение. Определяется выигравший нейрон, устанавливается в "1". С каждым из классов (выходных нейронов) связаны веса , .

G1 и G2 - специализированные нейроны, которые управляют процессом обучения.

При подаче входного вектора вычисляется:

, , .

Выход k-ого нейрона равен "1", все остальные выходы равны "1".

Каждый входной нейрон имеет три входа:

1. компоненты входного вектора;

2. ;

3. от нейрона управления.

Входная активность i-ого нейрона равна единице, если хотя бы два из трёх входов являются активными.

В слое В модуль G1 выполняет следующую функцию:

, где - выходное значение "победителя" в слое T.

Каждый нейрон слоя B содержит два выхода:

1. компонента вектора X, который через поступает на входной слой;

2. - сигнал, который является результатом сравнения обратного и входного сигналов и определяется следующим образом: .

Схема G2 формирует сигнал сброса, который при определённых условиях нейтрализует активный нейронный элемент слоя Т.

Вычисляется степень отличия х от активного нейрона:

.

Вычисляется степень отличия входного образа от образа победившего нейрона.

На входе G2 формируется сброс, если входной образ не соответствует кластеру, связанному с нейроном - победителем.

Сигнал сброса устраняет "победителя", так как он не соответствует критическим чертам входного образа:

.

Применительно к сети ART-1:

Если условие не выполняется, то происходит модификация весовых коэффициентов победившего нейрона. Иначе, переходим к следующему нейрону. Если при всех нейронов условие не выполняется, то создаётся новый нейрон.

Алгоритм:

1. Инициализация весовых коэффициентов:

. Задание значения параметра с: .

2. WHILE (имеются входные вектора) DO

а. подача на вход сети нового входного вектора ;

б. вычисление значений выходов сети:;

в. определение номера нейрона-победителя с наибольшей величиной выхода ;

г. определение сходства входного вектора X (образа) с прототипом , который соответствует нейрону-победителю :

IF (число "1" в выражении ) THEN GOTO (е)

ELSE

д. выход сбрасывается и возврат к (б);

е. входной вектор X ассоциируется с прототипом , поэтому производится изменение весовых коэффициентов прототипа:

ж. веса также изменяются: .

4. Конец.

Все алгоритмы, рассмотренные ранее, реализовались в режиме off-line. В режиме on-line сеть одновременно обучается и работает в режиме распознавания.

Сеть ART может работать как в режиме off-line, так и в режиме on-line. Чаще сеть ART используют для работы в режиме реального времени (on-line), так как она позволяет на стадии обучения создавать новые классы.

Для режима on-line выше приведённый алгоритм претерпит следующие изменения:

пункт 3, подпункт в:

, где c - переменная, которая определяет, какое количество нейронов рассмотрено к данному моменту времени, m - число входных нейронов.

пункт 3, подпункт д:

количество просмотренных нейронов уменьшается на единицу и возврат к пункту c; если , то создаётся новый нейрон; для нового нейрона

пункт 3, подпункт е, ж:

обновляются весовые коэффициенты b и t в том случае, если взвешенная сумма , иначе переходим к подпункту д.

Пример.

Выводы:

Преимущество сети ART заключается в возможности её расширения, что особенно важно в динамических системах, работающих в режиме реального времени. Данное свойство сети создаёт предпосылки для создания эволюционных сетей, которые могут самоорганизовываться во времени (адаптироваться к среде).

Комбинированные НС

Комбинированные нейронные сети объединяют возможности разных типов НС.

Одной из наиболее популярных комбинированных сетей, использующихся на практике, является сеть встречного распространения CPN (Counter Propagation Network), первым слоем которой является сеть Кохонена, вторым - сеть Гроссберга.

Сеть CPN была предложена Р. Хехт-Нильсеном в 1987 году.

Слой Гроссберга представляет собой конфигурацию входных и выходных звёзд Гроссберга.

Нейрон в форме входной звезды имеет n входов, которым соответствуют весовые коэффициенты W=, и один выход Y, являющийся взвешенной суммой входов. Входная звезда обучается выдавать сигнал на выходе всякий раз, когда на входы поступает определенный вектор.

Подстройка весовых коэффициентов проводится по следующей формуле:

,

где - весовой вектор i-той входной звезды на t-м такте обучения; - входной вектор; м - скорость обучения. м имеет начальное значение в пределах 0,1…0,2 и постепенно уменьшается в процессе обучения.

Выходная звезда Гроссберга выполняет противоположную функцию - при поступлении сигнала на вход выдается определенный вектор. Нейрон этого типа имеет один вход и m выходов с весами W=, которые подстраиваются в соответствии с формулой:

,

где - весовой вектор i-той выходной звезды на t-м такте обучения; - выходной вектор; б - скорость обучения. Рекомендуется начать обучение со значения б в пределах единицы, постепенно уменьшая до значений, близких к нулю.

Обучение CPN состоит из двух фаз:

1. Обучение слоя Кохонена.

Используется конкурентное обучение с выявлением нейрона победителя на каждом шаге обучения. В качестве метрики используется евклидово расстояние: .

Выходное значение нейронов в слое Кохонена:

.

2. Обучение слоя Гроссберга.

Осуществляется обучение с учителем. Функция активации нейронов в слое Гроссберга является линейной.

Выходное значение нейронов в слое Гроссбнрга:

, где m - число выходных нейронов.

- весовые коэффициенты связи выходного нейрона слоя Кохонена и i-того входа нейрона слоя Гроссберга. Таким образом, сеть CPN каждому i-тому кластеру промежуточного слоя ставит в соответствии весовой коэффициент . Это может быть использовано для выполнения с помощью НС аппроксимации функции.

Пример.

Карта Кохонена (плоскость xy) соответствует разбиению входного пространства на кластеры. Тогда аппроксимации функции будет соответствовать высота z: . Для реализации нелинейной аппроксимации функции в качестве функции активации нейронов выходного слоя необходимо брать нелинейную функцию (например, сигмоидальную).

Алгоритм обучения:

Для обучения нейронов слоя Кохонена используется конкурентное обучение:

, где k - номер нейрона победителя; i - номер входного вектора.

Для выходного слоя используется алгоритм обучения с учителем:

Необходимо найти оптимальные весовые коэффициенты связи выходного нейрона слоя Кохонена и i-того входа нейрона слоя Гроссберга так, чтобы сеть наилучшим образом аппроксимировала воспроизводимую функцию . Для этого используется алгоритм BP и минимизируется ошибка обучения методом наименьших квадратов:

, где б - скорость обучения: ; - эталонное значение функции для данного входного вектора.

Ошибка обучения вычисляется не для одного вектора, а для ряда векторов, которые входят в кластер, соответствующий определенному нейрону.

Алгоритм обучения сводится к следующей последовательности действий:

1. Инициализируем весовые коэффициенты сети случайными числами из интервала .

2. (t - номер итерации).

3. Для каждого входного вектора :

1) вычисляем норму вектора ;

2) определяем нейрон победитель ;

3) модифицируем весовые коэффициенты нейрона победителя (возможно с учётом эффекта латерального торможения):

4) модифицируем весовые коэффициенты k-того нейрона последнего слоя с учётом эталонного значения функции в соответствии с алгоритмом BP:

.

4. , и переходим к п. 3. Останов, если выполнено заданное число итераций.

Иерархический классификатор

Иерархический классификатор разбивает процесс решения задачи на отдельные этапы. Данный подход позволяет упростить решаемую задачу.

Пример.

Количество сетей Хемминга равно числу классов, при этом выходным сигналом каждого нейрона слоя Кохонена является позиционный код, определяющий номер класса, к которому следует отнести входной образ. Если окажется, что входной образ не ассоциируется ни с одним из существующих классов, то для него может быть выделен новый класс.

Алгоритм обучения и функционирования состоит из двух этапов:

1 этап. Конкурентное обучение и модификация весовых коэффициентов сети Кохонена.

,

где входной сигнал; весовой коэффициент j-того нейрона; скорость обучения.

2 этап. Обучение сети Хемминга.

Процесс обучения закончится, когда сеть придет в стабильное состояние.

1. Подается входной вектор .

2. Вычисляется норма вектора: , где X - входной вектор, Wij - весовой коэффициент связи i-того нейрона с j-той компонентой входного вектора.

3. Определяется номер нейрона победителя: .

4. В соответствии с определенным номером k возбуждается одна из сетей Хемминга, на эту сеть подается входной образ.

5. Производится итерационная процедура схождения сети Хемминга до тех пор, пока на одном из входов не появится «1», а на других - «0».

Замечание. Процедуры обучения и функционирования сети могут производится параллельно. Для этого вводится коэффициент бдительности с, который характеризует допустимую степень отклонения входного образа от образов, хранящихся в сети. Для каждого входного образа вычисляется расстояние , которое характеризует отличие входного образа от образа, хранимого данной сетью Хемминга. Если , то создаётся новый класс, в противном случае, производится обучение сети.

Нейронные сети с функциональными связями

Однослойные нейронные сети либо не позволяют решать некоторые задачи классификации и распознавания, либо приводят к большим погрешностям. С другой стороны, для того чтобы уменьшить время обучения сети лучше использовать однослойные сети. Поэтому применяются такие однослойные нейронные сети, которые реализуют нелинейное разделение - функциональные НС.

Для реализации данного подхода проводят расширение входов НС. Дополнительные входные данные искусственно увеличивают размеры пространства входной информации и наряду с реальными данными составляют обучающую выборку. При этом дополнительные данные должны быть линейно независимы от исходных реальных данных. За счет этого достигается линейная разделимость входного пространства. Основной проблемой реализации функциональных НС является подбор линейно независимых функций.

Пример 1. Решение задачи XOR: дополнительный входной сигнал - произведение входных сигналов x1x2.

x1

x2

x1x2

y

-1

-1

1

1

1

-1

-1

-1

-1

1

-1

-1

1

1

1

1

Пример 2. Сеть с функциональными связями для работы с непрерывными функциями. Дополнительные входные данные генерируются на основе ортогонального базиса функций, таких как, .

Решающие деревья

В искусственном интеллекте широко используются решающие деревья, чаще бинарные.

Решающие деревья представляются в виде многоуровневых НС без обратных связей и могут быть использованы для более эффективного решения задач классификации и распознавания.

Древовидная НС (Tree Neural Network - TNN) - сеть, представляющая собой древовидную структуру (решающее дерево), в каждом узле которого содержится НС.

Пример. Бинарное дерево классификации для разделения образов на три класса.

Основная задача НС - определить оптимальный путь обхода решающего дерева.

Для построения TNN необходимо решить две задачи: первая связана с построением полного решающего дерева, в котором будут учитываться все особенности и условия задачи классификации; вторая - задача редуцирования (отсечение отдельных ветвей), осуществляется путём проверки задачи классификации на непротиворечивость.

Достоинства:

1. уменьшение времени обучения;

2. возможность построения иерархического классификатора;

3. возможность изменения содержимого узлов (НС) на любом уровне дерева.

Методы проектирования нейросетевых архитектур для решения прикладных задач

При решении прикладных задач необходимо решить следующие задачи, связанные с построением НС:

1. задача выбора типа НС;

2. задача выбора алгоритма обучения НС;

3. задача построения топологии (архитектуры) НС.

Первая задача

Основные типы НС:

1) НС с прямым распространением сигнала:

многослойный персептрон:

НС с прямым распространением сигнала являются наиболее применимым типом НС, поскольку для них доказана сходимость алгоритма обучения.

2) НС с обратным распространением сигнала:

Характеризуются небольшой информационной ёмкостью, а также отсутствием универсальной методики, гарантирующей сходимость.

3) НС самоорганизации:

Основные характеристики: алгоритм обучения НС основан на методе конкурентного обучения; в НС данного типа используется механизм латерального торможения.

Метод конкурентного обучения заключается в следующем: фиксируется нейрон с наибольшей активностью, далее - при использовании классического алгоритма - обновляются весовые коэффициенты данного нейрона, при использовании алгоритма, учитывающего эффект латерального торможения - также обновляются весовые коэффициенты соседних нейронов, причём величина изменения весов зависит от расстояния до нейрона победителя.

X - входной вектор;

W - вектор весовых коэффициентов.

Основное задача: сопоставить X и W.

Вычисляется вектор W, а затем расстояние от этого вектора до входного. Из всего множества весовых векторов необходимо выбрать такой вектор, расстояние от которого до входного вектора будет наименьшим.

4) Гибридные (комбинированные) сети.

Из существующих типов НС можно составить комбинированную сеть, которая будет обладать нужными качествами.

Вторая задача

Для каждого типа НС существуют свои алгоритмы обучения. Для решения различных задач данные алгоритмы можно подстраивать. Например, для обучения многослойного персептрона вместо алгоритма BP использовать другие методы, такие как квазиньютоновские методы, генетические алгоритмы и прочие. Другой путь связан с подстройкой параметров алгоритмов (скорости обучения, инерционности (для BP), изменение функции активации нейронов классического типа, введение нечетких нейронов).

Третья задача

Задача выбора топологии заключается в определении количества слоёв НС и количества нейронов в каждом слое, которое необходимо использовать для реализации отображения: F: XY. Для обучения используются пары , где p - число распознаваемых классов.

Задача выбора топологии НС состоит в выборе НС с минимальной сложностью S (). Обычно сложность НС определяется количеством вычислительных операций, которые надо выполнить для получения выходного сигнала. Данная задача уместна в том случае, когда задано определенное значение ошибки обобщения: . Это задача комбинаторной оптимизации. Если выбрать НС с небольшим количеством слоев и небольшим количеством нейронов каждого слоя, то есть уменьшить сложность, то данная нейронная сеть не сможет обеспечить заданную ошибку обобщения. С другой стороны, если формировать сеть из большого количества слоев и нейронов, то может возникнуть эффект переобучения (эффект «бабушкиного воспитания»): НС хорошо распознает образы из обучающей выборки, но плохо работает с образами реальной среды.

Если задана сложность S, то можно минимизировать ошибку обобщения, подстраивая соответствующие алгоритмы обучения.

Таким образом, задачи нахождения минимальной ошибки обобщения и нахождения минимальной сложности являются взаимопротиворечивыми и не могут решаться одновременно.

Для решения задачи проектирования НС задача оптимизации может решаться в двух постановках:

1. Задана сложность НС, необходимо минимизировать ошибку обобщения.

2. Задана , найти НС минимальной сложности.

Выбор топологии НС для решения задач нейроуправления

Существуют различные методы:

1. Статистические методы.

2. Конструктивные методы.

3. Деструктивные методы.

4. Эволюционные методы.

Статистические методы основаны на использовании некоторой зависимости между параметрами НС.

, где функция активации нейронов, n - число скрытых слоев, k - число нейронов в каждом слое.

Для НС известно число входов (определяет размерность входного вектора), число выходов (число распознаваемых классов). Поэтому основная задача заключается в нахождении количества скрытых слоев. Для статических методов эта зависимость известна заранее на основе предыдущих опытов. Построение регрессионных моделей «вход - выход» позволяет предсказывать результаты обучения в зависимости от входных параметров.

Конструктивные методы реализуются на основе постепенного перехода от сети с минимальной сложностью к сети более сложной конфигурации.

Существует два подхода:

· Каждый раз при добавлении нейронов в скрытый слой вычисляется ошибка обобщения, и если она допустима, то выбирается данная конфигурация.

· Второй подход состоит в добавлении скрытых слоев. Например, при каскадной корреляции Фармана скрытый слой состоит из одного нейрона.

В более общем случае используются определенные правила; если одно правило не подходит (не получена заданная ), осуществляется переход к следующему правилу:

1) добавляются блоки нейронов;

2) добавляются нейроны;

3) добавляются перекрестные связи.

То есть НС постепенно возрастает (увеличивается сложность S).

Эволюционные методы основаны на генетических алгоритмах оптимизации.

Создается популяция нейронных сетей. К ней применяются генетические операторы с целью минимизации сложности НС.

Тестирование робота

Для тестирования робота создается тестовая выборка из участков траектории, не вошедших в обучающую выборку. Робот должен отрабатывать данные тестовой выборки с допустимой ошибкой.

Автономное управление мобильным роботом

Для реализации автономного управления робот должен обладать способностью к самоорганизации и самоуправлению, так как робот движется в неизвестной среде.

Walter - немецкий робот.

Основная задача - пройти путь от начального пункта до конечного за оптимальный промежуток времени. Движение осуществляется в пространстве с препятствиями. Для их преодоления робот должен быть снабжен сенсорными устройствами.

Архитектура робота

Данная схема применяется для решения следующих задач:

1. Интеграция данных от различных сенсорных устройств (data fusion).

2. Обеспечение управления роботом в неизвестной среде.

3. Формирование глобальной карты местности.

4. Формирование оптимального маршрута в изведанном пространстве.

5. Формирование на каждом шаге оптимального маршрута.

Локальная карта местности

Реактивное управление роботом осуществляется таким образом, чтобы на основе знания о конечной точки движения и информации, поступающей от внешних устройств, сформировать определенное направление движения. Планирование маршрута движения робота не имеет смысла, но оптимальные маршруты могут запоминаться.

При движении робота в незнакомой среде используется подвижная и неподвижная система координат.

Центр неподвижной системы координат совпадает с начальным положением робота.

Подвижная система координат определяет текущее положение робота в процессе его движения к цели.

При формировании маршрута используется нейронная сеть.

Размещено на Allbest.ru


Подобные документы

  • Искусственный интеллект – научное направление, связанное с машинным моделированием человеческих интеллектуальных функций. Черты искусственного интеллекта Развитие искусственного интеллекта, перспективные направления в его исследовании и моделировании.

    реферат [70,7 K], добавлен 18.11.2010

  • Может ли искусственный интеллект на данном уровне развития техники и технологий превзойти интеллект человека. Может ли человек при контакте распознать искусственный интеллект. Основные возможности практического применения искусственного интеллекта.

    презентация [511,2 K], добавлен 04.03.2013

  • Рождение искусственного интеллекта. История развития нейронных сетей, эволюционного программирования, нечеткой логики. Генетические алгоритмы, их применение. Искусственный интеллект, нейронные сети, эволюционное программирование и нечеткая логика сейчас.

    реферат [78,9 K], добавлен 22.01.2015

  • Агентно-ориентированный подход к исследованию искусственного интеллекта. Моделирование рассуждений, обработка естественного языка, машинное обучение, робототехника, распознание речи. Современный искусственный интеллект. Проведение теста Тьюринга.

    контрольная работа [123,6 K], добавлен 10.03.2015

  • История появления термина "искусственный интеллект". Приоритетные направления его применения: генерация речи, обработка визуальной информации. Нейронные, байесовы, иммунные сети, теории хаоса - примеры реализации современных интеллектуальных систем.

    реферат [27,2 K], добавлен 14.01.2011

  • Понятие "искусственный интеллект". Понимание механизмов восприятия, выявление способов работы мозга. Направления развития информатики. Научные проблемы. Программы решения интеллектуальных задач. Анализ изображения и идентификация его содержимого.

    презентация [12,2 K], добавлен 14.08.2013

  • Интеллектуальные системы и искусственный интеллект. Рассмотрение моделей рассуждений и целей их создания. Знания и их представление, логические, сетевые, фреймовые и продукционные модели. Моделирование рассуждений на основе прецедентов и ограничений.

    курсовая работа [74,0 K], добавлен 26.12.2010

  • Изучение проблемы искусственного интеллекта. Процесс переработки информации в мозге человека. Расшифровка мозговых кодов явлений субъективной реальности. Естественный интеллект как факт, обладающий субъективной реальностью с принципом инвариантности.

    реферат [31,1 K], добавлен 04.12.2011

  • История создания и основные направления в моделировании искусственного интеллекта. Проблемы обучения зрительному восприятию и распознаванию. Разработка элементов интеллекта роботов. Исследования в области нейронных сетей. Принцип обратной связи Винера.

    реферат [45,1 K], добавлен 20.11.2009

  • Компоненты и архитектура интеллектуального агента, его дополнение средствами обучения. Различные подходы к созданию искусственного интеллекта, перспективы его развития. Этические и моральные последствия разработки интеллектуальных машин и программ.

    реферат [708,9 K], добавлен 02.03.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.