Оптимизационное моделирование

Классическая постановка задачи оптимизации. Стандартные методы решения. Численные методы оптимизации. Применение моделей оптимизации. Особенности, связанные с применением аналитических методов оптимизации. Алгоритм аналитической оптимизации функций.

Рубрика Математика
Вид реферат
Язык русский
Дата добавления 13.11.2011
Размер файла 271,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Оптимизационное моделирование

Содержание

  • 1. Классическая постановка задачи оптимизации
  • 2. Стандартные формы задач оптимизации
  • 3. Методы решения задач оптимизации
  • 4. Численные методы оптимизации
  • 5. Области применения моделей оптимизации

1. Классическая постановка задачи оптимизации

Значительная часть задач, с методами решения которых мы будем знакомиться при изучении курса, связана с построением и использованием математических моделей оптимизации. Как научное направление, теория оптимизации возникла лишь в эпоху ЭВМ, так как реализация алгоритмов отыскания экстремумов чрезвычайно трудоемка, но основные методы и подходы, использующиеся в теории оптимизации, были разработаны крупнейшими математиками прошлого - Ньютоном, Эйлером, Лагранжем.

Обычная постановка задачи оптимизации (которую мы будем называть классической) состоит в следующем. В некотором -мерном пространстве тем или иным способом выделяется некоторое непустое множество точек этого пространства , называемое допустимым множеством. Далее фиксируется некоторая вещественная функция , заданная во всех точках допустимого множества. Задача оптимизации состоит в том, чтобы найти точку во множестве , для которой функция (целевая функция) принимает экстремальное - минимальное или максимальное значение. Под точкой пространства понимается -мерный вектор и, соответственно, является функцией -мерного векторного аргумента. Особо следует отметить, что при представлении о системе в форме понятие допустимого множества совпадает с понятием области допустимых траекторий или области существования системы.

Задачу оптимизации мы будем записывать следующим образом

или . (1)

При перемене знака целевой функции все точки ее максимума превращаются, очевидно, в точки минимума и наоборот. Поэтому в теории достаточно рассматривать лишь какой-нибудь один из видов оптимума (максимум или минимум). В современной теории оптимизации чаще всего останавливаются на нахождении минимума. Все результаты этой задачи очевидным образом переходят на задачу максимизации.

Заметим, что термин "оптимизация функции" не вполне точно отражает существо процесса оптимизации в форме (1). В таком процессе сама функция остается неизменной. Речь идет об оптимизации ее значения (путем выбора соответствующей точки в допустимом -мерном допустимом множестве значений ее аргумента ). Помимо такой задачи (задачи оптимизации функций) возможна постановка оптимизационной задачи, при которой в качестве допустимого множества выступает некоторое множество вещественных функций , а целевая функция есть некоторый функционал , сопоставляющей каждой функции некоторое вещественное число . Такую задачу мы будем называть задачей оптимизации функционалов или вариационной задачей.

2. Стандартные формы задач оптимизации

В стандартных формах задач объектом оптимизации является непрерывная функция вещественных переменных , допустимая область задается конечной системой равенств и неравенств с непрерывными левыми частями и . Если при этом область ограничена, то в ней обязательно существует по крайней мере одна точка абсолютного максимума и одна точка абсолютного минимума функции . Поскольку перемена знака у левых частей неравенств и меняет знаки этих неравенств на противоположные, можно ограничиться одним из двух типов неравенств. Обычно при максимизации используются неравенства вида , а при минимизации - неравенства вида . Таким образом, возникают две стандартные формы постановки задач оптимизации.

; . (2)

Ограничения типа неравенств легко заменить ограничениями типа равенств и простыми координатными неравенствами, вводя дополнительные (вещественные) переменные . При этом ограничения вида заменятся парой ограничений , , а ограничения - парой ограничений , . Этот прием будет в дальнейшем именоваться приемом элиминации нетривиальных неравенств. Его особенно удобно применять в тех случаях, когда по смыслу задачи все точки допустимой области имеют неотрицательные координаты. В результате его применения в таких условиях возникает третья стандартная форма постановки задачи оптимизации:

. (3)

Во всех перечисленных постановках может присутствовать дополнительное требование о том, чтобы все координаты точки оптимума были целыми числами (или числами некоторого заданного ряда). Это требование превращает задачу непрерывной оптимизации в задачу целочисленной оптимизации. В случае, когда допустимая область ограничена, в ней может находиться лишь конечное множество точек с целочисленными координатами. Поэтому задача целочисленной оптимизации в ограниченной области в принципе может быть решена методом перебора, то есть путем вычисления значения целевой функции во всех допустимых точках и выбора из них точки (или точек) с оптимальными значениями критерия.

3. Методы решения задач оптимизации

В случае, когда функция и функции , задающие ограничения, являются дифференцируемыми (гладкими) для решения задач оптимизации может быть использовано понятие градиента. Поле градиента обычно определяется как векторное поле, которое характеризует скалярное поле в направлении его наискорейшего возрастания.

Определение 1

Для любой дифференцируемой функции ее градиентом в точке называется вектор

. (4)

Отметим некоторые особенности, связанные с применением аналитических методов оптимизации:

Аналитические методы применимы лишь для оптимизации дифференцируемых (гладких) функций, то есть функций, имеющих частные производные по крайней мере до второго порядка включительно.

Необходимые условия экстремума первого порядка позволяют выделить лишь стационарные точки функции. Для определения точек экстремума требуется использование необходимых и достаточных условий второго порядка, что значительно увеличивает вычислительную сложность задачи.

Аналитические методы, основанные на непосредственном использовании необходимых и достаточных условий экстремума, позволяют выделить лишь точки экстремума, лежащие внутри допустимой области и не позволяют выделить экстремальные точки на границе . Для поиска точек экстремума, лежащих на границе , необходимо использовать метод множителей Лагранжа.

Алгоритм аналитической оптимизации функций на основании необходимых и достаточных условий экстремума состоит из следующих четырех шагов.

1. Свести задачу к стандартной форме постановки оптимизационных задач.

2. Используя необходимое условие экстремума первого порядка , определить стационарные точки.

3. Используя достаточные условия экстремума второго порядка, определить, являются ли стационарные точки экстремальными. Если стационарные точки являются экстремальными, определить характер экстремума (максимум или минимум).

Вычислить значения целевой функции в найденных точках локального экстремума нужного вида.

4. Численные методы оптимизации

Помимо аналитических методов оптимизации, в практике широко применяются численные методы оптимизации, причем при численной оптимизации дифференцируемых функций во многих случаях также используется понятие градиента.

Рассмотрим некоторые из методов численной оптимизации. Для простоты изложения будем полагать, что модель оптимизации, представленная в форме (2), не содержит ограничений. Тогда мы можем говорить, что непрерывная дифференцируемая функция задана во всех точках пространства . Для произвольной точки , в которой , вектор градиента задает направление наискорейшего роста функции , а обратное ему направление - , называемое антиградиентом, - направление наискорейшего убывания этой функции. Это значит, что движение (на очень малый шаг) в направлении градиента функции обеспечивает наибольший рост, а в направлении антиградиента - наибольшее уменьшение этой функции. Из сказанного вытекает общая идея градиентного спуска (подъема): отправляясь из заданной точки , строим последовательность точек , так, что перемещение от каждой точки к точке , производится в направлении антиградиента (градиента) в точке .

Определение 2

Метод градиентного спуска - это метод численной оптимизации гладких функций многих переменных, при котором приближение к экстремуму производится так, что

, (5)

где - вектор единичной длины, имеющий то же направление, что и .

Существуют различные модификации метода градиентного спуска в зависимости от того, каким образом выбирается величина множителя , которая должна уменьшаться по мере приближения к точке экстремума. Наиболее простым способом обеспечения требуемого уменьшения шага является выбор длины шага , пропорциональной длине вектора градиента в точке .

Определение 3

Пропорционально-градиентный метод - один из видов метода градиентного спуска, при котором длина шага на (i+1) - м приближении определяется из условия

, , . (6)

При использовании полношагового градиентного метода (метода наискорейшего спуска) каждый шаг градиентного спуска делается на максимально возможную длину, обеспечивающую требуемое направление изменения значения функции. Таким образом, на полупрямой, исходящей из очередной точки в направлении антиградиента (при спуске) ищется точка абсолютного минимума, которая и выбирается в качестве очередной точки .

Определение 4

Метод наискорейшего спуска - один из градиентных методов оптимизации, при котором положение точки в (i+1) - м приближении определяется из условия

, где . (7)

На рисунке 0. 1. изображена геометрическая иллюстрация этого метода для случая минимизации функции двух переменных. Из начальной точки перпендикулярно линии уровня в направлении - спуск продолжают до тех пор, пока не будет достигнуто минимальное вдоль луча значение функции . В найденной точке этот луч касается линии уровня . Затем из точки проводят спуск в направлении, перпендикулярном линии уровня, до достижения и т.д. Следует отметить, что чрезвычайно большое значение при использовании численных методов имеет выбор начальной точки . Так, для случая, приведенного на рисунке, выбор в качестве начальной точки приведет к тому, что каждая итерация будет приближать решение к седловой точке , а не к точке минимума .

Рис1. Геометрическая интерпретация метода наискорейшего спуска при минимизации функции двух переменных

В качестве критерия окончания итераций при использовании численных методов оптимизации, как правило, используют следующие условия

, (8)

, (9)

, (10)

где ,, - заданные положительные числа. Нередко используются различные сочетания критериев (8) - (10) или критерии, основанные на понятии относительной погрешности. Надежные и универсальные критерии окончания счета, которые были бы применимы к широкому классу задач и гарантировали бы достижение требуемой точности, в настоящее время неизвестны.

Помимо рассмотренных нами методов численной оптимизации широко применяются методы сопряженных градиентов, покоординатного спуска, метод Ньютона, методы выпуклой оптимизации и т.д.

Рис.2. Графики функций двух переменных, для максимизации которых градиентные методы неприменимы

Кроме численных методов, основанных на применении понятия градиента, существуют так называемые "методы прямого поиска", при использовании которых вычисление производных не требуется. Методы прямого поиска основаны на сравнении значений целевой функции в последовательно вычисляемых пробных точках. Обычно методы этой группы применяются тогда, когда в окрестности точки локального экстремума функция не является гладкой и не может быть продифференцирована. Примеры графиков таких функций приведены на рисунке2. Методы прямого поиска гораздо менее эффективны, чем градиентные методы, но в ряде случаев их использование неизбежно.

Рассмотренные нами методы численной оптимизации применяются обычно для решения задач без ограничений. В то же время математическая модель оптимизации в форме (2) в общем виде содержит ограничения - равенства и неравенства. Задачи вида (2) удается сводить к случаю безусловной оптимизации за счет изменения целевой функции. Такой подход реализуется в методах штрафных функций и барьеров.

При использовании метода штрафных функций в задаче максимизации целевая функция заменяется семейством функцией вида

, =1,2,., (11)

где - штрафная функция, которая внутри допустимой области принимает нулевое значение, а вне ее - отрицательна, а - -й элемент последовательности положительных чисел, сходящейся к нулю.

В методе барьеров при решении задачи максимизации в форме (2) целевая функция заменяется семейством функций

, =1,2,. (12)

где - барьерная функция, которая характеризуется свойством стремиться к - при приближении к границам допустимой области изнутри, а определяется аналогично (11). При решении любым из численных методов задачи безусловной оптимизации (11) или (12) при =1,2,., может быть получена последовательность экстремальных точек , сходящаяся к экстремальной точке исходной задачи (2). Переход от задачи максимизации к задаче минимизации при использовании метода штрафных функций и метода барьеров осуществляется изменением знака штрафной или барьерной функции.

оптимизационное моделирование функция алгоритм

5. Области применения моделей оптимизации

Математические модели оптимизации широко применяются при исследовании процессов резания, проектировании металлорежущего инструмента и технологических операций обработки. Достаточно часто в практике встречаются задачи оптимизации суммарного периода стойкости инструмента и задачи оптимизации режимов резания, которые могут быть решены с использованием рассмотренных нами методов. Особый класс задач составляют задачи определения конструкции (величин геометрических параметров) инструмента из условия максимизации стойкости инструмента или оптимизации физических параметров процесса обработки резанием.

Размещено на Allbest.ru


Подобные документы

  • Поиск оптимальных значений некоторых параметров в процессе решения задачи оптимизации. Сравнение двух альтернативных решений с помощью целевой функции. Теорема Вейерштрасса. Численные методы поиска экстремальных значений функций. Погрешность решения.

    презентация [80,6 K], добавлен 18.04.2013

  • Формирование функции Лагранжа, условия Куна и Таккера. Численные методы оптимизации и блок-схемы. Применение методов штрафных функций, внешней точки, покоординатного спуска, сопряженных градиентов для сведения задач условной оптимизации к безусловной.

    курсовая работа [1,8 M], добавлен 27.11.2012

  • Рассмотрение эффективности применения методов штрафов, безусловной оптимизации, сопряженных направлений и наискорейшего градиентного спуска для решения задачи поиска экстремума (максимума) функции нескольких переменных при наличии ограничения равенства.

    контрольная работа [1,4 M], добавлен 16.08.2010

  • Математическая задача оптимизации. Минимум функции одной и многих переменных. Унимодальные и выпуклые функции. Прямые методы безусловной оптимизации и минимизации, их практическое применение. Методы деления отрезка пополам (дихотомия) и золотого сечения.

    курсовая работа [2,0 M], добавлен 26.08.2009

  • Методы условной и безусловной нелинейной оптимизации. Исследование функции на безусловный экстремум. Численные методы минимизации функции. Минимизация со смешанными ограничениями. Седловые точки функции Лагранжа. Использование пакетов MS Excel и Matlab.

    лабораторная работа [600,0 K], добавлен 06.07.2009

  • Оптимизация как раздел математики, ее определение, сущность, цели, формулировка и особенности постановки задач. Общая характеристика различных методов математической оптимизации функции. Листинг программ основных методов решения задач оптимизации функции.

    курсовая работа [414,1 K], добавлен 20.01.2010

  • Изучение методов одномерной оптимизации и сравнение эффективности их применения для конкретных целевых функций. Нахождение минимума функции 1/|x-3|3 методами перебора, поразрядного поиска, дихотомии, золотого сечения, средней точки, хорд и Ньютона.

    курсовая работа [761,8 K], добавлен 25.12.2015

  • Математическое программирование - область математики, в которой изучаются методы решения задач условной оптимизации. Основные понятия и определения в задачах оптимизации. Динамическое программирование – математический метод поиска оптимального управления.

    презентация [112,6 K], добавлен 23.06.2013

  • Сущность и характеристика метода покоординатного спуска (метод Гаусса-Зейделя). Геометрическая интерпретация метода покоординатного спуска для целевой функции z=(x,y). Блок-схема и алгоритм для написания программы для оптимизации методом Хука-Дживса.

    контрольная работа [878,3 K], добавлен 26.12.2012

  • Проектирование методов математического моделирования и оптимизации проектных решений. Использование кусочной интерполяции при решении задач строительства автомобильных дорог. Методы линейного программирования. Решение специальных транспортных задач.

    методичка [690,6 K], добавлен 26.01.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.