Green-sell.info

Новые технологии
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Задача безусловной оптимизации

Постановка задачи безусловной оптимизации. Классификация задач безусловной оптимизации и методов их решения. Методы безусловной оптимизации Ньютоновского типа.

Задача не имеющая ограничений называются задачей безусловной оптимизации. Рассмотрим задачу безусловной оптимизации:

f(x)=F(x1..xn) -> min x ,

Алгоритмы безусловной оптимизации представляют собой итерационные процедуры, реализующие последовательное приближение к искомому экстремуму.

K – номер итерации; — направление поиска на к-ой итерации. — величина шага в данном направлении.

В координатной форме эта схема имеет вид:

Процесс поиска начинается с некоторой точки X 0 , которая называется начальным приближением и задается пользователем. По этой точке определяются точки X 1 , X 2 и т.д. Полученная последовательность точек называется траекторией поиска и сходится к оптимальной точке Х*. Методы безусловной оптимизации отличаются друг от друга способами выбора направления поиска и величиной шага .

В зависимости от способа выбора направления поиска различают методы нулевого порядка, методы первого порядка, методы второго порядка.

Методы нулевого порядка – это методы, в которых для определения направления поиска используется только значение целевой функции. Производные при этом не используются. Они называются методами прямого поиска или поисковыми методами оптимизации.

Методы первого порядка – методы, в которых для определения направления поиска используются первые производные целевой функции. Эти методы называются градиентными методами оптимизации.

Методы второго порядка – это методы, в которых для определения направления поиска используются вторые производные целевой функции. К этому классу относят метод Ньютона и его модификации.

Методы второго порядка используют как первые так и вторые производные целевой функции. К этому классу относят метод Ньютона и его модификации, которые строятся по следующей схеме:

Где — матрица вторых производных целевой функции.

Данные методы отличаются друг от друга способом выбора шага. В классическом методе ньютона шаг равен 1 на всех итерациях.

В методе Ньютона- Равсона шаг перестраивается в процессе оптимизации, при этом используется 2 способа выбора шага:

1) Связан с проверкой условия и дробление шага в случае его невыполнения

2) Связан с определением на каждой итерации оптимальной длины шага, в результате решения вспомогательной задачи одномерной оптимизации: min (F( )).

Задача безусловной оптимизации

5. Многомерная оптимизация

Оптимизация – это целенаправленная деятельность, заключающаяся в получении наилучших результатов при соответствующих условиях.

Количественная оценка оптимизируемого качества называется критерием оптимальности или целевой функцией. Её можно записать в виде:

где x 1 , x 2 , … , xn – некоторые параметры объекта оптимизации.

Существуют два типа задач оптимизации – безусловные и условные.

Безусловная задача оптимизации состоит в отыскании максимума или минимума действительной функции (5.1) от n действительных переменных и определении соответствующих значений аргументов.

Условные задачи оптимизации , или задачи с ограничениями, — это такие, при формулировке которых на значения аргументов налагаются ограничения в виде равенств или неравенств.

Решение задач оптимизации, в которых критерий оптимальности является линейной функцией независимых переменных (то есть содержит эти переменные в первой степени) с линейными ограничениями на них, составляет предмет линейного программирования.

Слово «программирование» отражает здесь конечную цель исследования – определение оптимального плана или оптимальной программы, по которой из множества возможных вариантов исследуемого процесса выбирают по какому-либо признаку наилучший, оптимальный, вариант.

Примером такой задачи является задача оптимального распределения сырья между различными производствами при максимальной стоимости продукции.

Пусть из двух видов сырья изготавливается продукция двух видов.

Обозначим: x 1 , x 2 – число единиц продукции первого и второго вида, соответственно; c 1 , c 2 – цена единицы продукции первого и второго вида, соответственно. Тогда общая стоимость всей продукции будет :

В результате производства желательно, чтобы общая стоимость продукции была максимальной. R ( x 1 , x 2 ) – целевая функция в данной задаче.

b 1 , b 2 – количество сырья первого и второго видов, имеющееся в наличии; a ij – число единиц i -го вида сырья, необходимое для производства единицы j -го вида продукции.

Учитывая, что расход данного ресурса не может превышать общего его количества, запишем ограничительные условия по ресурсам:

Относительно переменных x 1 , x 2 можно ещё сказать, что они неотрицательны и не бесконечны .:

Среди множества решений системы неравенств (5.3) и (5.4) требуется найти такое решение ( x 1 , x 2 ), для которого функция R достигает наибольшего значения.

В аналогичном виде формулируются так называемые транспортные задачи (задачи оптимальной организации доставки товаров, сырья или продукции из различных складов к нескольким пунктам назначения при минимуме затрат на перевозку) и ряд других.

Графический метод решения задачи линейного программирования.

Пусть требуется найти x 1 и x 2 , удовлетворяющие системе неравенств:

Задача безусловной оптимизации

Мы начнем не с предположений, а с исследования. Его объектом будут весьма известные, часто встречающиеся . явления.

Зигмунд Фрейд. Введение в психоанализ

Здесь мы введем основные понятия и проведем теоретическое исследование задачи безусловной оптимизации. Отметим, что эта задача в теоретическом плане достаточно полно изучена в курсе математического анализа. Мы лишь повторим важнейшие факты, обращая внимание на «оптимизационную» специфику.

при всех x О R m . Если неравенство (2) выполнено лишь для x, лежащих в некоторой окрестности V x* точки x*, то точка x* называется локальным решением задачи (1), или точкой локального безусловного минимума функции f. Если неравенство (2) строгое при всех xx*, то говорят о строгом глобальном и, соответственно, строгом локальном минимумах. Решение задачи (1) иногда обозначают argmin f(x) (или, более полно, argminx О Rm f(x) ; когда речь идет о задачах безусловной оптимизации в обозначениях argminx О Rm f(x) и minx О Rm f(x) мы будем всегда опускать индекс «x О R m «). Обычно из контекста ясно о каком минимуме (локальном, глобальном и т. д.) идет речь.

Аналогичные понятия (максимумов) определяются для задачи

З а д а ч а 2.1. Докажите, что точка x* является точкой глобального безусловного (соответственно, локального, строгого) максимума функции f в том и только том случае, когда она является точкой глобального безусловного (соответственно, локального, строгого) минимума функции — f.

Поэтому всюду в дальнейшем мы будем заниматься только задачами о минимумах, все время помня, что задачи о максимумах к ним сводятся. Таким образом, слово «оптимизация» в нашем контексте будет всегда синонимом слова «минимизация».

2.2. О линейных операторах в R m .

Известно, что оператор A симметричен в том и только том случае, когда его матрица симметрична ( т. е. переходит в себя при транспонировании).

Оператор A называется невырожденным, если у него нулевое ядро ker A , т. е. если он переводит в нуль только нуль. Другими словами, уравнение Ax = Q имеет только нулевое решение. Из курса алгебры известно, что оператор A невырожден в том и только том случае, если определитель его матрицы отличен от нуля.

Читать еще:  Многокритериальная оптимизация примеры

при всех ненулевых x О R m . В соответствии с критерием Сильвестра оператор A положительно определен в том и только том случае, если все главные диагональные миноры матрицы оператора A положительны. Наконец, оператор A называется неотрицательно определенным (пишут A і 0), если при всех x О R m

Если оператор A — l I, где I — тождественный оператор на R m , а l О R, положительно (неотрицательно) определен, то часто пишут A > l (соответственно, A і l ) . Аналогично определяются записи A m мы считаем евклидовой, для симметричных операторов A имеют место утверждения

2.3. О дифференцируемости функций на R m .

Напомним ряд понятий и фактов из курса математического анализа, которые потребуются нам в дальнейшем.

Вектор a О R m такой, что

при всех h О R m называется производной или градиентом функции f в точке x. Здесь и ниже символ o(h) обозначает произвольную функцию, обладающую свойством

Функция f называется при этом дифференцируемой в точке x. Градиент обычно обозначается f ў (x), или grad f(x), или С f(x). Мы будем, как правило, использовать первое обозначение. Известно, что в координатной форме градиент имеет вид

Функция f: R m ® R m дифференцируемая в каждой точке называется дифференцируемой.

Если дополнительно найдется линейный самосопряженный оператор A: R m ® R m такой, что при всех h О R m

где запись o(h 2 ) означает, что

то f называется дважды дифференцируемой в точке x, а оператор A называется второй производной функции f в точке x и обозначается f ўў (x) либо С 2 f(x). Матрицей, отвечающей оператору A = f ўў (x), служит, как нетрудно видеть, так называемая матрица Гессе или гессиан функции f:

Если функция F: R m ® R k , то линейный оператор A: R m ® R k такой, что

называется производной функции F в точке x и обозначается F ў (x) (это обобщение понятия градиента на случай функций со значениями в R k ).

Если функция F: R m ® R дифференцируема, то ее градиент можно рассматривать как функцию из R m в R m : каждому x О R m ставится в соответствие точка из f ў (x) О R m .

З а д а ч а 2.3*. Докажите, что [f ў (x)] ў = f ўў (x). Поясним: здесь [f ў (x)] ў — производная функции x ® f ў (x), действующей из R m в R m , а f ўў (x) — вторая производная функции f: R m ® R m .

З а д а ч а 2.4*. Пусть F: R m ® R k дифференцируема. Докажите, что F удовлетворяет условию Липшица с константой L , в том и только том случае, если ||F ў (x)|| Ј L при всех x.

Ниже нам потребуется следующее простое утверждение. Если f: R m ® R — дважды непрерывно дифференцируемая функция, то для того, чтобы ее градиент f ў удовлетворял условию Липшица с константой L необходимо и достаточно, чтобы при всех x О R m выполнялось неравенство f ўў Ј L . Действительно, в силу задачи 2.3 при всех t О R и x, h О R m

Но тогда в силу условия Липшица для f ў

Устремляя t к 0, получим неравенство

эквивалентное нужному неравенству f ўў (x) Ј L .

З а д а ч а 2.5. Докажите обратное утверждение.

В заключение пункта еще одно обозначение. Мы будем писать f О C, f О C 1 и f О C 2 , если f соответственно непрерывна, непрерывно дифференцируема и дважды непрерывно дифференцируема.

Такое условие дает хорошо известная из курса математического анализа

Теорема Ферма. Если f — дифференцируемая функция и x* — ее локальный минимум, то f ў (x*) = 0.

Напомним д о к а з а т е л ь с т в о теоремы. Допустим противное: f ў (x*) № Q . Положим xt = x* — tf ў (x*) для всех t > 0. Тогда, во-первых, очевидно, xtx* ® Q при t ® 0 и, во-вторых, по определению градиента,

выражение в квадратных скобках в правой части (6) при всех достаточно малых t положительно и поэтому при всех достаточно малых положительных t

определяет точки «подозрительные на минимум». Точки, удовлетворяющие уравнению (7), называются стационарными точками функции f.

Стационарная точка x* функции f может быть либо точкой локального минимума, либо точкой локального максимума, либо не быть ни той, ни другой (см. рис. 1).


Рис. 1. Точка (x*, y*) называется седловой точкой функции f: W 1× W 2 ® R ( W 1 М R n , W 2 М R m ), если при всех (x, y) М W 1× W 2 выполнены неравенства

(см. рис. 2). Если эти неравенства выполняется лишь для x достаточно близких к x* и y достаточно близких к y*, то, естественно, добавляется эпитет локальная.


Рис. 2. Легко доказать, что седловая точка непрерывно дифференцируемой функции всегда является стационарной точкой и, очевидно, никогда не является точкой экстремума.

Д о к а з а т е л ь с т в о. Необходимость. Пусть x* — точка минимума и h — произвольный вектор из R m . Поскольку (в силу теоремы Ферма) x* — стационарная точка,

при всех достаточно малых t О R. Отсюда при всех t № 0

Переходя в полученном неравенстве к пределу при t ® 0 и учитывая, что как легко видеть, o((th) 2 )/t 2 ® 0 при t ® 0, получим нужное неравенство

Если теперь обозначить h n /||h n || через g n , то последнее неравенство (поделив его на ||h n || 2 ) можно переписать в виде

З а д а ч а 2.6. Исследуйте на экстремум функцию f: R 2 ® R, задаваемую формулой f(x1, x2) = x1 2 /a + x2 2 /b, при различных a и b.

2.6. Замечания о существовании решений.

Из курса математического анализа известно, что задача о существовании минимума непрерывной функции на компактном множестве всегда имеет по крайней мере одно решение (теорема Вейерштрасса). В нашем случае — случае некомпактной области определения — нужны дополнительные условия.

З а д а ч а 2.7. Приведите пример задачи (1) с непрерывной (или, даже, со сколь угодно гладкой) ограниченной снизу (f(x) і l при некотором l и всех x О R m ) функцией f, не имеющей решения.

В следующей теореме приводится одно из таких возможных дополнительных условий.

Теорема о разрешимости задачи безусловной оптимизации. Пусть функция f непрерывна и при некотором a О R m множество S a = <x О R m : f(x) Ј a > непусто и ограничено. Тогда задача (1) имеет по крайней мере одно решение.

Д о к а з а т е л ь с т в о. Множество S a замкнуто.

З а д а ч а 2.8*. Докажите.

Поэтому S a — компактное подмножество R m . В силу теоремы Вейерштрасса, очевидно, функция f достигает на S a своего минимума: x* = argminx О S a f(x). Очевидно, x* — решение задачи (1), поскольку f(x*) Ј a в S a , а вне S a функция f принимает значения б ó льшие a .

З а д а ч а 2.9. Приведите пример (непостоянной) функции f, для которой задача (1) разрешима, а условия теоремы 2.6 не выполнены.

2.7. Замечания о единственности решений.

Вопрос о единственности (как, впрочем, и о существовании) решений весьма важен в теоретическом плане. Например, если x* — единственное решение задачи (1) и <x k > М R m — ограниченная последовательность такая, что f(x k ) ® f(x*) = min f(x) при k ® Ґ , то x k ® x* = argmin f(x) при k ® Ґ . Такое свойство бывает полезным при исследовании приближенных методов решения оптимизационных задач.

Читать еще:  Оптимизация по prefetch что это

З а д а ч а 2.10. Докажите сформулированное утверждение (воспользуйтесь компактностью последовательности <x k >).

Точка x* локального минимума дважды дифференцируемой функции f называется невырожденной, если оператор f ўў (x*) невырожден. Она называется локально единственной, если в некоторой ее окрестности V x* нет других точек локального минимума функции f.

З а д а ч а 2.11. Приведите пример функции f, имеющей локально строгую, но не локально единственную точку минимума.

Д о к а з а т е л ь с т в о. Допустим противное: x* не является локально единственной точкой минимума, т. е. найдется сходящаяся к x* последовательность <x n > локальных минимумов функции f. Тогда (см. задачу 2.3)

Поскольку x n и x* — локальные минимумы и, следовательно, стационарные точки, f ў (x n ) = f ў (x*) = Q . Далее, положим (как мы уже делали) g n = (x nx*)/||x nx*||. Тогда, очевидно,

Задача безусловной оптимизации

Оптимизация — в математике, информатике и исследовании операций задача нахождения экстремума (минимума или максимума) целевой функции в некоторой области конечномерного векторного пространства, ограниченной набором линейных и/или нелинейных равенств и/или неравенств.

Теорию и методы решения задачи оптимизации изучает математическое программирование.

Математическое программирование — это область математики, разрабатывающая теорию, численные методы решения многомерных задач с ограничениями. В отличие от классической математики, математическое программирование занимается математическими методами решения задач нахождения наилучших вариантов из всех возможных. [1]

Содержание

Постановка задачи оптимизации [ | ]

В процессе проектирования ставится обычно задача определения наилучших, в некотором смысле, структуры или значений параметров объектов. Такая задача называется оптимизационной. Если оптимизация связана с расчётом оптимальных значений параметров при заданной структуре объекта, то она называется параметрической оптимизацией. Задача выбора оптимальной структуры является структурной оптимизацией.

Стандартная математическая задача оптимизации формулируется таким образом. Среди элементов χ, образующих множества Χ, найти такой элемент χ * , который доставляет минимальное значение f(χ * ) заданной функции f(χ). Для того, чтобы корректно поставить задачу оптимизации, необходимо задать:

  1. Допустимое множество — множество X = < x → | g i ( x → ) ≤ 0 , i = 1 , … , m >⊂ R n =<>|;g_(>)leq 0,;i=1,ldots ,m>subset mathbb ^>;
  2. Целевую функцию — отображение f : X → R to mathbb >;
  3. Критерий поиска (max или min).

Тогда решить задачу f ( x ) → min x → ∈ X >in mathrm >> означает одно из:

  1. Показать, что X = ∅ =varnothing >.
  2. Показать, что целевая функция f ( x → ) >)>не ограничена снизу.
  3. Найти x → ∗ ∈ X : f ( x → ∗ ) = min x → ∈ X f ( x → ) >^<*>in mathbb :;f(>^<*>)=min _<>in mathbb >f(>)>.
  4. Если ∄ x → ∗ >^<*>>, то найти inf x → ∈ X f ( x → ) >in mathbb >f(>)>.

Если минимизируемая функция не является выпуклой, то часто ограничиваются поиском локальных минимумов и максимумов: точек x 0 > таких, что всюду в некоторой их окрестности f ( x ) ≥ f ( x 0 ) )> для минимума и f ( x ) ≤ f ( x 0 ) )> для максимума.

Если допустимое множество X = R n =mathbb ^> , то такая задача называется задачей безусловной оптимизации, в противном случае — задачей условной оптимизации.

Классификация методов оптимизации [ | ]

Общая запись задач оптимизации задаёт большое разнообразие их классов. От класса задачи зависит подбор метода (эффективность её решения). Классификацию задач определяют: целевая функция и допустимая область (задаётся системой неравенств и равенств или более сложным алгоритмом). [2]

Методы оптимизации классифицируют в соответствии с задачами оптимизации:

  • Локальные методы: сходятся к какому-нибудь локальному экстремуму целевой функции. В случае унимодальной целевой функции, этот экстремум единственен, и будет глобальным максимумом/минимумом.
  • Глобальные методы: имеют дело с многоэкстремальными целевыми функциями. При глобальном поиске основной задачей является выявление тенденций глобального поведения целевой функции.

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные (стохастические);
  3. комбинированные.

По критерию размерности допустимого множества, методы оптимизации делят на методы одномерной оптимизации и методы многомерной оптимизации.

По виду целевой функции и допустимого множества, задачи оптимизации и методы их решения можно разделить на следующие классы:

  • Задачи оптимизации, в которых целевая функция f ( x → ) >)>и ограничения g i ( x → ) , i = 1 , … , m (>),;i=1,ldots ,m>являются линейными функциями, разрешаются так называемыми методами линейного программирования.
  • В противном случае имеют дело с задачей нелинейного программирования и применяют соответствующие методы. В свою очередь из них выделяют две частные задачи:
    • если f ( x → ) >)>и g i ( x → ) , i = 1 , … , m (>),;i=1,ldots ,m>— выпуклые функции, то такую задачу называют задачей выпуклого программирования;
    • если X ⊂ Z subset mathbb >, то имеют дело с задачей целочисленного (дискретного) программирования.

По требованиям к гладкости и наличию у целевой функции частных производных, их также можно разделить на:

  • прямые методы, требующие только вычислений целевой функции в точках приближений;
  • методы первого порядка: требуют вычисления первых частных производных функции;
  • методы второго порядка: требуют вычисления вторых частных производных, то есть гессиана целевой функции.

Помимо того, оптимизационные методы делятся на следующие группы:

В зависимости от природы множества X задачи математического программирования классифицируются как:

  • задачи дискретного программирования (или комбинаторной оптимизации) — если Xконечно или счётно;
  • задачи целочисленного программирования — если X является подмножествоммножества целых чисел;
  • задачи нелинейного программирования, если ограничения или целевая функция содержат нелинейные функции и X является подмножеством конечномерного векторного пространства.
  • Если же все ограничения и целевая функция содержат лишь линейные функции, то это — задача линейного программирования.

Математическое программирование используется при решении оптимизационных задач исследования операций.

Способ нахождения экстремума полностью определяется классом задачи. Но перед тем, как получить математическую модель, нужно выполнить 4 этапа моделирования:

  • Определение границ системы оптимизации
    • Отбрасываем те связи объекта оптимизации с внешним миром, которые не могут сильно повлиять на результат оптимизации, а, точнее, те, без которых решение упрощается
  • Выбор управляемых переменных
    • «Замораживаем» значения некоторых переменных (неуправляемые переменные). Другие оставляем принимать любые значения из области допустимых решений (управляемые переменные)
  • Определение ограничений на управляемые переменные
    • … (равенства и/или неравенства)
  • Выбор числового критерия оптимизации (например, показателя эффективности)
    • Создаём целевую функцию

История [ | ]

Задачи линейного программирования были первыми подробно изученными задачами поиска экстремума функций при наличии ограничений типа неравенств. В 1820 году Фурье и затем в 1947 году Джордж Данциг предложил метод направленного перебора смежных вершин в направлении возрастания целевой функции — симплекс-метод, ставший основным при решении задач линейного программирования.

Присутствие в названии дисциплины термина «программирование» объясняется тем, что первые исследования и первые приложения линейных оптимизационных задач были в сфере экономики, так как в английском языке слово «programming» означает планирование, составление планов или программ. Вполне естественно, что терминология отражает тесную связь, существующую между математической постановкой задачи и её экономической интерпретацией (изучение оптимальной экономической программы). Термин «линейное программирование» был предложен Дж. Данцигом в 1949 году для изучения теоретических и алгоритмических задач, связанных с оптимизацией линейных функций при линейных ограничениях.

Поэтому наименование «математическое программирование» связано с тем, что целью решения задач является выбор оптимальной программы действий.

Выделение класса экстремальных задач, определяемых линейным функционалом на множестве, задаваемом линейными ограничениями, следует отнести к 1930-м годам. Одними из первых, исследовавшими в общей форме задачи линейного программирования, были: Джон фон Нейман — математик и физик, доказавший основную теорему о матричных играх и изучивший экономическую модель, носящую его имя, и Л. В. Канторович — советский академик, лауреат Нобелевской премии (1975), сформулировавший ряд задач линейного программирования и предложивший в 1939 году метод их решения (метод разрешающих множителей), незначительно отличающийся от симплекс-метода.

В 1931 году венгерский математик Б. Эгервари рассмотрел математическую постановку и решил задачу линейного программирования, имеющую название «проблема выбора», метод решения получил название «венгерского метода».

Л. В. Канторовичем совместно с М. К. Гавуриным в 1949 году разработан метод потенциалов, который применяется при решении транспортных задач. В последующих работах Л. В. Канторовича, В. С. Немчинова, В. В. Новожилова, А. Л. Лурье, А. Брудно, А. Г. Аганбегяна, Д. Б. Юдина, Е. Г. Гольштейна и других математиков и экономистов получили дальнейшее развитие как математическая теория линейного и нелинейного программирования, так и приложение её методов к исследованию различных экономических проблем.

Методам линейного программирования посвящено много работ зарубежных учёных. В 1941 году Ф. Л. Хитчкок поставил транспортную задачу. Основной метод решения задач линейного программирования — симплекс-метод — был опубликован в 1949 году Дж. Данцигом. Дальнейшее развитие методы линейного и нелинейного программирования получили в работах Г. Куна, А. Таккера, Гасса (Saul. I. Gass), Чарнеса (A. Charnes), Била (E.M. Beale) и др.

Одновременно с развитием линейного программирования большое внимание уделялось задачам нелинейного программирования, в которых либо целевая функция, либо ограничения, либо то и другое нелинейны. В 1951 году была опубликована работа Г. Куна и А. Таккера, в которой приведены необходимые и достаточные условия оптимальности для решения задач нелинейного программирования. Эта работа послужила основой для последующих исследований в этой области.

Начиная с 1955 года опубликовано много работ, посвященных квадратическому программированию (работы Била, Баранкина и Р. Дорфмана, Франка (M. Frank) и Ф. Вулфа [en] , Г. Марковица и др.). В работах Денниса (J. B. Dennis), Розена (J. B. Rosen) и Зонтендейка (G. Zontendijk) разработаны градиентные методы решения задач нелинейного программирования.

В настоящее время для эффективного применения методов математического программирования и решения задач на компьютерах разработаны алгебраические языки моделирования, представителями которыми являются AMPL и LINGO.

Большая Энциклопедия Нефти и Газа

Задача — безусловная оптимизация

Задачи безусловной оптимизации , которым мы уделили внимание в этом разделе, довольно редко встречаются в экономических исследованиях, основной особенностью которых является ограниченность используемых ресурсов. [1]

Таким образом, для задачи безусловной оптимизации ( X Rn) теорема 1.2 не дает ничего нового в сравнении со знакомыми результатами ( теоремы 1.2 и 1.9 гл. [2]

Исходную задачу приводим к задаче безусловной оптимизации . [3]

Как правило, при решении задач безусловной оптимизации для достаточно гладких выпуклых или вогнутых функций F () методы, использующие первые и вторые производные, сходятся быстрее, чем методы нулевого порядка. Однако при оптимизации схем в условиях сложного непредсказуемого рельефа целевых функций F ( X), их алгоритмического, неявного способа задания, например посредством решения системы дифференциальных уравнений, а также при сложной форме ограничений использование методов нулевого порядка часто предпочтительнее. Кроме того, при неявном задании / 7 ( Х) ее производные приходится определять численно, а возникающие при этом ошибки, особенно в окрестности экстремума, создают значительные трудности для точного определения точки оптимума. [4]

С помощью естественного обобщения получим задачу безусловной оптимизации , охватывающую весь блок ВПБ. [5]

Квазиньютоновские методы являются эффективным средством решения задач безусловной оптимизации . Их отличает высокая скорость сходимости, в то же время при реализации квазиньютоновских алгоритмов не приходится выполнять такие трудоемкие операции, как вычисление матрицы вторых производных или обращение матрицы. Однако при большой размерности пространства необходимость хранения и пересчета на каждом шаге матриц Hk обусловливает высокие требования к объему занимаемой памяти ЭВМ. Этот недостаток не присущ изучаемому в следующем параграфе методу сопряженных градиентов. [6]

В этом случае мы говорим о задаче безусловной оптимизации . [7]

Там же были приведены соответствующие результаты для задачи безусловной оптимизации и классической задачи на условный экстремум. В данной главе излагается общая теория необходимых и достаточных условий оптимальности в задачах математического программирования, включающая указанные результаты как частные случаи. [8]

Рассмотрим один из вариантов симплексного метода решения задачи безусловной оптимизации . [9]

Сведение исходной задачи условной оптимизации к последовательности задач безусловной оптимизации может быть выполнено с помощью функций штрафа. [10]

Задача поиска Е ( W) является задачей безусловной оптимизации . [11]

Теория необходимых и достаточных условий оптимальности в задачах безусловной оптимизации излагается в любом курсе математического анализа. [12]

Задача условной оптимизации (3.16) может быть сформулирована как задача безусловной оптимизации с помощью методов Лагранжа или штрафных функций. Тогда применяются методы безусловной оптимизации. [14]

Вообще задачи условной оптимизации более сложны, чем задачи безусловной оптимизации . Для их решения используют специально разработанные методы программирования с ограничениями. Одним из таких методов, которые относятся к методам поиска глобального экстремума, является метод сканирования, состоящий в том, что допустимая область поиска, определяемая системой ограничений, разбивается на k подобластей, в центре каждой из которых определяется значение целевой функции. Если целевая функция зависит от п параметров, необходимо выполнить kK вариантов расчета. Для надежного определения глобального минимума необходимо увеличивать число k подобластей, что приводит к большим затратам машинного времени. [15]

Ссылка на основную публикацию
Adblock
detector