Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Численные методы решения задач строительства на ЭВМ..pdf
Скачиваний:
51
Добавлен:
15.11.2022
Размер:
16.27 Mб
Скачать

8.4. Нелинейные задачи оптимизации

Большинство практических задач оптимизации приводит к

нелинейным целевым функциям и ограничениям.

Для решения нелинейных задач оптимизации предложено достаточно много алгоритмов, но ни один из этих алгоритмов не имеет по отношению к другим таких преимуществ, чтобы его можно было считать универсальным средством решения (как в линейном программировании - симплекс-метод). Это связано с тем, что при решении нелинейных задач оптимизации может получиться много локальных экстремумов (см. рис.8.1), из которых надо выбирать глобальный. Во многих практических задачах для определения того, при каких условиях локальное оптимальное решение является также и глобальным, оказываются полезными такие понятия, как выпуклость и вогнутость функций и множеств.

8.4.1. Выпуклые множества и выпуклые функции

Множество Q называется выпуклым в «-мерном пространстве, если для любой пары точек ai и сь, принадлежащих этому множеству, отрезок прямой, соединяющей их, также полностью принадлежит этому множеству. На рис.8.15 множество является

выпуклым, а множество Q2 - невыпуклым.

Примерами выпуклых плоских тел являются: любой правильный многоугольник, круг, круговой сектор, сегмент. Пространственные выпуклые

тела: шар, конус, призма, пирамида, в основании которой лежит правильный многоугольник.

Рис.8.15. Выпуклое и невыпуклое множества

Выпуклые функции играют большую роль во многих вопросах оптимизации в связи с тем, что всякий локальный минимум выпуклой функции является одновременно и глобальным.

Функцию назовем выпуклой книзу, если она определена на выпуклом множестве и значение ее в любой промежуточной точке

любого отрезка [AT x2]eQ связано со значениями на концах отрезка неравенством

Z(x,) < (1 - V ) Z ( A , ) + vZ(x2), где 0 < v < 1 (8.88) На рис.8.16 поясняется свойство выпуклости функции одного переменного: график функции проходит всегда не выше

отрезка прямой, соединяющей вершины любой пары ее ординат.

Рис.8.16. Пример выпуклой функции

Рис.8.17. К поиску глобального

 

экстремума

Если целевая функция линейна, а допустимая ооласть выпукла й |, то существует единственный глобальный минимум на границе области (на рис.8.17 точка А). Если же допустимая область — невыпуклое множество, то на границе могут иметь место локальные экстремумы. И если строить алгоритм движения вдоль невыпуклой границы допустимой области £22 к оптимальной системе, то можно попасть в точку локального минимума (точка Ь), не отличая ее от глобального минимума (точка В). Сходимость такого метода часто нельзя обосновать.

8.4.2. Классификация численных методов решения нелинейных задач оптимизации

По ряду признаков методы поиска экстремума могут быть отнесены к тому или иному классу.

В зависимости от типа искомого экстремума различают методы глобальной и локальной оптимизации.

-В зависимости от того, как при поиске экстремума функции учитываются ограничения на переменные, различают методы безусловной и условной оптимизации.

-В зависимости от количества управляемых параметров

целевой функции различают методы одномерного и многомерного поиска.

Методы поиска глобального экстремума в настоящее время являются предметом интенсивных исследований. Надежные и одновременно экономичные методы поиска глобального экстремума в настоящее время неизвестны.

Надежным, но крайне неэкономичным методом глобального поиска является метод сканирования (или метод

сеток). При его применении область определения Z(X) в пространстве управляемых параметров разбивается на к подобластей, в центре каждой из которых вычисляется значение целевой функции. Если функция зависит от п параметров, то необходимо выполнить к? вариантов расчетов. Чтобы получить достоверную картину поведения гиперповерхности отклика целевой функции, необходимо сканировать допустимую область с достаточно малым шагом. Поэтому даже для сравнительно несложных задач потери машинного времени на поиск становятся очень большими.

Этот недостаток характерен и для методов случайного поиска глобального экстремума Однако затраты ресурсов на случайный поиск можно сделать приемлемыми, если не предъявлять высоких требований к надежности определения экстремума. Чаще всего данный метод применяют для задач, содержащих не более.трех управляемых переменных.

Большинство используемых методов, как правило, являются методами локального поиска. На практике предположение о том, что локальный экстремум является глобальным, может быть проверено путем использования нескольких начальных векторов (точек). Но даже если в каждом из этих случаев получится одно и то же локальное решение, в общем случае нельзя показать, что это решение обязательно является глобальным оптимумом. К счастью для задач, соответствующих реальным физическим процессам,

целевая функция обычно является ’'хорошей” и обладает единственным экстремумом. Поэтому для большинства практических целей использование численных процедур, дающих локальный экстремум, не является большим недостатком.

Наиболее многочисленную группу методов локального поиска составляют методы безусловной оптимизации. Некоторое представление о широко применяемых методах этой группы дает рис. 8.18.

В зависимости от порядка используемых производных

целевой функции по управляемым параметрам методы безусловной оптимизации делят на методы нулевого, первого и второго порядков.

Вметодах нулевого порядка (прямых методах) информация

опроизводных не используется.

Для методов первого порядка необходимо вычислять как значение целевой функции, так и ее первые частные производные

{градиентные методы).

В методах второго порядка организация поиска экстремума ведется с учетом значений целевой функции, ее первых и вторых производных.

Одномерный поиск может рассматриваться как самостоятельная задача, если аргументом целевой функции является один параметр Z=Z(x).

Этот же поиск может использоваться в качестве части процедуры многомерной оптимизации (когда количество управляемых параметров два и более) в тех случаях, когда необходимо найти оптимальный шаг в выбранном направлении.

Часто задачи условной оптимизации преобразуют в задачи

безусловной оптимизации с помощью методов Лагранжа или

штрафных функций. После этого к ним можно применять методы безусловной оптимизации.