Добавил:
chemist5734494@gmail.com Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

учебники / osnovy-informacionnyh-tehnologiy

.pdf
Скачиваний:
1
Добавлен:
07.04.2024
Размер:
3.89 Mб
Скачать

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

Если вычисленное по формуле значение критерия больше таблич-

 

 

 

 

 

 

 

 

Т

 

 

 

Контрольные вопросы

 

ного,

то на уровне значимости α прверяемая гипотеза должна быть

 

 

 

1.

 

Сформулируйте определение математической модели.

отвергнута.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Можно поступить еще и так. Пусть

f j

 

 

абсолюное значение

 

 

 

2.

 

Перечислите основные численные методы решения техни-

частоты

j -ого интервала. Можно сравнить частоты теоретические

 

 

 

ческих задач.

 

 

 

 

 

 

3.

 

 

Г

 

 

и эмпирические. В этом случае

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Приведите примеры моделей, приводящих к необходимо-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

сти численного дифференцирования и интегрирования функций.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4.

 

Приведите примеры моделей, описываемых обыкновенны-

 

 

 

 

 

 

 

 

 

 

 

 

 

x

 

x

 

 

 

 

1

 

 

 

 

( x j x )2

 

 

 

 

 

 

 

 

 

Б

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ми дифференциальными уравнениями.

 

 

 

 

 

 

 

F

 

= n

 

 

 

max

 

 

min

 

 

 

 

 

 

 

e

 

 

2S2

,

 

 

 

(6.103)

 

 

 

5.

 

 

 

А

 

 

 

 

 

 

 

 

 

j

 

 

 

 

 

 

 

 

K

 

 

 

 

Sx 2π

 

 

 

 

x

 

 

 

 

 

 

 

В чем состоит идея методов Рунге – Кутта и прогноза и

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

коррекции?

 

 

 

 

где n – объем выборки.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6. Приведите примеры моделей, описываемых дифференци-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

альными уравнениями в частных производных.

Для нормального распределения характерно совпадение по

 

и

 

 

 

 

 

 

 

абсолютной величине средней арифметической, медианы и мо-

 

 

й

 

 

 

 

 

ды. Для этого вида распределения характерно то, что на равные

 

 

 

 

 

 

 

интервалы, измеряемые нормированным отклонением от центра

р

 

 

 

 

 

распределения, приходится равное число вариант.

 

 

 

 

 

 

 

 

 

Кривую нормального распределения характеризуют величи-

 

 

 

 

 

 

 

 

 

 

ны асимметрия ( As ) и эксцесс ( Ex ). Эти величины для рас-

 

 

 

 

 

 

 

 

 

 

сматриваемой

выборки

можно

 

определить,

зная

 

выбор чные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т

 

 

 

 

 

 

 

 

 

 

характеристики: среднюю арифметическую и дисперсию.

о

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

x)3 f

 

 

 

 

 

 

(x

 

 

x)4 f

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

As =

(x

i

i

 

 

 

 

 

i

 

i

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

,

Ex =

 

 

 

 

 

 

 

 

3

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nSx4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

nSx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(6.104)

 

 

 

 

 

 

 

 

 

 

 

6

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6

 

 

 

 

 

 

з

 

 

 

 

 

 

 

 

 

 

 

 

Можно оценить статистические ошибки выборочных характери-

 

 

 

 

 

 

 

 

 

 

стик.

 

Для выборочной

средней

 

 

о

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Sx

=

 

 

Sx2

,

 

дляиасимметрии

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

п

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S As =

 

 

 

 

 

, для эксцесса

SEx

=

2

 

 

 

 

 

. И нулевая гипотеза о том,

 

 

 

 

 

 

 

 

 

 

 

n +

3

 

n + 5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

е

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

что эмпирическое распределение нормально будет отвергаться, ес-

 

 

 

 

 

 

 

 

 

 

ли tAs

 

=

As

> 3

и tEx =

 

Ex

> 3.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SAs

 

 

Р

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SEx

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

321

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

322

7. МЕТОДЫ ОПТИМИЗАЦИИ И СИСТЕМЫ ПОДДЕРЖКИ

 

 

 

матическими моделями определенного вида. Так, математический ап-

 

ПРИНЯТИЯ РЕШЕНИЙ

 

 

 

 

 

 

 

парат линейного программирования, специально создан для решения

 

 

 

 

 

 

 

 

 

 

 

 

 

задач с линейными критериями оптимальности и линейными ограниче-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

7.1. Характеристика методов решения задач оптимизации

 

 

 

 

ниями на переменные и позволяет решать большинство задач, сформу-

 

 

 

 

лированных в такой постановке.

жеигеометрическое программи-

 

 

 

 

 

 

 

 

 

 

 

 

 

рование предназначено для решения оптимальных задач, в которых

При решении конкретной задачи оптимизации исследователь

 

 

 

 

 

Так

 

 

 

критерий оптимальности иограничения представляются специального

прежде всего должен выбрать математический метод, который при-

 

 

 

видафункциями– позиномами.

 

водил

бы к конечным

результатам

с

наименьшими затратами

 

 

 

Динамическое программирование хорошо приспособлено для

на вычисления или же давал возможность получить наибольший

 

 

 

 

А

 

 

 

 

решения задач оптимизации многостадийных процессов, особенно

объем информации об искомом решении. Выбор того или иного

 

 

 

тех, в которых состояние каждой стадии характеризуется относи-

метода в значительной степени определяется постановкой опти-

 

 

 

Г

 

 

 

 

 

тельно небольшим числом переменных состояния. Однако при на-

мальной задачи, а также используемой математической моделью

 

 

 

личии значительного числа этих переменных, т. е. при высокой

объекта оптимизации.

 

 

 

 

 

 

 

 

 

 

 

размерности каждой стадии, применение метода динамического

В настоящее время для решения оптимальных задач применяют

 

 

 

программированияБ

затруднительно вследствие ограниченного бы-

в основном следующие методы:

 

 

 

 

 

 

 

 

 

 

строде ствия и объема памяти.

 

методы исследования функций классического анализа;

 

 

 

 

 

Наилучшим путем при выборе метода оптимизации, наиболее

методы, основанные на использовании неопределенных мно-

 

 

 

пригодного для решения соответствующей задачи, следует при-

жителей Лагранжа;

 

 

 

 

 

 

 

 

 

 

й

 

 

 

 

 

 

 

 

 

 

 

 

и

знать исследование возможностей и опыта применения различных

вариационное исчисление;

 

 

 

 

 

 

 

методов оптимизации. Ниже приводится краткий обзор математи-

динамическое программирование;

 

 

 

 

 

 

ческих методов решения оптимальных задач и примеры их исполь-

принцип максимума;

 

 

 

 

 

 

 

р

 

зования. Здесь же дана лишь краткая характеристика указанных ме-

линейное программирование;

 

 

 

 

 

 

 

тодов и областей их применения, что до некоторой степени может

нелинейное программирование.

 

 

 

 

 

 

 

облегчить выбор того или иного метода для решения конкретной

В последнее время разработан и успешно применяе ся для ре-

 

 

 

оптимальной задачи.

 

 

 

 

 

Методы исследования функций классического анализа представля-

шения определенного класса задач метод геометр ческого

 

-

 

 

 

граммирования.

 

 

 

 

 

 

про

 

 

ют собой наиболее известные методы решения несложных оптималь-

Как правило, нельзя рекомендовать какой-либо од н метод, ко-

 

 

 

ных задач, которые известны из курса математического анализа.

торый можно использовать для решения всех

 

сключен я за-

 

 

 

Обычной областью использования данных методов являются задачи

дач, возникающих на практике. Одни методы в этомотношении

яв-

 

 

 

с известным аналитическим выражением критерия оптимальности,

 

 

 

что позволяет найти не очень сложное, также аналитическое выраже-

ляются более общими,

другие – менее

бщими. Наконец, целую

 

 

 

ние для производных. Полученные приравниванием к нулю производ-

группу методов (методы исследования функций классического ана-

 

 

 

 

 

 

ных уравнения, определяющие экстремальные решения оптимальной

 

 

 

 

 

без

 

 

 

 

 

лиза, метод множителей Лагранжа, мет ды нелинейного програм-

 

 

 

задачи, крайне редко удается решить аналитическим путем, поэтому,

мирования) на определенных эта ах решения

птимальной задачи

 

 

 

можно применять в сочетании с другими

 

 

, например ди-

 

 

 

как правило, применяют вычислительные машины. При этом надо

намическим программировани м или

методами

 

 

 

 

 

 

решить систему конечных уравнений, чаще всего нелинейных, для че-

ринци ом максимума.

 

 

 

 

 

го приходится использовать численные методы, аналогичные методам

Отметим также, что н

 

м тоды с ециально разработаны или

 

 

 

наилучшим образом подходят дляпр ш ния оптимальных задач с мате-

 

 

 

нелинейногопрограммирования.

 

 

 

 

323

 

 

 

 

 

 

 

 

 

 

 

 

324

 

 

которые

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Р

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

Дополнительные трудности при решении оптимальной задачи

 

 

 

 

 

Т

 

 

 

системы конечных уравнений для отыскания оптимума необходимо

методами исследования функций классического анализа возникают

 

 

 

интегрировать систему дифференциальных уравнений.

вследствие того, что система уравнений, получаемая в результате

 

 

 

 

Следует отметить, что множители Лагранжа используют также

их применения, обеспечивает лишь необходимые условия опти-

 

 

 

 

А

 

 

 

 

в качестве вспомогательного средства и при решении специальны-

мальности. Поэтому все решения данной системы (а их может быть

 

 

 

ми методами задач других классов с ограничениями типа равенств,

и несколько) должны быть проверены на достаточность. В резуль-

 

 

 

 

Г

 

 

 

 

 

например, в вариационном исчислении и динамическом програм-

тате такой проверки сначала отбрасывают решения, которые не оп-

 

 

 

мировании. Особенно эффективно применение множителей Ла-

ределяют экстремальные значения критерия оптимальности, а за-

 

 

 

гранжа в методе динамического программирования, где с их помо-

тем среди остающихся экстремальных решений выбирают решение,

 

 

 

щью иногда удается снизить размерность решаемой задачи.

удовлетворяющее условиям оптимальной задачи, т. е. наибольшему

 

 

 

 

Методы вариационного исчисления обычно используют для ре-

или наименьшему значению критерия оптимальности в зависимо-

 

 

 

шения задач, в которых критерии оптимальности представляются

сти от постановки задачи.

 

 

 

 

 

 

 

 

 

 

в виде функционалов и решениями которых служат неизвестные

Методы исследования при наличии ограничений на область из-

 

 

й

 

 

 

 

 

функции. Такие задачи возникают обычно при статической опти-

менения независимых переменных можно использовать только для

 

 

 

мизации процессов с распределенными параметрами или в задачах

поиска экстремальных значений внутри указанной области. В осо-

 

и

динамическойБоптимизации.

 

бенности это относится к задачам с большим числом независимых

 

 

Вариационные методы позволяют в этом случае свести реше-

 

 

 

 

переменных (практически больше двух), в которых анализ значе-

р

 

н

е оптимальной задачи к интегрированию системы дифферен-

ний критерия оптимальности на границе допустимой области изме-

 

ц

альных уравнений Эйлера, каждое из которых является нели-

 

 

 

нения переменных становится весьма сложным.

 

 

 

 

 

 

 

нейным дифференциальным уравнением второго порядка с гра-

Метод множителей Лагранжа применяют для решения задач

 

 

 

н чными условиями, заданными на обоих концах интервала

 

 

 

 

 

 

 

 

 

о

 

 

интегрирования. Число уравнений указанной системы при этом

такого же класса сложности, как и при использовании обычных ме-

 

 

 

тодов исследования функций, но при наличии ограничений типа

 

 

 

равно числу неизвестных функций, определяемых при решении

приходится решать те же задачи, что и без огран чен й.

Некоторое

 

 

 

ны на экстремум функционала.

 

равенств на независимые переменные. К требованию возможн сти

 

 

 

оптимальной задачи. Каждую функцию находят в результате ин-

получения аналитических выражений для производных от кри ерия

 

 

 

тегрирования получаемой системы.

оптимальности при этом добавляется аналогичное

 

 

-

 

 

 

 

Уравнения Эйлера выводятся как необходимые условия экстре-

 

 

 

 

 

 

требование

 

 

 

 

мума функционала. Поэтому полученные интегрированием систе-

носительно аналитического вида уравнений ограничений.

 

 

 

 

 

В основном при использовании метода множ телей Лагранжа

 

 

 

мы дифференциальных уравнений функции должны быть провере-

усложнение в данном случае возникает лишь от введен я дополни-

 

 

 

 

При наличии ограничений типа равенств, имеющих вид функ-

 

 

 

 

 

о

 

 

 

 

 

 

 

ционалов, применяют множители Лагранжа, что дает возможность

тельных неопределенных множителей, вследств е чего порядок

 

 

 

системы уравнений, решаемой для нах ждения экстремумов крите-

 

 

 

перейти от условной задачи к безусловной. Наиболее значительные

рия оптимальности, соответственно п вышается на число ограни-

 

 

 

трудности при использовании вариационных методов возникают

 

 

 

п

 

 

проверки

 

 

 

в случае решения задач с ограничениями типа неравенств.

чений. В остальном процедура

 

иска решенийзи

 

 

 

 

их на оптимальность отвечает

роцедуре решения задач без огра-

 

 

 

 

Заслуживают внимания прямые методы решения задач опти-

ничений.

 

основе

 

 

 

 

 

 

 

 

мизации функционалов, обычно позволяющие свести исходную

 

 

 

 

 

 

 

 

 

 

 

 

Множители Лагранжа можно

рим нять для решения задач оп-

 

 

 

вариационную задачу к задаче нелинейного программирования,

тимизации объектов на

 

уравн ний с частными производны-

 

 

 

решить которую иногда проще, чем краевую задачу для уравне-

 

Р

 

 

 

 

 

 

 

 

 

 

ний Эйлера.

 

 

ми и задач динамической оптимизации. При этом вместо решения

 

 

 

 

 

 

 

 

325

 

 

 

 

 

 

 

 

 

 

 

326

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

 

Динамическое программирование служит эффективным методом

 

 

 

 

 

 

Т

 

 

 

 

функций; это свойственно многим задачам оптимизации, например,

решения задач оптимизации дискретных многостадийных процес-

 

 

 

задачам оптимального управления объектами, описываемыми ли-

сов, для которых критерий оптимальности задается как аддитивная

 

 

 

нейными дифференциальными уравнениями.

 

функция критериев оптимальности отдельных стадий. Без особых

 

 

 

 

 

А

 

 

 

 

 

Нахождение оптимального решения при использовании принци-

затруднений указанный метод можно распространить и на случай,

 

 

 

па максимума сводится к задаче интегрирования системы диффе-

когда критерий оптимальности задан в другой форме, однако при

 

 

 

 

Г

 

 

 

 

 

 

ренциальных уравнений процесса и сопряженной системы для

этом обычно увеличивается размерность отдельных стадий.

 

 

 

вспомогательных

функций при граничных условиях, заданных

По существу метод динамического программирования представля-

 

 

 

на обоих концах интервала интегрирования, т. е. к решению крае-

ет собой алгоритм определения оптимальной стратегии управления

 

 

 

вой задачи. На область изменения переменных могут быть наложе-

на всех стадиях процесса. При этом закон управления на каждой ста-

 

 

 

ны ограничения. Систему дифференциальных уравнений интегри-

дии находят путем решения частных задач оптимизации последова-

 

 

 

руют, применяя обычные программы на цифровых вычисли-

тельно для всех стадий процесса с помощью методов исследования

 

 

 

тельных машинах.

 

 

 

 

функций классического анализа или методов нелинейного програм-

 

 

й

 

 

 

 

 

 

 

 

Принцип максимума для процессов, описываемых дифференци-

мирования. Результаты решения обычно не могут быть выражены

 

 

 

альными уравнениями, при некоторых предположениях является

в аналитической форме, аполучаются в виде таблиц.

 

 

 

 

и

достаточнымБусловием оптимальности. Поэтому дополнительной

Ограничения на переменные задачи не оказывают влияния

 

проверки на оптимум получаемых решений обычно не требуется.

 

 

 

на общий алгоритм решения,

а учитываются при решении част-

р

 

Для дискретных процессов принцип максимума в той же форму-

ных задач оптимизации на каждой стадии процесса. При наличии

 

л ровке, что и для непрерывных, вообще говоря, несправедлив.

 

 

 

ограничений типа равенств иногда даже удается снизить размер-

 

 

 

Однако условия оптимальности, получаемые при его применении

ность этих частных задач за счет использования множителей Ла-

 

 

 

для многостадийных процессов, позволяют найти достаточно удоб-

 

 

 

 

 

 

 

 

о

 

 

ные алгоритмы оптимизации.

 

 

гранжа. Применение метода динамического программирования

 

 

 

 

 

для оптимизации процессов

с распределенными

параметрами

 

 

 

Линейное программирование представляет собой математиче-

или в задачах динамической оптимизации приводит к решению

 

 

 

ский

аппарат, разработанный для решения оптимальных задач

дифференциальных уравнений в частных производных. Вмес

 

 

 

с линейными выражениями для критерия оптимальности и линей-

решения таких уравнений зачастую значительно проще предс а-

 

 

 

ными ограничениями на область изменения переменных. Такие за-

 

 

 

 

 

 

 

граммирования

 

 

 

дачи обычно встречаются при решении вопросов оптимального

вить непрерывный процесс как дискретный с доста очно боль-

 

 

 

шим числом стадий. Подобный прием оправдан особенно в ех

 

 

 

планирования производства с ограниченным количеством ресурсов,

случаях, когда имеются ограничения

на переменныетзадачи

 

 

 

при определении оптимального плана перевозок (транспортные за-

и прямое решение дифференциальных

уравнен й

осложняется

 

 

 

дачи) и т. д.

 

 

 

 

необходимостью учета указанных

ограничений

 

 

 

 

 

 

Для решения большого круга задач линейного программирова-

 

 

.

 

 

 

 

 

 

При решении задач методом динамическ го пр

 

,

 

 

 

ния имеется практически универсальный алгоритм – симплексный

как правило, используют вычислительные машины,

 

бладающие дос-

 

 

 

метод, позволяющий за конечное число итераций находить опти-

 

 

опр

 

 

 

 

 

 

мальное решение подавляющего большинства задач. Тип исполь-

таточным объемом памяти для хранения

межутзчных результатов

 

 

 

решения, которыеобычно получаются в табличн й ф рме.

 

 

 

зуемых ограничений (равенства или неравенства)

не сказывается

Принцип максимума

применяют

 

 

 

 

 

 

 

 

на возможности применения указанного алгоритма. Дополнитель-

 

 

для решения задач оптимизации

 

 

 

процессов, описываемых сист мами дифференциальных уравнений.

 

 

 

ной проверки на оптимальность для получаемых решений не требу-

Достоинством математич ского а

арата

ринципа максимума яв-

 

 

 

ется. Как правило, практические задачи линейного программирова-

Р

 

 

деляться в

виде разрывных

 

 

 

ния

отличаются

весьма значительным числом

независимых

ляется то, что решение мож т

 

 

 

 

 

 

327

 

 

 

 

 

 

 

 

 

 

 

 

 

328

 

 

 

 

 

 

 

 

 

 

 

 

 

У

переменных. Поэтому для их решения обычно используют вычис-

 

 

 

 

Т

 

 

 

Специфической особенностью методов решения оптимальных

лительные машины, необходимая мощность которых определяется

 

 

 

задач (за исключением методов нелинейного программирования)

размерностью решаемой задачи.

 

 

 

 

 

 

 

 

 

является то, что до некоторого этапа оптимальную задачу решают

Методы нелинейного программирования применяют для реше-

 

 

 

А

 

 

 

 

аналитически, т. е. находят определенные аналитические выраже-

ния оптимальных задач с нелинейными функциями цели. На неза-

 

 

 

ния, например, системы конечных или дифференциальных уравне-

висимые переменные могут быть наложены ограничения также

 

 

 

Г

 

 

 

 

 

ний, откуда уже отыскивают оптимальное решение. В отличие

в виде нелинейных соотношений, имеющих вид равенств или нера-

 

 

 

от указанных методов при использовании методов нелинейного

венств. По существу методы нелинейного программирования ис-

 

 

 

программирования, которые, как уже отмечалось выше, могут быть

пользуют, если ни один из перечисленных выше методов не позво-

 

 

 

названы прямыми, применяют информацию, получаемую при вы-

ляет сколько-нибудь продвинуться в решении оптимальной задачи.

 

 

 

числении критерия оптимальности, изменение которого служит

Поэтому указанные методы иногда называют также прямыми ме-

 

 

 

оценкой эффективности того или иного действия.

тодами решения оптимальных задач.

 

 

 

 

 

 

 

 

Важной характеристикой любой оптимальной задачи является

Для получения численных результатов важное место отводится

 

 

й

 

 

 

 

 

ее размерность п, равная числу переменных, задание значений ко-

нелинейному программированию и в решении оптимальных задач

 

 

 

торых необходимо для однозначного определения состояния опти-

такими методами, как динамическое программирование, принцип

 

и

мизируемогоБобъекта. Как правило, решение задач высокой раз-

максимума и т. п. на определенных этапах их применения.

 

 

 

мерности связано с необходимостью выполнения большого объема

 

 

 

 

 

Названием «методы нелинейного программирования» объединя-

р

 

вычислений. Ряд методов (например, динамическое программиро-

ется большая группа численных методов, многие из которых при-

 

вание и дискретный принцип максимума) специально предназначен

 

 

 

способлены для решения оптимальных задач соответствующего

 

 

 

для решения задач оптимизации процессов высокой размерности,

класса. Выбор того или иного метода обусловлен сложностью вы-

 

 

 

которые могут быть представлены как многостадийные процессы

 

 

 

 

 

про

 

 

с относительно невысокой размерностью каждой стадии.

числения критерия оптимальности и сложностью ограничивающих

 

 

 

условий, необходимой точностью решения, мощностью имеющейся

 

 

 

В табл. 7.1 дана характеристика областей применения различных

вычислительной машины и т. д. Ряд

 

методов нелинейного

 

-

 

 

 

методов оптимизации, при этом за основу положена сравнительная

граммирования практически постоянно используется в соче ании с

 

 

 

оценка эффективности использования каждого метода для решения

другими методами оптимизации, как например, метод сканир ва-

 

 

 

различных типов оптимальных задач. Классификация задач прове-

ния в динамическом программировании. Кроме того, э и ме оды

 

 

 

дена по следующим признакам:

 

служат основой построения систем автоматической оп м зац

 

 

 

вид математического описания процесса;

оптимизаторов, непосредственно применяющихся для управлен я

 

 

 

тип ограничений на переменные процесса;

производственными процессами.

 

 

т

 

 

 

 

 

 

 

 

 

 

 

число переменных.

 

 

Геометрическое программирование

есть метод решен я одного

 

 

 

Предполагается, что решение оптимальной задачи для процессов,

специального класса задач нелинейного пр граммир

вания, в которых

 

 

 

описываемых системами конечных уравнений, определяется как ко-

критерий оптимальности и ограничения задаются в виде полиномов–

 

 

 

нечный набор значений управляющих воздействий (статическая оп-

ние дляцелевых функций иограничпроектированииний.

 

 

 

 

 

 

мизацияпроцессов сраспределенными параметрами).

выражений, представляющих собой сумму призведений степенных

 

 

 

тимизация процессов с сосредоточенными параметрами), адля про-

функций от независимых переменных. С

д бными задачами иногда

 

 

 

цессов, описываемых системами обыкновенных дифференциальных

е

Кроме.

 

 

 

 

 

 

 

 

 

приходится сталкиваться в

 

того, некоторые

 

 

 

уравнений, управляющие воздействия характеризуются функциями

задачи нелинейного программирования иногда можно свести к ука-

 

 

 

времени (динамическая оптимизация процессов ссосредоточенными

занному представлению, используя

роксимационное представле-

 

 

 

параметрами) или пространственных переменных (статическая опти-

Р

329

 

 

 

 

 

 

 

 

 

 

330

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Таблица 7.1

 

 

 

 

 

 

 

 

Окончаниетаблицы7.1

 

 

Области применения методов оптимизации

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Примечание:

 

У

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1. Эффективное применение метода.

 

 

Вид описания

 

 

Конечное уравнение

 

 

 

 

Дифференциальное

 

 

 

2. Используется.

А

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3. Возможно применение.

 

 

 

 

 

процесса

 

 

 

 

 

 

 

 

уравнение

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

4. Используется как вспомогательный метод.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5. Многостадийные процессы (размерностьТуказывается для отдельной стадии).

Тип ограничений

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Нет

 

Равенство

Неравенство

 

Нет

РавенствоНеравенство

 

 

 

6. Задачи с линейными критериями оптимальности и линейными ограничениями.

 

на переменные

 

 

 

 

 

7. Используются множители Лагранжа.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

8. Задачи с критериями и ограничениями в форме позиномов.

 

Числопеременныхп

<3

 

>3

<3

 

>3

<3

 

>3

 

<3

>3

<3

>3

<3

 

>3

 

 

 

Классификация задач по группам счислом независимых переменных,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

большим и меньшимГтрех или равным трем как характеристика размер-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Б

 

 

 

 

 

 

Методы

1

 

2

4

 

4

4

 

4

 

3

 

4

4

4

4

 

4

 

 

 

ности задач с большим и малым числом переменных, разумеется, весьма

 

классического

 

 

 

 

 

 

 

 

 

условна и в данном случае выбрана скорее изсоображений наглядности

 

анализа

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

графическогоизображенияпространстваизмененияпеременныхзадачи–

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

фазового пространства (при числе переменных большем трех графиче-

 

Множители

 

1

 

2

 

 

 

2

3

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ское изображение фазового пространства обычными приемами отсутст-

 

Лагранжа

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

вует). Тем не менее, такая классификация до некоторой степени все же

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

р

 

 

Вариационное

 

 

 

 

 

 

 

2;

3;

 

 

 

 

отражает действительные трудности, возникающие при решении задач

 

 

 

 

 

2

 

3

 

 

 

й

 

 

 

 

 

 

исчисление

 

 

 

 

 

 

 

 

 

 

 

7

7

 

 

 

 

сразмерностьювышетрех.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Динамическое

1;

 

3;

1;5;

 

3;5;

1;5

3;5

 

2

 

3

3

3

3

 

о

 

 

7.1.1. Численные методы безусловной оптимизации нулевого

метода

программирование

5

 

5

7

 

7

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

порядка

 

 

 

 

 

Тип

Принцип

2;

 

1;

2;

 

2;

2;

 

2;

 

1

 

1

2

2

2

 

2

 

 

 

7.1.1.1. Основные определения

 

 

 

 

 

 

 

 

 

 

 

Решение многих теоретических и практических задач сводится к

 

максимума

5

 

5

5

 

5

5

 

5

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

отысканию экстремума (наибольшего или наименьшего значения)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т

 

 

 

 

Линейное

 

 

2;

2;

 

1;

 

 

 

 

скалярной функции f(х) n-мерного векторного аргументах. В даль-

 

программирование

 

 

6

6

 

6

 

– –

 

 

 

 

нейшем под x будем понимать вектор-столбец (точку в n-мерном

 

 

 

 

 

 

 

 

 

 

о

 

 

и

 

 

 

 

 

пространстве):

 

 

xn

 

 

 

Методы

 

 

 

 

 

 

 

 

 

з4 4 4

 

 

 

 

 

 

 

 

 

 

x1

 

 

 

нелинейного

2

 

1

2

 

1

2

 

1

4

4

4

 

 

 

 

x =

 

x2

.

(7.1)

 

программирование

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Геометрическое

2;

 

2;

е

2;

 

2;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

программирование

8

 

8

8

 

8

 

 

 

 

 

 

Вектор-строка получается путем применения операции транспо-

 

 

 

Р

 

п

 

 

 

 

 

 

 

 

 

 

 

 

нирования:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

331

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

332

 

 

xT = (x1 , x2 ,, xn ).

 

 

 

(7.2)

 

 

 

В реальных условиях на переменные xi , i=1, …, n, и неко-

Оптимизируемую функцию f(x) называют функцией или крите-

 

 

 

торые функции

gi(х), hi(х),

характеризующие

качественные

 

 

 

свойства объекта, системы, процесса, могут быть наложены

рием оптимальности.

 

 

 

 

 

 

 

 

 

 

ограничения (условия) вида:

 

 

У

 

В дальнейшем без ограничения общности будем говорить о по-

 

 

 

 

 

 

gi (Тх) = 0, i=1, ….n;

 

иске минимального значения функции f(x) и записывать эту задачу

 

 

 

 

 

 

 

следующим образом: f (x)→ min . Вектор х*, определяющий ми-

 

 

 

 

 

 

 

 

 

 

 

 

 

hi (х) <= 0, i=1, …. n;

(7.3)

нимум целевой функции, называют оптимальным.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

a <= x <= b,

 

Отметим, что задачу максимизации f(x) можно заменить эквива-

 

 

 

 

 

А

 

 

 

 

 

 

 

 

лентной ей задачей минимизации или наоборот. Рассмотрим это на

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

Г

 

 

 

 

 

 

 

 

 

 

примере функции одной переменной (рис. 7.1). Если х* – точка ми-

 

 

 

 

 

 

 

 

 

 

 

 

 

нимума функции y = f(x), то для функции y = –f(x) она является точ-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Б

 

 

 

 

 

 

 

 

 

 

 

кой максимума, так как графики функций f(x) и – f(x), симметричны

 

 

 

 

 

 

a1

 

 

 

 

b1

 

 

 

 

 

 

 

 

 

 

 

 

 

относительно оси абсцисс. Итак, минимум функции f(x) и макси-

 

 

 

 

 

 

a2

 

 

 

 

b2

 

 

 

мум функции – f(x) достигаются при одном и том же значении пе-

 

 

 

 

 

 

 

 

 

 

 

 

 

ременной. Минимальное же значение функции f(x), равно макси-

 

 

й

 

a =

 

, b =

 

 

.

(7.4)

мальному значению функции –

f(x), взятому с противоположным

 

 

 

 

an

 

 

 

 

bn

 

 

 

знаком, т.е. min f(x) = – max(f(x)).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рассуждая аналогично, этот вывод нетрудно распространить

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

 

 

 

 

 

 

 

 

 

 

 

 

 

на случай функции многих переменных. Если требуется заменить

 

Такую задачу называют задачей условной оптимизации.

задачу минимизации функции f(x1, …, xn) задачей максимизации,

 

При отсутствии ограничений имеет место задача безусловной

то достаточно вместо отыскания минимума этой функции найти

р

 

оптимизации.

 

 

 

 

 

 

 

 

 

 

 

максимум функции f(x1, …, xn). Экстремальные значения

этих

 

Каждая точка х в n-мерном пространстве переменных х1, …,

функций достигаются при одних и тех же значениях переменных.

 

хn, в которой выполняются ограничения, называется допусти-

Минимальное значение функции f(x1, …, xn) равно

 

 

 

му

 

 

 

мой точкой задачи. Множество всех допустимых точек назы-

значению функции – f(x1, …, xn), взятому с обратным знаком,

 

. е.

 

 

 

вают допустимой областью G. Решением задачи (оптимальной

 

 

 

 

 

 

 

о

 

 

min f(x1, …, xn) =max f(x1, …,

xn). Отмеченный

факт

позволяет

 

 

 

точкой) называют допустимую точку х*, в которой целевая

в дальнейшем говорить только о задаче минимизац

.

 

 

 

функция f(х) достигает своего минимального значения.

 

 

 

 

максимальн

 

 

 

 

Точка х* определяет глобальный минимум функции одной

 

 

 

 

 

 

 

 

переменной f(x), заданной на числовой прямой Х , если x* Х

 

 

 

з

 

 

 

 

 

 

и f(x*) < f(x) для всех x* Х (рис. 7.2, а). Точка х* называется

 

 

 

 

 

 

 

 

 

точкой строгого глобального минимума, если это неравенство

 

 

о

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

выполняется как строгое. Если же в выражении f(х*) <= f(x) ра-

 

 

 

 

 

 

 

 

 

венство возможно при х, не равных х*, то реализуется нестро-

 

 

 

 

 

 

 

 

 

гий минимум, а под решением в этом случае понимают множе-

 

 

 

 

 

 

 

 

 

 

 

Рис. 7.1. Экстр мум функции одной переменной

 

 

 

 

 

 

ство х* = [ x* Х : f(x) = f(x*)] (рис. 7.2, б).

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

п

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

333

 

 

 

 

 

 

 

 

 

 

 

 

 

 

334

 

 

 

 

 

е

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Р

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7.1.1.2. Классификация методов

 

 

 

 

 

 

 

 

 

 

 

 

 

Возможны два подхода к решению задачи отыскания минимума

 

 

 

 

 

 

 

 

 

 

функции многих переменных f(x) = f(x1, ..., хn) при отсутствии огра-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

 

 

 

 

 

 

 

 

 

 

 

ничений на диапазон изменения неизвестных. Первый подход ле-

 

 

 

 

 

 

 

 

 

 

жит в основе косвенных методов оптимизации и сводит решение

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Т

 

 

 

 

 

 

 

 

 

 

 

 

 

задачи оптимизации к решению системы нелинейных уравнений,

 

 

 

 

 

 

 

 

 

 

являющихся следствием условий экстремума функции многих пе-

 

 

 

 

 

 

 

 

 

 

ременных. Как известно, эти условия определяют, что в точке экс-

 

 

 

 

 

 

 

 

 

 

тремума х* все первыеАпроизводные функции по независимым пе-

 

 

 

 

 

 

 

 

 

 

ременным равны нулю:

 

 

 

 

 

 

 

 

Рис. 7.2. Глобальный минимум: а – строгий, б – нестрогий

 

 

 

 

 

Г

f

 

 

= 0 , i=1, …, n.

 

(7.5)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xi

 

 

Точка х* Х определяет локальный минимум функции f(x)

 

 

 

 

 

x=x*

 

 

 

 

 

 

 

БЭти условия образуют систему n нелинейных уравне-

на множестве Х , если при некотором достаточно малом ε > 0

 

 

 

 

 

 

,

среди решений которой находятся точки минимума

для всех х, не равных х*, x X, удовлетворяющих условию

 

 

 

 

 

 

переменной.

 

 

 

 

 

 

 

 

¦х – х*¦<= ε, выполняется неравенство f(х*) < f(х). Если нера-

 

 

 

 

 

 

 

 

 

 

 

 

 

ний

 

 

 

 

f (x)

 

f (x) T

 

венство строгое, то х* является точкой строгого локального

 

 

 

 

 

 

 

 

минимума. Все определения для максимума функции получа-

 

и

 

f ′(x)

=

 

,,

 

 

 

 

 

x1

xn

 

ются заменой знаков предыдущих неравенств на

обратные.

 

 

 

 

 

 

 

,

(7.6)

На рис. 7.3 показаны экстремумы функции одной переменн й

 

 

 

 

 

 

 

 

 

 

 

р

 

называют градиентом скалярной функции f(x). Как видно, в точке

f(х) на отрезке [a, b] . Здесь х1, х3, х6 точки локального мак-

 

 

минимума градиент равен нулю.

 

 

 

 

симума, а х2, х4 локального минимума. В точке х6

 

-

 

 

 

 

 

 

 

Решение систем нелинейных уравнений – задача весьма сложная

ся глобальный максимум, а в точке х2 – глобальный минимум.

 

 

 

 

 

 

 

и трудоемкая. Вследствие этого на практике используют второй

 

 

 

 

 

 

о

 

 

 

 

 

 

 

 

 

 

подход к минимизации функций, составляющий основу прямых

 

 

 

 

 

 

 

 

методов. Суть их состоит в построении последовательности векто-

 

 

 

 

 

реализует

 

 

 

 

 

 

 

 

 

 

 

ров х [0], х [1], …, х [n], таких, что f(х[0])> f(х [1])> f(х [n])>… В ка-

 

 

 

 

и

 

 

 

 

честве начальной точки x[0] может быть выбрана произвольная

 

 

 

 

 

 

 

 

точка, однако стремятся использовать всю имеющуюся информа-

 

 

 

 

 

 

 

 

цию о поведении функции f(x), чтобы точка x[0] располагалась

 

 

 

з

 

 

 

 

как можно ближе к точке минимума. Переход (итерация) от точки

 

 

 

 

 

 

 

х [k] к точке х [k + 1], k = 0, 1, 2, ..., состоит из двух этапов:

 

 

 

о

 

 

 

 

 

 

1.

выбор направления движения из точки х [k];

 

 

 

 

 

 

 

 

 

2.

определение шага вдоль этого направления.

 

 

 

 

 

 

 

 

 

Методы построения таких последовательностей часто называют

 

 

 

 

 

 

 

 

 

 

. 7.3. Экстр мумы функции

 

 

 

 

 

 

методами спуска, так как осуществляется переход от больших зна-

 

 

 

 

 

 

чений функций к меньшим.

 

 

 

 

 

 

п

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

335

 

 

 

 

 

 

 

 

 

 

 

 

 

336

 

 

 

е

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

Математически методы спуска описываются соотношением:

 

 

 

 

 

Т

 

 

 

 

в точке х [k] информации. Если же при переходе используется ка-

x[k+1] = x[k] + akp[k], k = 0, 1, 2, ... ,

 

 

 

 

 

 

 

кой-либо случайный механизм, то алгоритм поиска называется слу-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

чайным поиском минимума.

 

где p[k] – вектор, определяющий направление спуска;

 

 

 

 

 

 

А

 

 

 

 

 

 

 

Детерминированные алгоритмы безусловной минимизации де-

ak – длина шага.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

лят на классы в зависимости от вида используемой информации.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Г

 

 

В координатной форме:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Если на каждой итерации используются лишь значения минимизи-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

руемых функций, то метод называется методом нулевого порядка.

 

x

 

k

+1

= x

 

k

]

+ a

 

p

k

]

 

 

 

 

 

 

 

 

 

Если требуется вычисление первых производных минимизируемой

 

 

1 [

 

 

]

 

1 [

 

 

 

 

k

 

1 [

 

 

 

 

 

 

 

 

 

 

 

функции, то имеют место методы первого порядка, при необходи-

 

 

 

[

 

 

 

 

 

[

 

 

]

 

 

 

 

[

 

 

]

 

 

 

 

 

 

 

 

 

x

k

+1

= x

k

+ a p

k

.

 

 

 

(7.7)

 

 

 

мости дополнительного вычисления вторых производных – мето-

 

 

2

 

 

]

 

2

 

 

 

k

2

 

 

 

 

 

 

 

 

ды второго порядка.

 

 

 

...........................................

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В настоящее время разработано множество численных методов

 

xn [k +1]= xn [k]+ ak pn [k]

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

для задач как безусловной, так и условной оптимизации. Естест-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

венным является стремление выбрать для решения конкретной за-

Различные методы спуска отличаются друг от друга способами

 

и

дачиБнаилучший метод, позволяющий за наименьшее время ис-

выбора двух параметров – направления спуска и длины шага вдоль

 

пользования ЭВМ получить решение с заданной точностью.

 

 

 

этого направления. На практике применяются только методы, обла-

 

 

 

 

 

 

Качество численного метода характеризуется многими факторами:

дающие сходимостью. Они позволяют за конечное число шагов по-

 

 

 

 

 

 

скоростью сходимости, временем выполнения одной итерации, клас-

лучить точку минимума или подойти к точке, достаточно близкой

 

 

 

 

 

й

 

 

к точке минимума. Качество сходящихся итерационных методов

 

 

 

сом решаемых задач и т. д. Решаемые задачи также весьма разнооб-

 

 

 

разны: они могут иметь высокую и малую размерность, быть унимо-

оценивают по скорости сходимости.

 

 

 

 

 

 

 

 

 

 

 

 

 

о

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

р

 

дальными (обладающими одним экстремумом) и многоэкстре-

В методах спуска

 

решение

задачи

теоретически

получается

 

 

 

мальными и т. д. Один и тот же метод, эффективный для решения

за бесконечное число итераций.

На практике вычисления прекра-

 

 

задач одного типа, может оказаться совершенно неприемлемым для

щаются при выполнении некоторых критериев (условий) ос ан ва

 

 

задач другого типа. Очевидно, что разумное сочетание разнообразных

итерационного процесса. Например, это может быть условие мало-

 

 

 

 

 

 

методов, учет их свойств позволят с наибольшей эффективностью ре-

сти приращения аргумента:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

шать поставленные задачи. Многометодный способ решения весьма

 

 

 

 

x[k]

x[k 1] < ε,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

з

 

(7.8)

 

 

 

удобен в диалоговом режиме работы с ЭВМ. Для успешной работы в

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

таком режиме очень полезно знать основные свойства, специфику ме-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

т

 

 

 

или функции:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

и

 

 

 

 

тодов оптимизации. Это обеспечивает способность правильно ориен-

 

 

(

 

[

 

])

 

 

(

 

 

[

 

 

 

])

 

 

 

 

 

 

 

 

тироваться в различных ситуациях, возникающих в процессе расчетов,

f x k f x k 1 <

γ,

(7.9)

 

 

 

и наилучшим образом решить задачу.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

п

 

 

 

 

 

 

 

 

 

 

 

 

 

где k – номер итерации;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

7.1.1.3. Общая характеристика методов нулевого порядка

ε, γ – заданные величины точности решения задачи.

 

 

 

 

 

 

 

 

 

 

 

 

 

е

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В этих методах для определения направления спуска не требует-

Методы поиска точки минимума называютсяодетерминирован-

 

 

 

 

 

 

ся вычислять производные целевой функции. Направление мини-

ными, если оба элемента п р хода от х[k] к x[k + l] (направление

 

 

 

мизации в данном случае полностью определяется последователь-

Р

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ными вычислениями значений функции. Следует отметить, что при

движения и величина шага) выбираются однозначно по доступной

 

 

 

 

 

 

 

 

 

 

 

337

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

338

решении задач безусловной минимизации методы первого и второ-

 

 

 

3.

 

Циклически изменяют каждую координату хбi i = 1, ..., п,

го порядков обладают, как правило, более высокой скоростью схо-

 

 

базисной точки хб на величину хi, i = 1, ..., п , т. е. хi[k] = хб +

димости, чем методы нулевого порядка. Однако на практике вы-

 

 

+

х;

хi[k] =

б

хi. При этом вычисляют значения f(x[k])

 

 

 

 

 

 

 

 

 

 

 

х

i

числение первых и вторых производных функции большого

 

 

и сравнивают

их

 

 

 

Уб

б

),

 

 

 

со значением f(x

). Если f(x[k]) <

f(x

количества переменных весьма трудоемко. В ряде случаев они

 

 

то соответствующая координата хi, i = 1, ..., п , приобретает

не могут быть получены в виде аналитических функций. Определе-

 

 

новое значение, вычисленноеТпо одному из приведенных вы-

ние производных с помощью различных численных методов осу-

 

 

ражений. В противном случае значение этой координаты оста-

ществляется с ошибками, которые могут ограничить применение

 

 

ется неизменным. Если после изменения последней п-й коор-

таких методов. Кроме того, на практике встречаются задачи, реше-

 

 

динаты

f(x[k])

<

 

б

), то переходят к п. 4. В противном

 

 

 

 

 

 

 

 

 

 

 

 

f(x

ние которых возможно лишь с помощью методов нулевого порядка,

 

 

случае – к п. 7.

 

А

 

 

 

 

например задачи минимизации функций с разрывными первыми

 

 

 

4.

 

 

 

 

 

 

 

 

 

б

, и вы-

 

 

 

 

 

 

 

 

 

 

 

 

 

Полагают, что х[k] является новой базисной точкой х

производными.

Критерий оптимальности

может быть

задан

 

 

 

 

 

 

Гб

 

 

 

 

 

 

 

числяют значение f(x ).

 

 

 

 

 

не в явном виде, а системой уравнений. В этом случае аналитиче-

 

 

 

5.

 

Осуществляют спуск из точки х[k] > хi[k + 1] = 2хi[k] – xб , i =

ское или численное определение производных становится очень

 

 

1,

...,

 

 

б

координаты предыдущей базисной точки. Вычис-

сложным, а иногда невозможным. Для решения таких практических

 

 

n , где x

 

 

 

Б

 

 

 

 

 

 

 

 

задач оптимизации могут быть успешно применены методы нуле-

 

 

ляют значение f(x[k + 1]).

 

 

 

 

 

 

 

6. Как и в п. 3, циклически изменяют каждую координату

вого порядка. Рассмотрим некоторые из них.

 

 

 

 

 

 

точки х[k + 1], осуществляя сравнение соответствующих значе-

 

 

 

 

 

 

 

 

 

 

 

н функции f(х) со значением f (х[k + 1]), полученным в п. 5.

 

 

 

 

 

 

 

 

 

 

 

й

 

 

 

 

 

 

 

 

 

 

 

7.1.1.4. Метод прямого поиска (метод Хука – Дживса)

 

 

 

 

После изменения последней координаты сравнивают соответст-

 

 

 

 

вующее значение функции f(x[k]) со значением f(xб), полученным

 

 

 

 

 

 

 

 

 

 

 

Суть этого метода состоит в следующем. Задаются некоторой

 

ив п. 4. Если f(x[k]) < f(xб), то переходят к п. 4, в противном слу-

начальной точкой х[0]. Изменяя компоненты вектора х[0],

бсле-

р

чае – к п. 3. При этом в качестве базисной используют послед-

дуют окрестность данной точки, в результате чего находят направ-

нюю из полученных базисных точек.

 

 

 

ление, в котором происходит уменьшение минимизируемой функ-

 

7.

 

Сравнивают значения х и е. Если

х < е, то вычисления пре-

ции f(x). В выбранном направлении осуществляют спуск до

ех п р,

 

 

 

 

 

 

кращаются. В противном случае уменьшают значения х и перехо-

пока значение функции уменьшается. После того как в данном на-

 

 

 

 

дят к п. 3.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

о

 

 

 

 

 

 

 

 

 

 

правлении не удается найти точку с меньшим значен ем функц и,

 

 

 

Достоинством метода прямого поиска является простота его

уменьшают величину шага спуска. Если последовательные дробле-

 

 

 

 

 

программирования на компьютере. Он не требует знания целе-

 

 

 

 

 

 

т

 

 

ния шага не приводят к уменьшению функции, от выбранного на-

 

 

вой функции в явном виде, а также легко учитывает ограниче-

правления спуска отказываются и

 

новое обследова-

 

 

 

 

 

ния на отдельные переменные, а также сложные ограничения

ние окрестности и т. д.

 

 

 

 

и

 

 

 

 

 

 

 

 

 

 

на область поиска.

 

 

 

 

 

 

Алгоритм метода прямого поиска с ст ит в следующем.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Недостаток метода прямого поиска состоит в том, что в случае

1. Задаются значениями координат хi[0] ,

зi = 1, ..., п , начальной

 

 

 

 

 

сильно вытянутых,

изогнутых или обладающих острыми углами

точки х[0], вектором изменения координат

х в пр цессе обследо-

 

 

 

 

линий уровня целевой функции он может оказаться неспособным

вания окрестности, наименьшим до устимым значением е компо-

 

 

 

 

обеспечить продвижение к точке минимума. Действительно, в слу-

нентов х.

 

 

 

осуществляют

 

 

 

 

 

 

 

 

 

 

 

 

 

чаях, изображенных на рис. 7.4, а и б, каким бы малым не был шаг

2. Полагают, что х[0] явля тся базисной точкой хб и вычисляют

 

 

в направлении х1 или x2 из точки х нельзя получить уменьшения

значение f(xб).

 

 

п

 

 

 

 

 

 

значения целевой функции.

 

 

 

 

 

 

 

339

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

340

 

 

 

 

 

е

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Р