Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Решение некоторых многоэкстремальных задач методом сужающихся окрестностей

..pdf
Скачиваний:
3
Добавлен:
12.11.2023
Размер:
12.71 Mб
Скачать

Соответствующие дифференциальные законы

 

1

ОУП 1

<Pi (г) =

V 2я s (z — Tj)

exp

 

.

0,

 

 

1

- e x p j

Фз(2) =

/ 2 я s (z — т))

 

.

0,

 

l

In (Z — Г)) — |i,

\ i

l

/ 2 s

] J , г > т 1 ,

 

In (г — и) —

г < Л,

/

vn

l

/ 2 s

j\ , 2 > Г 1 ,

Z<t\

изображены на рив. 50. На этих рисунках положено щ = 1, р2 = = 2, s = 0,5, t| = — 7, b = — 2.

Рассмотрим два нормальных закона о одинаковыми математи­ ческими ожиданиями и разными дисперсиями:

ад=т^г1 ехр

(5-66)

191

и

^(2)-Т^г1 ехР[-(т^-Пл <5-67>

Воспользовавшись формулой (5.55), найдем для этих законов ве­

роятности

(5.53):

 

 

 

 

Ь т

\

 

 

 

 

 

 

 

 

 

(5.68)

 

 

 

 

 

 

/ 2

а,

)

 

 

 

 

 

 

 

 

Р„

_

е

1'

Ь —

т

\

 

(5.69)

 

г

2

с

1

/ 2 а2

 

 

 

 

 

 

 

.

 

 

 

Лемма

5.3. Если b <

т

и

а, >

о2,

 

то вероятность (5.53)

для закона (5.66) выше, чем та же вероятность для закона (5.67). Д о к а з а т е л ь с т в о . В лемме используются вероятности Р, и Р2, определяемые соотношениями (5.68) и (5.69). Из условия

леммы следует, что в числителе аргумента функции Е (и) стоит от­ рицательная величина. Поэтому утверждение леммы вытекает из монотонности функции Е (и).

Законы распределения (5.66) и (5.67) изображены на рис. 51, а соответствующие дифференциальные законы

W H-(TKT)]’

приведены на рис. 52, где выбрано т = 0, ot = V2, о2 = 1, Ь = = — 1.

192

Перейдем к рассмотрению изменений в логнормальном законе, которые происходят при изменении дисперсии.

Как следует из формулы (3.41), дисперсия случайной величины f, распределенной по закону (3.3) определяется как

d(f) — exp (2(л + s2) [exp (s2) — 1 ].

Отсюда видно, что дисперсия распределения случайной величины f является монотонно возрастающей функцией параметра s. Таким

образом, при фиксированном параметре р закону распределения с большей дисперсией соответствует больший параметр s и наоборот.

Рассмотрим два логнормальных закона распределения:

г

Фх(2) =

1

f

(5.70)

V 2я Sj

J

 

0,

Т)

г< х\

и

 

 

г

 

 

 

 

Фа (2) =

1

Г

(5.71)

1^2я Sj

J

 

0,

ч

г<г\.

 

 

Воспользовавшись формулами (5.60) — (5.64), найдем, что для закона распределения (5.70) вероятность получения значений целе­ вой функции / лучших чем b следующая:

Л

с Г In (*— п) — Р 1

(5.72)

E [— y r h

]•

 

 

 

13

9—961

193

а соответствующая вероятность

для

закона (5,71)

определяется

формулой

£ f _

t o ( ^

- jL j <

(5.73)

Pa =

Лемма 5.4. Если sx > s2 а

 

 

 

Ь

т] +

ехр (р),

(5.74)

Рис. 53.

то вероятность (5.53) для случайной величины, распределенной по закону (5.70), выше, чем для величины, распределенной по закону

(5.71) .

Д о к а з а т е л ь с т в о . Из неравенства (5.71) следует

In TJ) < (1.

Следовательно, в числителе аргумента функции Е (и) в выражениях (5.72) и (5.73) находится отрицательная величина. Вследствие мо­ нотонности функции Е(и) из неравенства st > s2 следует неравенст­ во Рх > Р2, которое нужно было доказать.

Интегральные законы (5.70) и (5.71) изображены на рис. 53; Соответствующие дифференциальные законы распределения •

 

'

1

■ехр[

/ In(г— ч) — ц

It

* ^

Ь (г) = •

1

У2л

— Tj)

 

1 П ч

 

z <

Т).

.

о,

 

 

 

 

 

 

1

•ехр[—

( In(г—11) — (г Л 2 > П

Фа (г) =

V^2ai

в, (гт})

1

11

г ^

ч*

 

\

 

2<Т )

.

о,

 

 

 

 

приведены на рис. 54. Здесь выбраны следующие параметры: у

■2,Sj 1,Sj~~ Ti 7,Ъ —■— 4.

194

Из лемм 5.1—5.4 вытекает следующая теорема.

Теорема 5.6. Если закон распределения случайной величины f

нормальный или логнормальный, то уменьшение математического ожидания при постоянной дисперсии приводит к увеличению веро­ ятности (5.53) получения лучших значений, а уменьшение дисперсии при постоянном математическом ожидании к уменьшению ве­ роятности (5.53).

Отметим, что хотя строгое доказательство этой теоремы потре­ бовало определенных усилий, ее утверждение фактически очевидно, особенно если использовать рис. 47—54. Более того, представляет­ ся, что высказанные в теореме соображения справедливы и для бо­ лее сложных законов распределения.

До сих пор рассматривались такие изменения законов распре­ деления, когда математическое ожидание или дисперсия оставались постоянным. Между тем, как следует из § 3 и 4 данной главы, при малом числе изменяемых координат v одновременно уменьшаются оба центральных момента распределения. Поэтому интересно ис­ следовать поведение вероятности получения лучших значений це­ левой функции при одновременном уменьшении математического ожидания и дисперсии.

Рассмотрим два нормальных закона распределения

<5-75>

и

а д - 1 ^ r l“p[-(w)>

13*

ios

и вычислим вероятности того, что случайные величины, распреде­ ленные по этим законам, примут значения, меньшие чем число Ь. Вследствие формулы (6.55) эти вероятности равны соответственно

Предположим, что

Ь < т х < т 2,

0^ ^

<72*

Вследствие монотонности функции Е (и) условие

Pi>P>

эквивалентно следующему:

 

b ml

Ь

°i

^ #

Последнее неравенство можно переписать в виде

т 1 °2

т 2а 1 / £

° 2

а 1

Это условие роста вероятности при переходе от закона (5.76) к за­ кону (5.75).

Рассмотрим теперь два логнормальных закона

 

 

< а д =

v k r J

«■> [ - ( ' " V . . 14)*] ^

^ (5.77,

 

л

 

 

 

 

О,

 

г <

Т),

 

1

 

 

 

Ф .(г ) -

У2п ss

 

 

(5.78)

 

О,

 

2 < Ц.

Для этих законов вычислим вероятности вида (5.53). Вследствие соотношения (5.64) получаем

^ р т й г 151]-

Предположим, что

hi < hs. sx < s2.

Вследствие монотонности функции Е (и) условие

Р г > Р г

эквивалентно следующему:

in г]) ^

In г]) — Hi

н

ц

196

а это неравенство можно переписать в виде

■)<ь — Л-

Найдено условие роста вероятности получения лучших значений случайной величины при переходе от закона (5.78) к закону (5.77).

Подводя итоги последних трех параграфов, заметим, что переход от «слепого» случайного поиска к специфическому с изменением v координат в локальных минималях оказывает двойственное влия­ ние на вероятность получения значений целевой функции лучших существующих. Поскольку эта вероятность является лучшей ха­ рактеристикой качества поиска, она будет использоваться в виде критерия перехода от одного режима поиска к другому.

§ 6. Метод сужающихся окрестностей

Тщательное изучение некоторых экстремальных свойств квазисепарабельных функций позволяет предложить метод поиска гло­ бального минимума такой функции, который был бы более эффек­ тивным, чем «слепой» случайный поиск.

Напомним требования, которым должна подчиняться функция цели, чтобы предлагаемый метод поиска ее глобального минимума был эффективным. Функция / (х) должна быть квазисепарабельной и многоэкстремальной. Считаются известными алгоритмы поиска локальных минимумов. Число локальных минимумов такое, что мож­ но говорить о законе их распределения, считая каждый из них реа­ лизацией случайной величины. Кроме того, предполагаем, что они распределены по нормальному (или логнормальному) закону.

Метод сужающихся окрестностей состоит из нескольких этапов. Первый этап представляет собой разновидность «слепого» случай­ ного поиска. Случайным образом выбираются точки из компакта D. Из полученных точек производится спуск в «ближайшие» локаль­ ные минимали, и в них вычисляются значения целевой функции. Этот этап, как и все последующие, содержит некоторое фиксирован­ ное число шагов. После выполнения всех шагов выбирается луч­ шее значение f* целевой функции и соответствующая минималь х*.

Все полученные локальные минимумы рассматриваются как наблюденные значения [28] случайной величины. Подсчитываются выборочное математическое ожидание т и выборочная дисперсия

о2. По принятой гипотезе о характере распределения вычисляется вероятность получения лучших, чем уже имеющиеся, значений це­ левой функции. В частности, если принята гипотеза о нормальном характере распределения, то вычисляется величина

97

или, если воспользоваться формулой (5.55),

Вычисленная вероятность сравнивается с имеющейся на преды­ дущем шаге вероятностью. При этом перед первым прохождением этапа полагают, что «предыдущая» вероятность равна нулю. Если окажется, что новая вероятность выше предыдущей, то повторяется тот же этап. Если же эта вероятность уменьшилась, то происходит переход к новому этапу поиска.

При работе второго этапа в точке х* случайным образом изме­ няются значения v наугад выбранных координат так,, чтобы полу­ ченные точки лежали в области D. Из этих точек проводится спуск в «ближайшие» минимали.

Если окажется, что лучший из полученных локальных миниму­

мов f такой, что / < /*, то но окончании второго этапа точка х*

заменяется минималью х, которая соответствует минимуму /. После выполнения заданного числа шагов этого режима полученная статис­ тика обрабатывается таким же способом, как и на предыдущем шаге. Если вероятность получения лучших, чем имеющиеся, значений целевой функции увеличивается, то данный режим повторяется, если же эта вероятность уменьшается, то происходит переход к следующему этапу. 4 -

Все последующие этапы поиска отличаются от второго только тем, что уменьшается величина v, т. е. в лучших локальных минималях изменяется все меньшее число координат.

Обычно пользуются следующим правилом для изменения чис­ ла v. Полагают

v, = entier ( v' 2 1 ] ,

где entier (•), как обычно, целая часть числа. Возможны и дру­ гие законы изменения числа v. Подробнее этот вопрос рассмотрен в гл. 3. Для второго этапа число изменяемых координат v полагают

равным размерности п пространства Rn.

Поиск по методу сужающихся окрестностей заканчивается, когда при v = 1 есть необходимость уменьшать число v.

Вопрос о выборе числа бросков на каждом этапе подробно изу­ чен в гл. 3. Здесь же будем считать это число заданной константой N.

Рассмотрим вопрос о сходимости предлагаемого метода. Хотя в § 5 данной главы показано, что вероятность получения лучших значений целевой функции при использовании метода сужающих­ ся окрестностей выше, чем при использовании метода Монте-Карло, нельзя утверждать, что предлагаемый метод позволит получить глобальный минимум. Под сходимостью подразумевается движение к некоторой неподвижной точке из множества 'всех минималей, иными словами при использовании метода сужающихся окрестностей

198

понадобится сделать лишь конечное число «бросков» для попада­ ния в такую неподвижную точку. Под броском понимается выбор точки из компонента D и последующий спуск в «ближайшую» минималь. Эта конечность числа бросков обеспечивается тем, что переход от этапа к этапу определяется величиной (5.79). Поскольку появляются новые улучшения, то величина f* уменьшается и, сле­ довательно, убывает вероятность (5.79). Поэтому будут происходить переходы от этапа к этапу.

Еще раз подчеркнем, что использование метода сужающихся окрестностей вовсе не гарантирует получение глобального миниму­ ма. Эго вероятностный метод со всеми присущими таким методам достоинствами и недостатками. Так, если в результате поиска по методу сужающихся окрестностей не удалось найти достаточно хороший минимум, то поиск можно повторить, используя новые наборы случайных чисел. Результат поиска в общем случае не од­ нозначен, а зависит от того, какие случайные числа генерируются. '

Заметим при этом, что сходимость метода сужающихся окрест­ ностей гарантирует следующее: если каждый раз будут генериро­ ваться одинаковые наборы случайных чисел, то метод гарантирует сходимость к одной и той же точке.

Преимущество метода сужающихся окрестностей перед методом Монте-Карло в том, что он позволяет получать «хорошие» локаль­ ные минимумы гораздо быстрее, чем второй метод, если речь идет о минимизации описанного выше класса функций.

Опишем алгоритм, реализующий метод сужающихся окрест­ ностей.

Алгоритм 5.1.

Ша г 1. Положить v = п, р = 0, / = f* — 1010.

Ша г 2. Положить Р^ = — 1.

Ша г 3. Положить т = а = 0, i = 1.

Ша г 4. Если р — 0, перейти к шагу 5; иначе перейти к шагу 6.

Ш а г 5. С помощью датчика случайных чисел выбрать точку

хиз Rn и перейти к шагу 8.

Ша г 6. С помощью датчика случайных чисел выбрать v раз­

личных целых чисел из множества (1, 2.......п}.

Ш а г 7. С помощью датчика случайных чисел изменить зна­ чения выбранных v координат в точке х* и полученную точку на­ звать точкой х.

Ш а г 8. Проверить, принадлежит ли точка х компакту D. Если х£ D, то, перейти к шагу 9; иначе перейти к шагу 4.

Ша г 9. Определить локальный минимум f(x,)t «ближайший» к х, и соответствующую минималь xt.

Ша г 10. Если f(xl) > f, то перейти к шагу 11; иначе положить

/=•/(*<),

х = х{.

Ш а г

11. Положить т = т + f (.xt), а = о + f* (xt), i — i ■f 1.

Ш а г 12. Если i > N, перейти к шагу 13; иначе перейти к шагу 4.

199

Ш а г

13.

Положить т = тШ,

а = [(о — NtrP)I(N — l)]7*,

Р = {1 — erf

[(m — /*)/|/2а1}/2.

 

Ш а г 14.

Если / <

/*, положить f*

= /,* * = х.

Ш а г

15.

 

Если Р >

Р1г положить Рх = Р и перейти к шагу 3.

Ш а г 16.

 

Положить т = 1, v = entier (v/2).

Ш а г 17.

Если v <

1, то остановиться; иначе перейти к шагу 2.

В этом алгоритме N — число «бросков» в серии. В результате работы алгоритма определяется наилучшее приближение /* к гло­ бальному минимуму и соответствующая минималь х*. В алгоритме используется гипотеза о нормальном законе распределения значений целевой функции в локальных минималях.

Описанный алгоритм целесообразно использовать в том слу­ чае, когда не известна нижняя оценка для глобального минимума. Если такая оценка т) известна, то можно использовать модификацию метода сужающихся окрестностей, основанную на гипотезе о лог­ нормальном характере распределения значений локальных мини­ мумов.

В этой модификации изменяются два шага основного алгоритма.

Шаги 11

и 13 заменяются соответственно следующими.

Ш а г

11.

Положить

m = m +

In [/ (xl) — т)1, a = a -f

+ {In [/ (xl) — rjJ)2, i »

/ +

1.

m/N, a = [(o — Nm2)/(N — 1)]'/*»

Ill

а г

13. Положить

m =

P = {l — erf

{[m — In (P — a )J/V ^ } }/2.

Соседние файлы в папке книги