Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Математические основы теории принятия решений

..pdf
Скачиваний:
19
Добавлен:
15.11.2022
Размер:
932.24 Кб
Скачать

В обоих случаях в теории управленческих решений исследователю необходимо иметь представление о спектре возможных моделей. В зависимости от целей исследования и свойств моделируемого объекта можно применять различные типы моделей. Назовём некоторые из них:

дискретные и непрерывные;

алгебраические, интегральные и дифференциальные;

статические и динамические;

детерминированные и стохастические (в частности, вероятностные);

матричные (многомерные) и скалярные (одномерные);

с монотонным или отклоняющимся (например, запаздывающим) аргументом.

Дискретные модели часто используются в теории принятия решений при выборе альтернативы из конечного их набора. Метод Кемени является примером дискретной модели выбора. В условиях риска и неопределённости используют вероятностные (стохастические) модели. Примером стохастической имитационной модели может служить вероятностный метод Монте-Карло, достаточно часто используемый в теории принятия решений с целью оценки значений величин, недоступных к прямому измерению.

Непрерывные модели часто имеют форму алгебраических уравнений или неравенств, а также дифференциальных и интегральных уравнений и их систем. Дифференциальные и интегродифференциальные уравнения описывают динамические системы с учетом скорости изменения их характеристик. Модели с запаздывающим аргументом можно использовать для описания поставок материалов, сырья, оборудования и других ресурсов, для учёта влияния сроков

ввода новых объектов на безопасность процессов строительства и безопасность эксплуатации после ввода объектов в строй.

41

5.4. Некоторые модели теории принятия решений

Назовём некоторые модели теории принятия решений:

модели математического программирования;

модель Парето;

модель лексикографического упорядочивания;

модель Кемени согласования упорядочений по предпочте-

ниям;

выбор статистических гипотез на основе критериев согласия;

прогнозирование на основе уравнения регрессии;

выбор на основе временных рядов;

выбор на основе анализа «деревьев» событий;

матричные игры;

выбор на основе анализа системных матриц (критерии Вальда, Сэвиджа, Байеса–Лапласа, Гурвица и др.);

модели теории очередей и массового обслуживания;

модели расписаний и оптимизации маршрутов (в том числе логистика);

модели теории надёжности технических систем;

модели страхования;

модели оценки безопасности в техносфере и др.

Каждая из перечисленных моделей имеет свои ограничения, свою цель и критерии её достижения.

Методы математического моделирования требуют определённых временных и экономических затрат на стадии принятия решения, но в конечном итоге затраты оправдываются. Широко известные модели используются достаточно давно и доказали свою эффективность. Принятие стратегических решений недопустимо без использования современных достижений математической теории принятия решений на основе системного анализа проблемных ситуаций.

42

Контрольные вопросы

1.Что такое математическая модель объекта?

2.Какова роль цели моделирования при разработке конкретной модели?

3.Укажите основные этапы построения математической модели.

4.Назовите какие-либо шкалы для измерения качественных ве-

личин.

5.Какие шкалы можно использовать для сравнения величин по их предпочтительности?

6.Что такое «кортеж»? В чём его отличие от вектора?

7.Что такое компромиссное решение? Какую роль играют принципы согласования в принятии решений по многим критериям?

8.Укажите принципы классификации и некоторые классы моделей, используемых в теории принятия решений.

9.Приведите примеры математических моделей, используемых

втеории принятия решений.

6.ОПТИМИЗАЦИОННЫЕ МЕТОДЫ

ВПРОЦЕДУРАХ ПРИНЯТИЯ РЕШЕНИЙ

Модели принятия решений как модели выбора наиболее предпочтительного из альтернативных вариантов реализуются в порядковых шкалах. Наиболее простая из порядковых шкал – это абсолютная шкала. В абсолютной шкале критерий предпочтительности – это числовой критерий: a b, если и только если a b ≥ 0. Наиболее простая из задач выбора – это задача выбора по единственному критерию (критерию оптимальности). Поэтому в самом простом случае решение как выбор оптимального варианта из допустимого множества осуществляется на основе единственного и притом числового критерия – критерия оптимальности.

Математическое программирование – это математическая дисциплина, в которой изучают теорию и методы задач о нахождении

43

экстремальных (максимальных и минимальных) значений функций действительных переменных на множествах, определяемых ограничениями в виде линейных и нелинейных числовых неравенств.

6.1. Методы математического программирования, их классификация

Простейшие из задач математического программирования – это задачи безусловной оптимизации. В задачах безусловной оптимизации необходимо отыскать локальный экстремум (максимум или минимум) некоторой действительной функции F, которая называется целевой:

F (x1, x2, …, xn) → max (min).

Искомое решение x задачи – это n-мерный вектор с действительными компонентами xi (i = 1, 2, …, n):

x = (x1, x2, …, xn).

Если локальный экстремум не является глобальным, то после его нахождения поиск других локальных экстремумов продолжается: при этом на последующих этапах для итерационных процессов отыскания экстремумов выбирают другие начальные точки. Глобальный экстремум (как максимальный, так и минимальный) ищется путём сравнения локальных экстремальных значений. Метод градиентного спуска – простейший из методов отыскания безусловного экстремума функций многих переменных.

Вобщем случае задачи математического программирования, помимо целевой функции F, принимающей действительные значения, содержат ряд ограничений в форме равенств и неравенств. Не- равенства-ограничения, определяющие допустимое множество, за-

даются с помощью действительных функций gi (i = 1, 2, …, m) (левых частей неравенств-ограничений) и hj (j = 1, 2, …, k) (левых частей ра- венств-ограничений).

Вобщем случае задача программирования записывается в следующем виде.

44

Требуется найти экстремум целевой функции F F (x1, x2, …, xn) → max (min).

на множестве векторов x, удовлетворяющих следующей совокупности (k+m) неравенств:

gi (x1, x2, …, xn) ≥ 0 (i = 1, 2, …, m),

hj (x1, x2, …, xn) = 0 (j = 1, 2, …, k).

Втом случае, когда целевая функция F и все (m+k) функций gi

иhj в условиях-ограничениях являются линейными, задача программирования называется линейной. К задачам линейного программирования относится, например, транспортная задача.

Если же хотя бы одна из функций F и функций gi и hj в услови- ях-ограничениях является нелинейной, то задача программирования называется нелинейной. В частности, если функция F является квадратичной, а все ограничения линейны, то задача программирования называется квадратичной. Квадратичная задача – это частный случай задачи выпуклого программирования.

Если все координаты вектора (x1, x2, …, xn) являются целыми числами, то получаем задачу целочисленного программирования.

6.2. Метод градиентного спуска

Метод градиентного спуска – один из методов решения задач математического программирования, позволяющий решать задачи безусловной оптимизации для нелинейных функций F многих переменных.

Рассмотрим следующую задачу: требуется найти минимальное значение дифференцируемой функции n переменных:

F (x) ≡ F (x1, x2, …, xn) → min.

Проблема решается итерационным методом (методом последовательных приближений).

45

Пусть x*= (х1*, х2* , ..., хn* ) – искомая точка, то есть точка, в кото-

рой функция F достигает минимального значения. Процесс итераций начинается с произвольного выбора начальной точки x(0) =

= (х1(0) , х2(0) , ..., хn(0) ) . Каждая из последующих итераций ищется по следующей формуле:

x(i+1) = x(i) λi grad F (x(i)) (i = 0, 1, …).

Здесь вектор gradF

F ,

F

, ...,

F

 

– это градиент функ-

 

 

x1

x2

xn

 

ции F, а λi – значение положительного числового шагового множителя (параметра) λ на i-м шаге итераций.

Доказано, что в предельной точке x* градиент обращается в нулевой вектор:

gradF (x*) = (0,0,….,0),

и, следовательно, в предельной точке вычисления прекращаются. На практике вычисления заканчиваются, как только выполнится неравенство

r (x(i+1) , x(i) ) < ε,

то есть как только расстояние r между двумя последовательными приближениями x(i+1) и x(i) будут отличаться менее чем на заранее заданное число ε, определяющее точность вычислений. Таким образом, предельная точка x* найдётся с заданной точностью:

r (x(i+1) , x* ) < 2ε,

Значения параметра λ определяют длину шага последовательных итераций. В простом градиентном методе значение λ > 0 выбирается произвольным образом и часто сохраняется постоянным на протяжении всей итерационной процедуры. Но иногда в процессе итераций значение λ всё-таки изменяется для ускорения процесса сходимости итераций к предельному значению x*.

46

В методе наискорейшего градиентного спуска значения шагового множителя λi > 0 на i-м шаге итераций выбираются из необходимого условия минимума вспомогательной функции

φ(λ) ≡ F (x(i) λgradF (x(i))),

(6.1)

то есть из уравнения

 

 

∂ϕ

= 0.

(6.2)

∂λ

 

 

Метод наискорейшего спуска получил такое название из-за того, что он позволяет существенно ускорить сходимость последовательных приближений к искомому предельному значению x*.

Для контроля процесса сходимости желательно отслеживать значения функции φ(λ): с каждой итерацией значения этой функции должны монотонно убывать, то есть на каждом шаге должно выполняться условие φ(λi+1) < φ(λi). В принципе делать это необязательно, так как начальная точка выбиралась произвольно, и в случае сбоя программы процесс итераций просто продолжится, но уже с другой начальной точки. В любом случае процесс итераций закончится, когда вектор градиента станет нулевым.

Поиск точек максимума функции F (x) ≡ F (x1, x2, …, xn) → max сводится к отысканию точек минимума противоположной функции F(x).

Пример 6.1. Найти точку максимума функции

Φ(x, y) x2 + 2x 2y2 2.

Поиск максимума функции Φ(x, y) сводится к поиску минимума функции

F(x, y) ≡ Φ(x, y) = x2 2 x +2 y2 + 2.

Функция z = F(x, y), очевидно, непрерывна и дифференцируема на всей действительной плоскости двух переменных x и y. Градиент этой функции в произвольной точке (x, y) – это вектор

47

grad z =

 

z

;

z

≡ (2x 2; 4y) .

 

x

 

 

 

 

y

 

В точке M0(x0,y0) вспомогательная функция (6.1) будет иметь

вид

φ(λ) ≡ F {x0 λ(2x0 2); y0 4 λy0},

то есть

φ(λ) ≡ [x0 λ(2x0 2)] 2 2[x0 λ(2x0 2)] + 2[y0 4 λy0]2 + 2.

Её производная в точке M0(x0,y0) имеет вид

∂ϕ∂λ = [8x0 + 8λ(x0 1)] (x0 1) + 4(x0 1) + 16[y02 + 4 λy02] ≡ ≡ λ [8(x0 1)2 + 64 y02] + [8 x0(x0 1) + 4(x0 1) 16y02] .

Равенство (6.2) приводит к следующему уравнению для нахождения значения шага λ:

λ[8(x0 1)2 + 64y02] + [8x0(x0 1) + 4(x0 1) 16y02] = 0.

Если в качестве начальной выбрать точку M0(0,9; 0,1), то из этого уравнения найдётся первое значение шага λ1:

λ1 = 11/90 0,12222.

Тогда первое приближение искомого решения – это точка

M1(x0 1(x0 1); y0 1y0),

то есть точка с координатами M1(0,9244; 0,0512).

Для расчёта последовательных приближений естественно воспользоваться ЭВМ. Через конечное число шагов расчёт закончится. В приведённом примере искомое решение задачи, то есть точка, в которой функция Φ(x,y) ≡ x2 + 2x 2y2 2 достигает максимального значения, – это точка M*(1,0).

Если целевая функция F(x) ≡ F(x1, x2, …, xn) имеет несколько точек экстремума, то для успешного поиска эти точки необходимо предварительно изолировать друг от друга, поместив их в непересе-

48

кающиеся окрестности, где и выбирать начальные приближения. В этом случае во избежание попадания очередного приближения

вокрестность соседней экстремальной точки проверка монотонной сходимости процесса становится обязательной.

Задачи техносферной безопасности, как правило, это задачи не на безусловный экстремум, а задачи с ограничениями. Например, чтобы добиться максимально эффективного воздухообмена в производственном помещении заданного объёма, необходимо учитывать не только стоимость вентиляционных систем в целом, но также тот факт, что другие показатели микроклимата (в том числе скорость движения воздуха) должны оставаться в норме, что налагает естественные ограничения на мощность устанавливаемых вентиляторов. Подобные задачи – это задачи на условный экстремум, к которым,

вчастности, относятся задачи линейного программирования.

6.3.Линейное программирование

Вобщем случае задачи математического программирования решить невозможно. Однако отдельные классы задач, в частности задачи линейного программирования, поддаются решению.

6.3.1. Каноническая форма задачи линейного программирования

В простейшей (канонической) форме задача линейного программирования (ЛП) записывается следующим образом. Необходимо найти минимум целевой функции F(x):

n

 

F(x) = cj xj → min

(6.3)

j = 1

 

при условии неотрицательности переменных xj

 

xj ≥ 0, j = 1, 2, …, n

(6.4)

и дополнительных равенствах-ограничениях вида

 

49

n

 

aij xj = bi, i = 1, 2, …, m; m < n .

(6.5)

j = 1

Здесь вектор x = (x1, x2, …, xn) – искомое решение задачи опти-

мизации (6.3)–(6.5).

Вектор b = (b1, b2, …, bm) иногда называют вектором ограничений, а матрицу ║a i j║ (i = 1, 2, …, m, j = 1, 2, …, n), технологической матрицей.

На практике исходные ограничения на значения переменных x1, x2, …, xn могут иметь форму неравенств вида

n

 

 

aij xj

bi

(6.6)

j = 1

 

 

или

 

 

n

 

 

aij xj

bi .

(6.7)

j = 1

Для приведения таких задач к канонической форме неравенства (6.6) и (6.7) необходимо представить в виде равенств. Для этого неравенства (6.6) представляют в виде разности

n

aij xj xi = bi,

j = 1

используя новые переменные xi ≥ 0 (I = m + 1, m + 2, …, n), которые называют слабыми. А неравенства (6.7), также используя слабые переменные xi ≥ 0, приводят к равенствам вида

n

aij xj + xi = bi,

j = 1

На практике переменные xj (j = 1, 2, …, n) не всегда не удовлетворяют условиям (6.4) неотрицательности. В этом случае каждую из

50