Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Прикладная теория систем массового обслуживания

..pdf
Скачиваний:
0
Добавлен:
12.11.2023
Размер:
5.14 Mб
Скачать

P(h) = P(®>r,) = J<P(v)dv = 1 - j(p(v)dv =

_ j _ air, l ( a - 'i ) - fl,K?i -o)] + l - e

-o(/, —a)l(/, -a)

1 + a a

(r,> 0).

 

График этой функции представлен на рис. 2.2.

Рис. 2.2. График искомой вероятности

2.11. Цепи Маркова

Рассмотрим систему, которая может находиться в состояниях Еп (п = = 0, 1, 2, 3, ...), причем изменения этих состояний могут происходить только в определенные моменты 0, 1, 2, /. Пусть Рп{Ï) обозначает веро­ ятность состояния Еп в момент /. Совокупность вероятностей Pn(i\ соот­ ветствующая некоторому моменту /, может быть представлена вектором в пространстве с числом измерений, равным числу возможных состояний системы (конечному или бесконечному). Этот вектор ограничен по вели­ чине и направлению условием, что все его компоненты не отрицательны и в сумме равны 1:

Р{1) = (Л)(0. Л(0> ^ ( 0 , • • •),

(2.19)

0 </>„(/) < 1,Л = 0, 1, 2,...

(2.20)

!/»„(/) = 1.

(2.21)

П

 

Вектор, обладающий свойствами (2.20) и (2.21), называется стохас­ тическим* Если его компоненты представляют вероятности состояний сис­ темы, то вектор называется вектором состояний системы.

Предположим, что переход из одного состояния в другое зависит только от этих двух состояний. Более строго, предположим, что каждой паре (£л, Еп! ) можно поставить в соответствие условную вероятность Рпп,

того, что система находится в состоянии л1 в момент / + 1 при условии, что она находилась в состоянии л в момент /. Считая, что начальные вероятно­ сти Рп(0) известны, получим цепь Маркова, вектор состояний которой удовлетворяет уравнениям

Р„Х(/ +1) = 1 З Д О . «' = 0,1,2,...

(2.22)

или в матричных обозначениях

P (i+ l) =P(i)zF

(2.23)

(квадратная матрица F образована из элементов Рт19удовлетворяющих ус­ ловиям

0 < Рпп, £ 1

для всех л и л 1

(2.24)

и

 

 

У«Рпп! =1

для всех и).

(2.25)

п

 

 

Всякая матрица, обладающая свойствами (2.24) и (2.25), называется стохастической; каждая ее сторона представляет стохастический вектор. Вероятности Рпп\ называются вероятностями перехода, сама стохастиче-

ская матрица часто называется матрицей (вероятностей) перехода.

Цепь Маркова полностью определяется стохастической матрицей F и совокупностью начальных вероятностей состояний Р„(0).

Матрица перехода F может зависеть от времени, т.е. вероятности пе­ рехода Р | могут быть функциями Uтогда

РпЛ1 + \) =^ Р п(1)РппЛИ

п

где Рп(0) и Рпп, (/) заданы.

Такая цепь называется неоднородной.

Наличие в матрице перехода элемента Рпп| , не равного нулю, указывает на то, что переход Еп -> Е^ возможен. Рассмотрим несколько приме­

ров цепей Маркова.

Пример 23. Имеются три лотерейных круга А, В и С [2.8], каждый из которых разбит на три неравных сектора А, В и С, которые также обо­ значены буквами А9В и С (рис. 2.3).

Круг А

Круг В

Круг С

Рис. 2.3. Пример, иллюстрирующий цепь Маркова

Укаждого круга с параметром п (п = 1, 2, 3) центральные углы а„, р„

иуп, соответствующие трем секторам, измерены в таких единицах, что а„ + + Р„ + уп= 1. Производится серия испытаний, из которых начальное (нуле­ вое) состоит в том, что случайным равновероятным образом выбирается один из кругов и этот круг приводится во вращение. Следующее испыта­ ние проводится с кругом, определенным в результате первого испытания. Назовем состоянием системы в момент / результат /-го испытания, обозна­ чаемый одним из чисел 1, 2 или 3. Тогда получается цепь Маркова с на­ чальными вероятностями (т.е. вероятностями в момент 0):

Р\(0) = l/3(cxi + (Х2+ аз),

/>2(0)=1/3(Р, + р2+рз),

Р3(0)= 1/3(у, + у2+ у3),

где ai + PJ + Yi = 1,а2+ р 2+ у2= 1>аз+Рз + Уэ = 1. Матрица перехода имеет вид

ГР и

Р \2

Р ^

Ч

Р.

М3

F = Р гх

Р 12

^23

= 0 .2

Р2

 

Ру2

Р г г )

,“ 3

Рз

У1'

У2

Уз,

После первого испытания вероятности состояний равны:

(Л(1); /*2(1); /*э(1» = (Л(0); Pi(0); Рз(0))Р = а,Р,(0) а2Р2(0) + а3/>3(0);

Р,Л(0) + р2Р2(0) + РзЛ(О); у,Р,(0)+у2/>2(0)+узЛ(0).

На рис. 2.4 представлен граф возможных переходов с соответствую­ щими вероятностями.

Например,

Pii 1) = 1/3{(ai + 0.1+ a 3) p, + (Pi + P2+ Рз) Рг+ (Yi + 7г+ Уз) Рз}-

П р едп ол ож и м , что результатом /-го испытания является состояние А; посмотрим, какова в этом случае вероятность перейти в состояние А в (/+ 2 )-м испытании. Рассматривая /-е испытание как начальное, имеем

(Pii2); Pii2); Рз(2)) = (1 ; 0; 0 ) ^ = ( a , 2 + p , a 2+ y . a j ; a iP i + p ip 2 + 7 ip 3; a i Yi + P IYI + 7 |7 з)-

Следовательно,

/î(2)= a f + ^ 0 2 +7,03.

Пример 2.4. Эскадрилья бомбардировщиков [13] насчитывает 4 са­ молета. Как правило, эскадрилья получает боевое задание один раз в день. Если к концу дня наличный состав уменьшается до 0; 1 или 2 самолетов из-за потерь, нанесенных противником, командир эскадрильи получает 1 самолет из резерва; этот самолет ему доставляют ночью. Если наличный состав остается равным 3 или 4 самолетам, то командир не имеет права на пополнение. На следующий день, если в наличии имеется 3 или 4 самоле­ та, задание эскадрилье дается, в противном случае задание отменяется. Во время выполнения задания каждый самолет может быть выведен из строя с вероятностью Р.

Если на задание посылается п самолетов, вероятность того, что к из них будут выведены из строя, задается биномиальным распределением

п\

p ki \ - p ) n~k

к\(п-к)\

Граф переходов показан на рис. 2.5; здесь имеется цепь Маркова с матрицей

1

2

3

4

<- в момент /' +1

0

1

0

О

 

0

0

1

О

 

Р3

3p2q

3Р?2 +<73

О

где q = 1

Р4

4Р^Ч

6p 2q2 +4pq3

 

 

t

 

 

 

 

в момент /

 

 

 

 

Ei

 

1

 

 

Рис. 2.5. Граф перехода к примеру 2.4

Первая строка матрицы относится к случаю, когда в момент / имеет­ ся один самолет; тогда в момент Ж в наличии будут два самолета, потому что будет получено пополнение (1 самолет) и не будет вылета на задание. Вторая строка представляет состояние 2 (2 самолета) в момент /; в этом случае также не будет вылета и будет пополнение. Третья строка изобра­ жает состояние 3 в момент /; очевидно, в этом случае состоится боевой вы­ лет группы в составе 3 самолетов; вероятность того, что к моменту Ж бу­ дет 1 самолет, соответствуют случаю, когда ни один самолет не вернется, следовательно,/731= /?3; вероятность того, что к моменту Ж будет 2 само­ лета, соответствует случаю, когда с задания вернется 1 самолет, т.е. рп = = 3p2q\ вероятность того, что в момент / = 1 будет 3 самолета, соответству­ ет случаю возвращения 2 или 3 самолетов, откуда р 33 = 3pq2+ ql Анало­ гичными рассуждениями можно найти элементы четвертой строки рас­ сматриваемой матрицы.

2.12.Предельные теоремы для потоков событий

Вбольшинстве исследований прикладного характера делается пред­ положение, что фигурирующие в них потоки событий являются пуассо­ новскими. Это объясняется тем, что введение пуассоновских потоков со­ бытий намного упрощает исследование и облегчает нахождение решения,

аеще и тем, что пуассоновские потоки событий (или потоки, весьма близ­ кие к ним по структуре) часто имеют место в действительности, так как в определенном смысле они являются предельными для различных потоков. Например, если накладывать друг на друга («складывать») большое число различных по структуре потоков событий, то суммарный поток в весьма широком классе условий будет близок к пуассоновскому. Если же взять произвольный поток и из него случайным образом выбрасывать события, то после нескольких таких разрежений полученный поток событий будет также близок к пуассоновскому. На практике очень часто фактически име­ ет место сложение или случайное разрежение потоков событий, поэтому пуассоновские потоки событий находят широкое применение при решении различных прикладных задач.

2.12.1. Предельная теорема для суммарного потока

Предельная теорема для суммы нескольких потоков имеет такое же значение, как и центральная предельная теорема для суммы нескольких случайных величин. Центральная предельная теорема утверждает сходи­ мость закона распределения суммы независимых случайных величин к нормальному закону при увеличении числа слагаемых. Предельная теоре­ ма для суммарного потока утверждает сходимость суммы независимых, ординарных, стационарных потоков к простейшему потоку. При этом ус­ ловия, налагаемые на суммируемые потоки, приблизительно такие же, как и условия центральной предельной теоремы: складываемые потоки долж­ ны оказывать более или менее одинаково малое влияние на суммарный по­ ток. Другими словами, среди суммируемых потоков не должно быть пото­ ков с очень большой интенсивностью (по сравнению с суммарной интен­ сивностью всех остальных); интенсивности складываемых потоков не должны становиться по мере увеличения номера потока исчезающе малы­ ми; кроме этого, должны быть наложены некоторые несуществующие ог­ раничения на последействие внутри каждого потока. Здесь важно отме­ тить, что сходимость суммарного потока к простейшему осуществляется очень быстро. Практически можно считать, что сложения четырех-пяти стационарных, ординарных, независимых потоков, сравнимых по интен­ сивности, достаточно для того, чтобы суммарный поток был близок к про­ стейшему.

Остановимся подробнее на понятии «сложение» потоков. Сложение двух потоков П] и П2 состоит в том, что все моменты появления событий в этих потоках относятся к одной оси t (рис. 2.6), на которой отмечаются моменты появления событий в суммарном потоке П = П1 + П2.

1

K-- ,

Т|,

>1

, , п, ,

и/1

X]I

 

 

 

Т2

 

 

s'

п2

 

Ч

Х2

 

 

 

 

п

Рис. 2.6. Сложение потоков

При сложении п потоков интенсивность суммарного потока опреде­ ляется следующим образом:

7=1

где Xj - интенсивностьу-го потока событий.

Таким образом, для выяснения всех свойств суммарного потока со­ бытий достаточно знать лишь интенсивности суммирующих потоков со­ бытий и практически не нужно знать внутреннюю структуру этих потоков.

Как указывалось выше, для сходимости суммарного потока событий к простейшему требуется взаимная независимость складываемых потоков. Поясним понятие независимости потоков на примере двух потоков. Рас­ смотрим участок времени ij, наложенный на поток событий П|. Участок Xi может иметь произвольную длительность, и начало его может быть в про­ извольной точке t\ оси времени t (см. рис. 2.6).

Таким же образом выберем участок времени т2 в потоке П2. Случай­ ное число событий в потоке Пь наступающих на участке времени ть обо­ значим х\. Случайное число событий в потоке И2, наступающих на участке времени т2, обозначим х2. Потоки событий П1 и П2 называются независи­ мыми, если случайные величины *1 и х2независимы. Другими словами это можно сформулировать так: два потока называются независимыми, если число событий, попадающих на любой участок времени в первом потоке, не зависит от того, сколько событий попало на любой участок времени во втором потоке.

На практике часто потоки возникают в результате сложения не стро­ го независимых, а слабо зависимых потоков событий. Исследования, про­ веденные методом статистических испытаний, показывают, что и в этом

случае (при достаточном числе слагаемых) суммарный поток также оказы­ вается близок к простейшему.

До сих пор рассматривалось сложение стационарных потоков собы­ тий. Оказывается, если складываемые потоки не стационарны, то предель­ ное свойство также имеет место: получается суммарный поток, близкий к нестационарному пуассоновскому с интенсивностью

М0 = 1 М ')>

7=1

где Xj(t) - переменная интенсивность/-го потока.

При этом для любого момента времени t интенсивности всех потоков должны быть соизмеримы.

Из всего вышеизложенного следует, что многие потоки событий, возникающие на практике и фигурирующие в задачах массового обслужи­ вания, можно приближенно считать пуассоновскими.

Например, поток космических частиц является практически пуассо­ новским, так как частицы порождаются очень большим числом звезд, ис­ пускающих эти частицы независимо друг от друга. Поток машин на заго­ родном шоссе будет также практически пуассоновским потоком, так как он состоит из отдельных машин, выезжающих на шоссе с различных улиц и дорог. Поток самолетов, осуществляющих посадку на аэродром, также близок к пуассоновскому, несмотря на то, что его стремятся сделать строго регулярным (заранее планируют время приземления каждого самолета). Это объясняется тем, что самолеты прибывают к аэродрому не в строго за­ данное время (раньше или позже) и тем самым вносят элемент случайно­ сти в поток приземлений (каждый самолет независимо от других).

Заметим, что пуассоновский поток обладает устойчивостью, состоя­ щей в том, что при суммировании независимых пуассоновских потоков получается снова пуассоновский поток, причем интенсивности складывае­ мых потоков суммируются.

2.12.2. Предельная теорема для редеющих потоков

Потоки событий, встречающиеся на практике, часто подвергаются операции «разрежения». Она состоит в том, что под влиянием случайных причин те или иные события выпадают из потока. Например, поток косми­ ческих частиц, прежде чем достичь уровня земли, редеет за счет столкно­ вения этих частиц с атомами атмосферы; поток самолетов, прорывающих­ ся через систему ПВО противника, редеет за счет поражения части этих самолетов; поток готовых изделий тоже редеет за счет выбраковывания части этих изделий в отделе технического контроля. В отличие от потока Эрланга к-то порядка, который получается путем строго закономерного

разрежения простейшего потока точек выбрасывается, а + 1)-я точка оставляется), в приведенных выше примерах осуществляется случайное разрежение исходного потока событий, когда каждое событие с опреде­ ленной вероятностью р исключается из потока независимо от того, исклю­ чены другие события или нет. В работе [9] приведен пример определения параметров разреженного потока для стационарного потока Пальма. Так, интенсивность Хр разреженного потока пр будет равна интенсивности ис­ ходного потока П, умноженной на вероятность сохранения событий в потокер :

Хр= Хр,

где X- интенсивность исходного потока П.

Исследования показывают, что на практике уже 4-5-кратное разре­ жение (при р < 0,8) дает поток, близкий к простейшему, даже если исход­ ный поток был регулярным.

3. ОСНОВЫ ТЕОРИИ СИСТЕМ МАССОВОГО ОБСЛУЖИВАНИЯ

3.1. Элементы систем массового обслуживания

Система массового обслуживания включает в себя четыре основных элемента: входящий поток, очередь, обслуживающее устройство и выхо­ дящий поток. С каждым из них связан ряд возможных допущений, некото­ рые из них, как указано в работах [13, 14], были предметом специального исследования. Другие допущения приводят к еще нерешенным задачам обслуживания, требующим исследования. Пример обобщенной СМО при­ веден на рис. 3.1.

□ - □ • • а

Входящий поток

Очередь к каналу

Канал

Выходящий поток

заявок

обслуживания

обслуживания

 

Рис. 3.1. Пример обобщенной СМО

Рассмотрим общее описание различных вариантов систем массового обслуживания.

3.1.1.Виды распределения входящего потока

ивремени обслуживания

Для теории массового обслуживания особый интерес представляют случайные процессы марковского типа (см. раздел 2). При помощи мар­ ковских процессов с конечным или счетным множеством состояний опи­ сываются процессы массового обслуживания в системах весьма широкого класса с максимальными аналитическими предпосылками: появление зая­ вок и окончание обслуживания заявок, имеющихся в системе, не должно зависеть от предшествующей истории. А если процесс, протекающий в системе, является марковским с непрерывным временем, то все потоки со­ бытий, переводящие систему из состояния в состояние, являются пуассо­ новскими [13]. Для пуассоновских систем вероятности состояний описы­ ваются с помощью обыкновенных линейных дифференциальных уравне­ ний. Если не делать предположения о том, что процесс, протекающий в системе массового обслуживания, является марковским, то аналитическое