Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Математическое моделирование процессов в машиностроении..pdf
Скачиваний:
46
Добавлен:
15.11.2022
Размер:
14.87 Mб
Скачать

4.2.ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

4.3.1.Основные понятия, определения и положения

Предмет изучения теории вероятностей - объективные за­ кономерности массовых случайных явлений.

Введем некоторые основные определения.

Опыт - это осуществление какого-либо комплекса усло­ вий, который может быть воспроизведен сколь угодно большое число раз.

Под событием будем понимать результат опыта или на­ блюдения.

Случайное событие ~ это событие, которое может поя­ виться или не появиться при проведении опыта, т.е. некоторое событие, которое при заданных условиях может произойти или не произойти.

Случайной величиной (СВ) называется переменная величи­ на, значения которой зависят от случая, т.е. величина, способная принимать различные случайные значения.

Количественную меру (оценку) объективной возможности осуществления некоторого события при фиксированных усло­ виях эксперимента называют вероятностью этого события. Можно сказать, что вероятность некоторого события - это ме­ ра его «благоприятствования».

Отметим, что по принятому в теории вероятности соглаше­ нию вероятность произвольного события полагается безразмер­ ной величиной, изменяющейся от 0 до 1. При этом нулевая веро­ ятность соответствует невозможному событию (которое никогда произойти не моэ/сет), а единичная - достоверному (детермини­ рованному) событию {которое обязательно произойдет).

Элементарное событие - это событие, которое происхо­ дит в результате единичного опыта. Составное событие - это совокупность элементарных событий.

Пример. Игральный кубик подбрасывается 2 раза. Пусть составное событие определено следующим образом: «сумма выпавших цифр равна 6». Тогда элементарными будут события: «5 + 1», «4 + 2», «3 + 3», «2 + 4» и «1 + 5».

Генеральной совокупностью называют совокупность со­ бытий, которые могут быть реализованы в результате бесконеч­ ного числа однотипных опытов. Выборочной совокупностью или просто выборкой называют совокупность случайно ото­ бранных событий из генеральной совокупности.

Объемом совокупности называют число событий этой со­ вокупности.

События будем называть равновозможными, если мера их «благоприятствования» одинакова. В реальных условиях, когда число опытов п конечно, мера «благоприятствования» определя­ ется не вероятностью, а частотой появления. Пусть событие А наблюдалось в т опытах из п опытов (испытаний). Тогда часто­ та появления события A W(A) определяется формулой

W(A)= — .

(4.5)

п

 

Если п достаточно велико, то работает одна из предельных

теорем (закон больших чисел - теорема Бернулли):

 

p(A)~W(A),

(4.6)

где р(А) - вероятность события А.

Теорема Бернулли выражает закон статистической устой­ чивости массовых случайных явлений.

Совместными называются события А и В, которые могут произойти одновременно. Если события одновременно произой­ ти не могут, то такие события называются несовместными.

Случайная переменная величина X, которая может прини­ мать любые значения, находящиеся в некотором интервале

[а; Ь\, называется непрерывной.

Дискретной называют случайную величину, которая при­ нимает отдельные, изолированные значения с определенными вероятностями.

Для описания моделей теории надежности используется математический аппарат как дискретных, так и непрерывных СВ. К дискретным СВ относится число отказов системы, а к не­ прерывным - временные понятия: моменты возникновения от­ казов, значения наработки, ресурса технических систем и др.

Вероятность появления какого-либо одного из нескольких несовместимых событий равна сумме вероятностей этих собы­ тий. Вероятность совместного появления нескольких событий равна произведению вероятностей этих событий, причем если события совершаются последовательно, при вычислении веро­ ятности каждого события должно учитываться возможное влия­ ние всех наступивших ранее событий. Например, в ящике нахо­ дятся 5 черных, 3 белых и 2 красных шара. Вероятность вынуть наудачу белый шар (событие А) равна 0,3; вероятность вынуть красный шар (событие В) равна 0,2; вероятность вынуть белый или красный шар равна 0,3 + 0,2 = 0,5. Вероятность вынуть по­ следовательно белый и красный шар равна: 0,3 х 0,2 = 0,06, если первый вынутый шар кладется обратно, и 0,3 х (2/9) = 0,067, ес­ ли вынутый шар не возвращается.

События А и В называются статистически независимы­ ми, поскольку вероятность их совместного наступления равна произведению вероятностей этих событий: р(АВ)=р(А)р(В). В противном случае события А и В статистически зависимы.

Вероятность события А, найденная при условии, что осуществилось событие В, называется условной вероятно-

стыо события А и обозначается р ( А Л. Аналогично для со­

 

 

\В ;

 

гв^

Для статистически независимых событий

бытия В: р

в)

= Р(А) и р

в л =Р(В).

 

\ A j

4.3.2. Основные характеристики случайных величин

Для характеристики СВ нужно знать совокупность воз­ можных значений этой величины, а также вероятности, с кото­ рыми эти значения могут появляться. Эти данные образуют за­ кон распределения случайной величины.

Таким образом, закон распределения СВ - это любое пра­ вило (таблица, функция), позволяющее находить вероятности всевозможных событий, связанных со случайной величиной (например, вероятность того, что она примет такое-то значение или попадет на такой-то интервал).

1. Распределение дискретных случайных величии

Допустим, что случайная величина X может принимать ко­ нечный набор значений х\, х2,..., х„, каждый раз при испытании ома принимает одно из этих значений с вероятностямир\,р2, —,Рп, оче­ видно, что

р \ + р 2+ +р„=\.

(4.7)

Если вероятностир\, р 2,..., р„ известны, то говорят, что за­ дано распределение случайной величины X, и что случайная ве­ личина X задана.

Интегральным законом распределения (или интеграль­ ной функцией распределения) случайной величины X называ­ ется функция F(x), равная вероятности того, что случайная

величина

примет значение, меньшее х: F(x) - р(Х < х).

Оче­

видно, что если набор X], х2..., х„ упорядочен, т.е. x t <х2 <... < х,„ то

р ( Х < х |)

= 0, р(х| < Х < х 2) = р и р(х\ < Х < х г) = р\ +р 2,

 

р(х{ < Х < х п) - р \ +р2 +

+ р„ \. По дополнительному согла­

шению принимают р(Х > х„) = 0. График функции F(x)

для

дискретной СВ имеет ступенчатый вид и схематически изо­

бражен на рис. 4.6.

 

 

На основании вышеизложенного можно выявить следую­

щие основные свойства функции распределения F(x):

 

1)

функция

F(x) безразмерная и изменяется

в предела

0 < F(x) < 1для всех х\

щ

1«-

 

 

 

"p l + ‘“ + p 6

,— 1

„ р 1+... + р 5

,— I

» P l + -

+ P 4

.---- '

"Pl+Pl + Рз

1------ '

" A

+ f t

!------ '

»Р\

,—

 

 

I

 

 

 

I

 

 

О X1 Xz X3 X4 X5 X6 X j X

 

Рис. 4.6. Распределение дискретной СВ

 

 

2) F(x)

- неубывающая функция

х: если

х2>хи

то

F(x1)>F(x])-

 

 

 

 

3 )

для неограниченной случайной величины,

т.е. пр

-оо < х < со, F(-со) =р[Х <—оо] = 0; Р(ао) = р[Х < оо] = 1;

 

4) для

ограниченной случайной

величины

х\ < х < х„

F(x\) = 0 и F(x„) = 1.

 

 

 

2. Распределение непрерывных случайных величин

Для непрерывной СВ понятие интегральной функции рас­ пределения имеет тот же смысл, что и для дискретной. Однако непрерывная величина X может принимать любые значения, на­ ходящиеся в некотором интервале [а; Ь\, поэтому вероятность того, что она примет какое-либо определенное значение х, равна нулю, так как число возможных случаев бесконечно. Считая, что для каждого малого участка, находящегося на интервале [а; Ь\ допустимых значений переменной X, вероятность попада­ ния X на этот участок пропорциональна его длине, можно оха­ рактеризовать случайную величину X, указав вероятность fix)dx того, что x < X < x + dx. Функция fix) называется плотностью распределения вероятностей случайной величины X, или диф­ ференциальным законом распределения. Из теоремы о сложе­

нии вероятностей следует, что вероятность попадания X в ин­ тервал от JCOдо х\ определяется следующим образом:

F(x) = р(х0 < Х < х,) = \f(x)d x .

(4.8)

•'ll

 

Таким образом, содержательный смыслах) заключается в том, что для всякой точки х е [а; Ъ] и взятого около нее ма­ лого приращения dx произведение J[x)dx равно вероятности того, что случайная переменная примет значение, заключенное между х и х + dx.

Функция fix) называется дифференциальным законом рас­ пределения случайной величины и связана с интегральной

функцией F(x) соотношением

 

д х) =^ М }

(4.9)

dx

 

т.е. является первой производной функции распределения и ха­ рактеризует скорость ее изменения. В соответствии со свойст­ вами функции F(x) можно записать ограничение на изменения функции/*) :/* ) > 0.

Для непрерывной СВ, распределенной на интервале [а; Ь], можно записать условие нормировки, аналогичное уравне­ нию (4.8):

I,

 

F(b) = Р (а< Х <b)= Jf(x)dx = 1

(4.10)

а

 

Следовательно, для непрерывной СВ можно найти только область возможных значений, но не конкретное значение.

На рис. 4.7 схематически представлен пример графика ин­ тегральной функции распределения вероятностей.

Моменты распределения вводятся, как правило, для не­ прерывных СВ и служат для описания свойств плотности рас­ пределения. Моменты часто удобны при решении прикладных

задач. Величина

ь

М к = jxkf ( x ) d x , к= ],2,

(4.11)

Рис. 4.7. Интегральная функция распределения непрерывной СВ

называется к-ы начальным моментом распределения случайной величины X.

Закон распределения, устанавливающий связи ме­ жду реализациями случай­ ной величины X или случай­ ного процесса X(t) и вероят­ ностями их появления, по­ зволяет полностью охарак­ теризовать случайную вели­ чину и определить ее основ­ ные характеристики, к кото­ рым относятся математи­ ческое ожидание, дисперсия, мода и медиана.

Математическим ожиданием дискретной случайной ве­

личины называют сумму произведений всех ее возможных зна­ чений и их вероятностей.

Математическое ожидание является средневзвешенным значением СВ, в которое каждое значение входит с «весом», равным соответствующей вероятности. Таким образом, матема­ тическое ожидание представляет собой центр тяжести системы материальных точек, «координаты» которых суть всевозможные значения СВ, а «массы» равны вероятностям этих значений.

Пусть СВ X принимает только значения х\, х2, хп, веро­

ятности которых соответственно равны р \,р 2,..., рп• Тогда мате­ матическое ожидание М(Х) определится формулой

М (Х) = ^ х ,р ,

(4.12)

/ = 1

 

Математическое ожидание может быть оценено как стати­ стическое среднее по / = 1, 2, ..., п значениям СВ, полученным

расчетом или в результате эксперимента, если все исходы пола­ гаются равновероятными по всем наблюдениям:

М{Х) =- ^ х г

(4.13)

Пых

 

Для непрерывной СВ х, распределенной на интервале [а; Ъ\ по закону fix), математическим ожиданием является на­

чальный момент первого порядка:

 

ь

 

М(х) = |:с /(x)dx.

(4.14)

Модой случайной величины называется ее наиболее веро­ ятное значение (то, для которого вероятность достигает макси­ мума, т.е. функция fix) имеет локальный экстремум). Для непре­ рывной СВ мода определяется из уравнения

# (* ) _ Q

(4-15)

dx

 

Если мода единственна, то распределение СВ называют

унимодальным, в противном случае - мультимодальным. Медианой случайной величины X называется такое ее зна­

чение х*, для которого р(Х <х*) - р{Х > х*) . Для непрерыв­

ной СВ х, распределенной на интервале [а; Ъ] по закону fix), ме­ диана определяется из уравнения

X\f{x)dx =\ .

(4.16)

Квантиль порядка а, ае(0, 1) есть значение ха, для кото­ рого р(Х < ха) = а и р(ха < X) = а. Медиана является квантилыо

порядка .

На практике часто требуется оценить среднее отклонение возможных значений случайной величины от ее среднего значе­

ния. Характеристикой такого отклонения служит дисперсия слу­ чайной величины.

Дисперсией дискретной СВ называют математическое ожидание квадрата отклонения случайной величины от ее мате­ матического ожидания:

D(X) = M(X-M(X)f.

(4.17)

Для непрерывной случайной величины х, распределенной на интервале [а; Ъ\ по закону fix), дисперсия определяется сле­

дующим образом:

 

J'xf{,x)dx

(4.18)

Статистически дисперсия может быть рассчитана по /=1,2, ..., п значениям СВ, полученным расчетом или в резуль­ тате эксперимента, если все исходы полагаются равновероят­ ными:

D { X ) = ^ - T { x - M { X ) ) 2

(4.19)

п - \ы \

 

Для оценки отклонения возможных значений СВ вокруг ее среднего значения часто используют также среднее квадра­ тическое отклонение, которое равно квадратному корню из дисперсии:

(4.20)

В настоящее время общепринятым является аксиоматиче­ ское построение теории вероятностей, базирующееся на аксио­ мах А.Н. Колмогорова [4, 17], которые основаны на теории множеств. Преимущество такого подхода заключается в ясном выделении математической стороны вопроса.

Аксиоматика Колмогорова базируется на анализе вероят­ ностного пространства (Q, U, р \ где П - пространство элемен­ тарных событий (по существу, Q - это достоверное событие);

121

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]