Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Математическое моделирование и основы научных исследований в сварке. Статистическая обработка и планирование эксперимента-1

.pdf
Скачиваний:
4
Добавлен:
20.11.2023
Размер:
5.74 Mб
Скачать

Дискретные случайные величины обладают таким свойством, что мы можем перечислить (перенумеровать) все их возможные значения. Таким образом, для задания распределения вероятностей, порожденных дискретными случайными величинами, надо только указать вероятности каждого возможного значения этой случайной величины. Например, число очков, выпавших при бросании игральной кости, это дискретная случайная величина, так как она может принимать только 6 значений: 1, 2, 3, 4, 5 или 6. Для определения вероятностей любых событий, связанных с этой случайной величиной, нам надо только указать вероятности каждого из

этих значений. Случайную величину называют дискретной, если

множество ее возможных значений конечно либо счетно. Иначе говоря, множество называется счетным, если его элементы можно перенумеровать натуральными числами. Дискретными случайными величинами называются такие, которые могут принимать лишь определенные значения, например 0,1; 0,2; 0,3 и т.д.

Непрерывными случайными величинами называются такие, которые в некотором интервале могут принимать любые значения. Например, число бракованных изделий в различных выборках из генеральной совокупности есть дискретная случайная величина, а размер сварочных дефектов непрерывная случайная величина. Всякую непрерывную случайную величину можно задать в виде дискретной, если все возможные ее значения разбить на интервалы и задать вероятность появления этих интервалов.

1.1.4. Плотность и интегральная функция распределения случайных величин

Если Х – случайная величина, а х – некоторое ее значение, то вероятность того, что Х < х

F(x) = P(X < x),

21

где F(x) некоторая функция, называемая интегральной функцией распределения (на рис. 1 F(x) ординаты кривой в некоторой точке х). При любом значении х 0 F(x) 1.

Плотность вероятности (х) есть предел отношения вероятности того, что случайная величина Х примет значение, лежащее между х и х + х, к величине интервала х при х 0 и вычисляется по формуле

X lim

x 0

Графически плотность представлена на рис. 2.

P x X x x .

x

вероятности случайной величины

Рис. 1. Интегральная функция

Рис. 2. Плотность вероятности

распределения

случайной величины

Будем считать, что случайная величина задана теоретическим законом, если заданы ее интегральный закон или ее плотность вероятности. Законов распределения плотности в статистической обработке множество. Наибольшее применение находит нормальный закон (закон Гаусса):

x

 

1

 

x a

2

 

 

exp

 

.

 

 

 

2 2

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

22

Случайная величина задана эмпирическим законом распределения, если для каждого значения случайной величины известна частота встречаемости, полученная из N опытов (табл. 2).

 

 

 

 

Т а б л и ц а 2

 

 

 

 

 

 

Значения X

x1

x2

x3

......

xn

Частоты

m1

m2

m3

......

mn

Частости

m1 /N

m2 /N

m3 /N

......

mn /N

При N , mi /N P(X). В пределе частости стремятся к вероятностям соответствующих значений случайной величины.

1.1.5.Основные параметры теоретического

иэмпирического распределения

Наиболее часто употребляемыми характеристиками случайной величины служат моменты и квантили.

Первым центральным моментом случайной величины Х является математическое ожидание МХ (или среднее значение).

Для дискретной случайной величины

n

MX xi P xi .

i 1

Для непрерывной случайной величины, заданной своей плотностью вероятности (x),

MX b x x dx.

a

Эмпирическое распределение характеризуется средним значением величины:

N

xi

x i 1 .

ср

N

 

23

При достаточно большом N выборочное значение xср стремится по величине к математическому ожиданию, т.е. xср = МХ.

Свойства математического ожидания:

математическое ожидание постоянной равно этой постоянной;

математическое ожидание суммы случайных величин равно сумме их математических ожиданий, т.е.

M(X + Y) = MX + MY;

математическое ожидание произведения случайной величины и константы равно произведению этой константы и математического ожидания случайной величины, т.е.

MaX = aMX.

Кроме среднего значения случайной величины, которое характеризует центр распределения вероятностей, большое значение имеет и разброс случайной величины относительно этого центра. Для количественного описания этого разброса в теории вероятностей используют второй центральный момент случайной величины, который в отечественной технической литературе называют дисперсией и обозначают через DX. Для дискретной и непрерывной случайной величины DX определяют соответственно по следующим формулам:

n

b

DX P X i xi MX 2 ,

DX x2 x dx MX 2 .

i 1

a

Величина рассеивания выборочных значений вокруг их среднего значения характеризуется эмпирической дисперсией

 

1

N

S 2

mi xi xср 2 .

 

 

N 1 i 1

Для N 25

24

 

 

1

N

 

 

S 2

mi xi

xср 2 .

 

 

 

N i 1

 

 

эмпирическим средним квадра-

S2

S называется

тическим отклонением, или стандартным отклонением случайной величины Х. При N S 2 = DX.

Свойства дисперсии:

дисперсия постоянной равна нулю;

для любой неслучайной постоянной а

D(X + a) = D(X), D(aX) = a2DX.

Кроме первого и второго моментов при описании случайных величин иногда используют и другие моменты: третий, четвертый и т.д. Наиболее распространенными являются третий и четвертый центральные моменты – соответственно

асимметрия А и эксцесс Е:

 

mi (xi x)3

 

mi (xi

x)4

A

i 1

, E

i 1

 

.

S 3

S 4

 

 

 

 

 

При нормальном распределении асимметрия равна нулю, а эксцесс – трем. Если А = 0, то кривая симметрична. Если А > 0, то кривая имеет положительную асимметрию, а если А < 0 – отрицательную (рис. 3). Эксцесс характеризует крутизну кривой.

Рис. 3. Кривые распределения в зависимости от величины А

25

Если Е > 3, то говорят, что имеется положительный эксцесс, т.е. вершина кривой находится выше кривой нормального распределения, если Е < 3 имеется отрицательный эксцесс и вершина кривой находится ниже кривой нормального распределения (рис. 4).

Рис. 4. Зависимость характера нормального распределения от Е

Для случайных величин, принимающих вещественные значения, часто используют такие характеристики, как квантили. Квантилем хр случайной величины, имеющей функцию распределения F(x), называется решение хр уравнения F(x) = p. Величину хр часто называют р-квантилем или квантилем уровня р распределения F(x). Среди квантилей чаще всего используются

медиана и квартили распределения.

Медианой называется квантиль, соответствующий значению р = 0,5. Верхним квартилем называется квантиль, соответствующий значению р = 0,75, нижним квартилем – квантиль, соответствующий значению р = 0,25.

Следует отметить, что уравнение F(x) = р, определяющее р-квантили, для некоторых значений р, 0 < р < 1, может не иметь решений либо иметь не единственное решение. Для соответствующей случайной величины это означает, что некоторые р-квантили не существуют, а некоторые определены неоднозначно.

26

При статистической обработке экспериментальных данных используются также такие величины, как коэффициент вариации Kv и размах R. Коэффициентом вариации называется отношение среднего квадратического отклонения к среднему значению случайной величины. Коэффициент вариации часто выражается в процентах, тогда полученное значение умножается на 100. Размахом R называется разность между крайними членами вариационного ряда. Размах, как и медиану, используют для характеристики выборок малого объема.

Для зависимых случайных величин часто необходимо оценить степень их зависимости друг от друга. Наиболее распространенными характеристиками являются ковариация и

корреляция.

Ковариация случайных величин X и Y

cov X ,Y M (X MX )(Y MY )

1 N (xi xср )(yi yср ),

N i 1

если указанное математическое ожидание существует. Для независимых случайных величин ковариация равна нулю. Но равенство ковариации нулю не означает, что случайные величины независимы.

Использование ковариации в качестве меры связи случайных переменных неудобно, так как величина ковариации зависит от единиц измерения, в которых измерены случайные величины. При переходе к другим единицам (например, от метров к сантиметрам) ковариация также изменяется, хотя степень связи случайных величин остается прежней. Поэтому для оценки связи случайных величин чаще используют характеристику, называемую коэффициентом корреляции. Коэффициент корреляции определяют по выражению

27

 

 

 

 

 

 

 

N

 

 

 

 

 

cov(

X ,Y )

 

 

(xi xср )(yi yср )

corr(X , Y )

 

 

 

i 1

 

.

 

 

 

 

 

 

 

 

 

 

DX DY

 

 

N

 

N

 

 

 

 

 

 

 

(xi xср )2

 

(yi yср )2

 

 

 

 

 

 

 

i 1

 

i 1

Корреляция случайных величин принимает значения от 1 до 1 и может быть равна ±1, только если эти величины линейно зависят друг от друга. Значения корреляции, близкие к 1 или 1, указывают, что зависимость случайных величин друг от друга почти линейная. Значения ковариации, близкие к нулю, означают, что связь между случайными величинами либо слаба, либо носит нелинейный характер.

1.1.6. Техника вычисления параметров эмпирического распределения

В предыдущем параграфе мы использовали слово «выборка» для описания результата случайного выбора нескольких объектов из некоторой заданной генеральной сово-

купности. Выборкой называют последовательность независимых одинаково распределенных случайных величин.

Взависимости от объема выборки может быть рекомендована различная техника вычислений параметров выборки. Рассмотрим технику вычислений при объеме выборки N > 25, как наиболее часто применяемом.

Вэтом случае все значения случайных величин целесообразно разбить на интервалы и произвести подсчет частот. Например, имеется 40 значений твердости (HRC) наплавленного металла от 26 до 40 единиц. Для вычислений

составим таблицу (табл. 3), где через хi обозначены середины интервалов, в конце граф 3, 5 и 6 проставлены суммы цифр соответствующих колонок.

28

Т а б л и ц а 3

Номер

 

Середина

Частота

 

 

xi2

 

mixi

mixi2

интервала

интервала xi

mi

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

2

 

3

 

 

 

 

4

 

5

6

1

 

 

 

27

 

2

 

 

 

 

729

 

54

1458

2

 

 

 

29

 

5

 

 

 

 

841

 

145

4205

3

 

 

 

31

 

9

 

 

 

 

961

 

279

8649

4

 

 

 

33

 

12

 

 

1089

 

396

13068

5

 

 

 

35

 

8

 

 

 

1225

 

280

9800

6

 

 

 

37

 

3

 

 

 

1369

 

111

4107

7

 

 

 

39

 

1

 

 

 

1521

 

39

1521

 

 

 

 

 

 

40

 

 

 

 

 

1304

42808

В таблице

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

N mi

40;

 

 

 

 

 

 

 

 

mi xi

1304;

 

 

 

 

 

 

 

 

mi xi

2 42808.

 

 

Ограничимся вычислением хср и S.

 

 

 

 

 

 

x

 

mi xi

 

1304

32,6;

 

 

 

 

 

 

cp

mi

 

 

40

 

 

 

 

S 2

mi xi

2

x2

42808 (32,6)2

1070,2 1062,8 7,4;

 

mi

 

ср

 

40

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

S = 2,72.

 

 

 

 

Графическое изображение зависимости частоты попадания элементов выборки от соответствующего интервала

группировки называется гистограммой выборки.

В качестве ординаты здесь берется не сама частота, а частота, деленная на длину интервала группировки, если все интервалы группировки имеют одинаковую длину. На рис. 5

29

приведены гистограммы выборки. Ординатой на этом рисунке является число заклепок в каждом интервале группировки.

Согласно определению, площадь каждого столбца гистограммы равна (точнее, пропорциональна) частоте попадания наблюдений в данный интервал группировки. Величина интервала группировки существенно влияет на общий вид гистограммы. Если длина интервала группировки мала, то влияние случайных колебаний начинает преобладать, так как каждый интервал содержит при этом лишь небольшое число наблюдений. Этот эффект хорошо виден на рис. 5: чем больше величина интервала группировки, тем более скрадываются характерные черты распределения.

а б

Рис. 5. Гистограммы выборки с длиной интервала:

а – 0,02 мм; б – 0,05 мм

Если группированное распределение должно являться основой для последующих вычислений, то, как правило, все интервалы группировки должны быть небольшими и иметь одну и ту же длину.

1.1.7. Нормальное распределение

Наиболее общие закономерности для многих вероятностных распределений определяются так называемым нормальным распределением. Нормальное распределение относится к

30

Соседние файлы в папке книги