Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

4Некоторые законы распределения СВ

.doc
Скачиваний:
2
Добавлен:
18.02.2023
Размер:
1.23 Mб
Скачать

, .

Геометрическим называется распределение ДСВ , определяемое формулой:

, , .

Название связано с тем, что этот ряд вероятностей есть бесконечно убывающая геометрическая прогрессия со знаменателем , сумма этого ряда равна единице:

.

ЛЕКЦИЯ 9. НЕКОТОРЫЕ ЗАКОНЫ РАСПРЕДЕЛЕНИЯ НЕПРЕРЫВНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН

Равномерное распределение. Рассмотрим непрерывную случайную величину , которая принимает равновозможные значения только на отрезке . Всюду, кроме , .

Примеры НСВ такого рода:

а) время ожидания на остановке автобуса;

б) ошибка округления результата измерения до ближайшего целого числа.

Плотность вероятности НСВ имеет вид:

Так как площадь, ограниченная кривой распределения, равна единице: (рис. 1), то и

Эта функция выражает закон равномерной плотности на отрезке . Найдём функцию распределения , учитывая, что

.

Пусть , тогда

.

Если , то

.

При

.

Запишем функцию равномерного распределения и изобразим её график (рис. 2):

Вычислим основные числовые характеристики равномерно распределённой случайной величины.

.

Так как равномерное распределение симметрично, медиана НСВ равна , моды нет.

.

В силу симметричности распределения его асимметрия равна нулю.

►Пример. Автобусы некоторого маршрута идут строго по расписанию. Интервал движения 5 мин. Найти вероятность того, что пассажир, подошедший к остановке, будет ожидать очередной автобус менее 3 мин.

Решение. Время ожидания автобуса можно рассматривать как НСВ , которая распределена равномерно в отрезке времени . Тогда

. ◄

Показательное распределение. Рассмотрим интервалы времени между двумя последовательными событиями в простейшем потоке событий. Вероятность того, что за промежуток времени от предыдущего события следующее событие не произошло, а за малый дополнительный промежуток времени событие произошло один раз, равна:

.

Отсюда найдём плотность вероятности:

при .

Если , то .

Таким образом, плотность вероятности временного интервала между двумя соседними событиями описывается выражением

Распределение непрерывной случайной величины с плотностью вероятности (рис. 3) называется экспоненциальным (показательным).

Проверим выполнимость условия

.

.

Найдем с помощью формулы:

.

При

.

При

.

Функция распределения показательного закона имеет вид:

Можно показать, что

, .

►Пример. НСВ распределена по показательному закону с плотностью вероятности

Найти вероятность попадания значений НСВ в интервал .

Решение.

. ◄

В теории надёжности показательный закон распределения является одной из возможных математических моделей.

Элементом назовём некоторое устройство, независимо от того, «простое» оно или «сложное». Пусть элемент начинает работать в момент времени , а в момент времени происходит отказ. Обозначим через непрерывную случайную величину – время безотказной работы элемента, через – интенсивность отказов (среднее число отказов в единицу времени).

Часто время безотказной работы элемента распределяется по показательному закону с функцией распределения вида , где . Эта функция есть вероятность отказа элемента за время .

Тогда понятно, что вероятность безотказной работы элемента за время определяется функцией надёжности .

►Пример. Время безотказной работы элемента имеет показательное распределение , . Найти вероятность того, что за время ч:

а) элемент откажет;

б) элемент не откажет.

Решение. а) Так как функция распределения есть вероятность отказа элемента за время , то, подставив в функцию распределения, получим вероятность отказа:

.

б) События «элемент откажет» и «элемент не откажет» – противоположные, поэтому вероятность того, что элемент не откажет равна

. ◄

Нормальное распределение. Рассмотрим биномиальное распределение в случае, когда число независимых испытаний велико, то есть . При этом число тоже неограниченно возрастает (при постоянном ). В таком случае биномиальное распределение сходится к нормальному (гауссовскому) распределению с плотностью вероятности:

при .

Числа и – параметры распределения, – некоторая постоянная.

Чтобы найти , пронормируем плотность вероятности:

.

Пусть , тогда . Интеграл имеет вид:

.

Так как (интеграл Пуассона)1, то . Откуда

.

Таким образом, нормальное распределение имеет плотность

при .

Смысл параметров и выясним позже.

График функции называется нормальной кривой или кривой Гаусса. Построим её график.

Область определения . Функция принимает только положительные значения, поэтому график находится выше оси . Найдем экстремум функции .

Производная

равна нулю при , меняет знак с плюса на минус при переходе через эту точку. Значит, – точка максимума функции , .

Чем больше , тем меньше максимум, а так как площадь, ограниченная всей кривой и осью , равна единице, то с увеличением кривая как бы растягивается вдоль оси . При уменьшении кривая вытягивается вверх вдоль прямой , но сжимается в горизонтальном направлении, сохраняя форму.

Следовательно, параметр характеризует форму кривой, параметр – её положение (рис. 4).

Вторая производная

равна нулю при и при , меняет знак при переходе через эти точки. Значит, точки перегиба имеют координаты

, .

О сь – горизонтальная асимптота.

В случае, когда , , функция имеет вид:

.

В этом случае нормальное распределение называется нормированным.

Найдём матожидание и дисперсию нормально распределённой случайной величины.

.

Первый интеграл равен нулю, поскольку заменой переменной сводится к интегралу, у которого под знаком интеграла стоит нечётная функция, а интегрирование осуществляется в симметричных пределах. Второй интеграл равен единице по условию нормировки. Имеем:

.

.

Таким образом, параметр имеет смысл матожидания, параметр – дисперсии.

Так как нормальное распределение случайной величины симметрично относительно , то все центральные моменты нечётного порядка равны нулю. Это значит, что .

Для центральных моментов чётного порядка имеем:

,

так как

.

,

откуда следуют соотношения:

, , и т.д.

Эксцесс . Это объясняется тем, что эксцесс характеризует крутость исследуемого закона распределения по сравнению с нормальным.

Вероятность попадания значений нормально распределённой НСВ Х в заданный интервал. Вероятность попадания значений НСВ в интервал равна определенному интегралу от ее плотности по этому интервалу:

.

Рассмотрим функцию – функция Лапласа. Тогда

.

Правило трёх сигм. Найдём вероятность того, что абсолютная величина отклонения нормально распределённой НСВ от своего математического ожидания меньше положительного числа или вероятность неравенства :

.

Положим , тогда

.

Если , то есть , то

.

Это равенство означает, что событие, состоящее в осуществлении неравенства , является почти достоверным. То есть среди 10000 значений нормально распределённоё случайной величины в среднем только 27 выйдут за пределы интервала .

Приближённое равенство

называется правилом трёх сигм.

►Пример. Производится измерение вала без систематических (одного знака) ошибок. Случайные ошибки измерения (СВ ) подчинены нормальному закону со средним квадратическим отклонением мм. Найти вероятность того, что измерение будет произведено с ошибкой, не превосходящей по абсолютной величине 15 мм.

Решение. Математическое ожидание случайных ошибок равно нулю, поэтому применима формула

.

Положив , , находим

.

По таблице приложения 2 находим:

.

Искомая вероятность

. ◄

Функция распределения нормальной случайной величины. Согласно формуле и определению нормального распределения, имеем:

,

где – функция Лапласа. Таким образом, функция распределения нормальной НСВ имеет вид:

, где – функция Лапласа.

Вариационный подход к получению дифференциальной функции распределения. Рассмотрим альтернативный подход к получению наиболее популярных распределений случайных величин, основанный на экстремальности энтропии.

К понятию энтропии естественным образом приводит следующая

Задача. Имеются рычажные весы без гирь и 25 внешне одинаковых монет, одна из которых несколько тяжелее остальных. Требуется гарантированно определить ее минимальным числом взвешиваний.

Решение. Очевидно, взвешивать монеты нужно одинаковыми по численному составу группами. Правильный численный состав обеспечивает извлечение из каждого взвешивания максимальной информации для локализации тяжелой монеты.

Таким образом, встал вопрос о мере информации, извлекаемой из эксперимента с несколькими возможными исходами.

В качестве такой меры можно взять среднюю длину сообщения об итогах эксперимента с несколькими возможными расходами (усреднение производится по всем исходам).

(В частности, взвешивание может закончиться тремя исходами: перетягиванием левой чаши, правой или их балансом).

Очевидно, однако, что длина сообщения определяется не только содержанием эксперимента, но и используемой системой записи самих сообщений. Например, итог можно описать словами (перевесила левая чаша, перевесила правая чаша, осуществился баланс) а можно и перенумеровать (закодировать) исходы и по окончании опыта указывать лишь код реализовавшегося исхода.

По техническим причинам в электронных средствах записи цифровой информации наибольшее распространение получила двоичная система исчисления. Т.е. код исхода представляет последовательность нулей и единиц. Их количество и есть длина сообщения.

Чтобы объективно сравнивать количества информации, извлекаемые из разных экспериментов (например, отличающиеся численным составом взвешиваемых групп) при кодировании нужно соблюсти очевидные требования:

1) максимально лаконично кодировать исходы сравниваемых опытов (например, нельзя использовать длинные номера, пока не заняты все более короткие;

2) чтобы средняя длина сообщения была короче, более вероятным исходом нужно присваивать самые короткие номера.

Указанным требованиям отвечает следующая система кодирования:

Разобьем все исходы на две группы с примерно равными суммарными вероятностями (по 1/2 на группу). Одной из групп поставим в соответствие 0, второй – 1. Затем каждую из групп (если в ней более одного исхода) снова разобьем на две части с примерно равными суммарными вероятностями (по 1/4 на каждую часть). Первой подгруппе первой группы будет соответствовать код 00, второй 01. Аналогично для 1-ой и 2-ой подгрупп второй группы имеем 10 и 11 соответственно. Указанную процедуру будем продолжать до тех пор, пока в каждой из подгрупп не останется по одному исходу.

Заметим, что исходу с вероятностью Р = 1/2 соответствует код из одной цифры исходу с Р = 1/4 – из двух цифр, с Р = 1/8 – из трех и т.д. Т.е.

где ni – число цифр (длина сообщения об i-ом исходе).

При этом

. (1)

Последнее равенство определяет информативность опыта с данным распределением вероятности по исходам. Покажем, что максимальна, если распределение равномерно где N – число исходов. Пусть для простоты N = 2

.

Что и требовалось доказать.

Т.о., возвращаясь к задаче о монетах, перед взвешиванием их нужно делить на три по возможности равные кучки, чтобы вероятности попадания в них тяжелой монеты были примерно равны. В этом случае возможны исходы (левая, правая, баланс) будут равновероятны.

Т.е. на каждую чашку положим по 8 монет. В случае баланса тяжелая среди оставшихся девяти. Вторым взвешиванием локализуем ее среди трех, и третьим определяем.

Общее количество взвешиваний можно найти, не конкретизируя результат каждого из них.

Вначале введем энтропию S, как меру неопределенности результата эксперимента с несколькими возможными исходами. Очевидно извлекая мы уменьшаем S

.