Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Дронов С.В. Многомерный статистический анализ-1

.pdf
Скачиваний:
1
Добавлен:
11.04.2024
Размер:
958.12 Кб
Скачать

2.4. Нормальное распределение в многомерном случае

21

называется нормальным со средним ~a и ковариационной матрицей V

=

A 1. Если вектор среднего нулевой, то соответствующее распределение называют центрированным.

Нетрудно убедиться (например, интегрированием плотности в пределах от 1 äî 1 по всем переменным, кроме выбранных), что распре-

деление каждого подвектора нормального вектора также нормально.

В частности, каждая из его координат i; i = 1; :::; n имеет нормальное

распределение, а значит, диагональные элементы A 1 равны дисперсиям соответствующих координат.

Теорема 2 Пусть вектор ~ имеет нормальное распределение. Если для

произвольной пары индексов i; j справедливо ( i; j) = 0, то координа- òû 1; :::; n независимы.

~

Доказательство. Из условия следует, что матрица cov диагональна, а значит и матрица A тоже диагональна. Обозначим ее диагональные

элементы 2; :::; 2

лировкой теоремы,1 n . Тогда в силу замечания, сделанного перед форму-j2 = D j; j = 1; :::; n: Очевидно, что

 

n

 

1

 

 

 

 

 

n

1

 

jAj =

Y

j2;

A(~x ~a) (~x ~a) =

jX

(xj aj)2:

 

 

 

 

2

2 2

 

j=1

 

 

 

 

 

 

 

 

=1

j

 

Отсюда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

1

 

 

 

1

(xj aj)2

 

n

 

p(~x)

=

 

 

 

=

j=1 p j (xj);

j=1 2 j2 exp

2

 

 

Y

 

 

 

 

 

 

 

 

Y

 

что и означает независимость.

Итак, в этом случае понятия независимости и некоррелированности совпадают.

Лемма 3 Åñëè ~

имеет n-мерное нормальное распределение с вектором

1=2 ~

средних ~a и ковариационной матрицей V , то и вектор ~ = V ( ~a) имеет стандартное n-мерное распределение, т.е. нулевой вектор сред-

них и единичную ковариационную матрицу. В частности, его координаты стандартные нормальные случайные величины.

Доказательство этой леммы легко получается заменой переменных в n-

кратном интеграле, выражающем вероятность попадания ~ в измеримое множество.

22 Глава 2. Многомерные распределения

1 ~ ~

Теорема 3 В условиях леммы 3 случайная величина V ( ~a) ( ~a)

имеет распределение хи-квадрат с n степенями свободы.

Доказательство. В силу свойств скалярного произведения и симметричности матрицы V имеем

V

1

~

~

~a) = V

1=2

~

~

~a) = ~ ~:

 

(

~a) (

 

(

~a) (

При этом согласно лемме 3 и определению распределения хи-квадрат (приведено в приложении 2) утверждение теоремы следует из соотношения n

~ ~ = X i2:

i=1

Сделаем следующее простое замечание. В случае, когда мы имеем двумерный нормальный вектор, плотность его распределения с точностью до констант перед экспонентой равна

expf12 (A1;1x21 + 2A1;2x1x2 + A2;2x22)g;

ãäå Ai;j - элементы матрицы, обратной ковариационной:

 

 

= 0

 

12

 

 

 

c1;2

1 ;

 

A = V

 

 

 

 

 

 

j1

j

 

1

jc1j;2

 

 

 

 

 

@

 

 

 

2

 

 

A

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

jV j

 

 

 

jV j

 

 

c1;2

 

= cov( 1; 2):

 

 

 

 

 

Отсюда, в частности, следует, что

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( 1; 2) =

 

c1;2

=

 

 

A1;2

 

 

:

(2.1)

1 2

q

 

 

A1;1A2;2

Случай многомерного нормального распределения замечателен тем, что он очень часто встречается при изучении природных процессов. Одно время даже считалось, что практически все природные явления согласуют свое поведение именно с этим распределением. И даже сегодня, когда стало ясно, что такое предположение далеко от действительности, исследователи-практики, попав в незнакомую ситуацию, для начала пытаются применить к ней аппарат, разработанный для нормального слу- чая. Вторая замечательная особенность рассматриваемой ситуации состоит в том, что для нормальных распределений многие сложные формулы приобретают относительно простой вид - все можно рассчитать в явном виде.

2.5. Корреляционная теория

23

2.5Корреляционная теория

В случае, когда изучаются только две случайные величины, их взаимосвязь (по крайней мере, ее линейная часть) описывается коэффициентом корреляции между ними. Если же размерность задачи больше двух, то можно ввести характеристики, похожие на этот коэффициент, которые описывают взаимодействие случайных векторов, координатами которых являются исследуемые величины. Эти коэффициенты называют коэффициентами частной и множественной корреляции.

К сожалению, простые формулы, определяющие эти коэффициенты, выписать невозможно, поэтому мы разовьем соответствующий подход на примерах.

Начнем с двумерного случая. Двумерное центрированное нормальное распределение ( 1; 2) имеет плотность

 

 

p(x1; x2) =

s

 

jAj

exp

 

1

(A1;1x12 + 2A1;2x1x2 + A2;2x22) ;

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

f 2

 

 

 

g

 

 

 

 

 

ãäå A матрица, обратная ковариационной. Т.е., если

 

 

 

 

 

 

 

 

 

 

 

 

 

cov( 1; 2)

 

22

!

 

 

 

 

 

 

 

 

 

 

V =

 

 

12

cov( 1; 2)

;

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

òî Ai;j

=

ci;j

; i; j

= 1; 2, ãäå ci;j алгебраическое дополнение к месту

jV j

(i; j) матрицы V . В нашем случае

 

 

 

 

 

 

 

 

 

 

 

 

 

 

c1;1 = 22;

c1;2 = cov( 1; 2);

 

 

 

(2.2)

и, с точностью до констант,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p(x1; x2)

expf

 

1

 

(c1;1x12 + 2c1;2x1x2

+ c2;2x22)g:

 

 

(2.3)

 

 

 

 

 

 

 

2jV j

 

 

Итак, в двумерном случае из (2.2) и (2.3) получаем, что

 

 

 

 

 

 

 

 

 

 

 

 

( 1; 2) =

 

c1;2

:

 

 

 

(2.4)

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

 

 

 

c1;1c2;2

 

 

 

 

 

 

Теперь рассмотрим случай трехмерного центрированного нормально-

го вектора ~

 

 

 

 

и поставим задачу оценить связь между

1

è

2

ïðè

 

= ( 1; 2; 3)

 

 

 

 

 

 

 

 

 

 

 

 

 

фиксированных остальных координатах - в данном случае

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

3.

 

 

Ó

24

 

 

 

Глава 2. Многомерные распределения

условной плотности

1; 2 при фиксированном 3 = x3 , вычисляемой по

формуле

 

 

 

 

p 1; 2= 3=x3 (x1; x2) = p(x1; x2jx3) =

 

p(x1; x2; x3)

 

 

 

 

 

;

 

 

 

1

 

 

 

 

 

 

R

p(x1; x2; x3)dx3

показатель степени экспоненты имеет вид

1

 

 

 

 

 

1

 

c1;1(x1 b1)2 + 2c1;2(x1 b1)(x2 b2)

+ c2;2(x2 b2)2 ; (2.5)

 

 

 

2jV j

ãäå b1; b2 решения системы

 

 

 

 

 

 

c1;1b1 + c1;2b2 = c1;3x3; c1;2b1 + c2;2b2 = c2;3x3:

Эта система всегда имеет единственное решение в силу положительной

определенности ковариационных матриц.

Из (2.5) и (2.1), (2.3) следу-

ет, что при фиксированном

 

 

величины

 

 

 

 

ное распределение и

коэффициент корреляцииимеютмеждудвумерноеними задаетсянормальпри-

 

x3

 

 

 

1

; 2

 

помощи (2.4) :

 

 

 

 

 

 

c1;2

 

 

 

 

 

R12;(3) =

 

 

 

 

 

 

 

:

(2.6)

 

 

 

 

p

 

 

 

 

 

c1;1c2;2

 

Этот коэффициент называют частным коэффициентом корреляции меж-

äó

 

 

при фиксированном

 

 

 

 

 

 

 

 

 

формулой (2.6), даже если мы.Такойотказываемсякоэффициентот предположениявсегда определяетнор--

ñÿ 1

; 2

 

 

 

3

 

 

 

 

 

 

мальности рассматриваемых величин. Под

ci;j, как и выше, мы понимаем

алгебраическое дополнение к месту

 

 

 

 

 

 

 

 

 

 

 

(i; j) в ковариационной матрице V .

Можно также распространить определение (2.6) на случай числа изме-

рений, большего трех. При этом определяемый коэффициент обознача-

åòñÿ R12;(34:::p) à â ðîëè V выступает ковариационная матрица, имеющая

в этом случае порядок p. Аналогично могут быть определены частные коэффициенты корреляции для любой пары выбранных координат при фиксированных остальных координатах.

Вычислив частные коэффициенты корреляции, мы считаем, что оха-

рактеризовали "очищенную"связь между, например, и нее влияние оставшихся переменных. В том трехмерном1варианте,2, убравкотоиз-

рый мы рассматривали выше, можно отметить следующую связь между частным и обычными коэффициентами корреляции:

R12;(3) =

 

12 13 23

:

 

 

 

q(1 132 )(1 232 )

M( 1= 2; :::; p):
2.5. Корреляционная теория

25

Подобные связи через обычные коэффициенты корреляции могут быть получены и для остальных частных коэффициентов. Можно предложить следующую геометрическую интерпретацию этой теории, которая поясняет смысл полученных формул в случае, когда рассматриваемые коэф-

фициенты оцениваются по результатам n наблюдений над изучаемыми

величинами.

~

 

Будем представлять i; i = 1; :::; p(p 3) векторами OQi â n мерном

пространстве, имеющими длинами свои среднеквадратические отклоне-

ния. Тогда коэффициенты парной корреляции это косинусы углов меж-

ду векторами, а вычисление частных, "очищенных", корреляций соответ-

ствует нахождению косинусов углов между составляющими соответству-

ющих векторов, которые ортогональны линейному подпространству, на-

тянутому на фиксируемые векторы. Наличие упомянутых связей в этом

контексте интерпретируем как то, что все углы между найденными ком-

понентами могут быть вычислены, если мы знали все углы в первона-

чальной конструкции.

 

Нам понадобится т.н. остаток 1 после фиксации остальных величин:

x1(2;:::;p) = 1

ßñíî, ÷òî Mx1(2;:::;p) = 0: Обозначим дисперсию этого остатка через

1(22 ;:::;p) = Mx21(2;:::;p):

Для случая многомерного нормального распределения понятия остатка и ошибки регрессии (см. главу "Регрессионный анализ")

 

 

 

1(2;:::;p) = 1

p

 

 

 

 

 

 

 

i i

 

 

 

 

 

 

 

=2

 

 

 

 

 

 

 

Xi

 

 

совпадают, а значит и мы далее не будем их различать.

Коэффициенты i регрессии находятся из условия

 

 

 

@

n

p

 

2

 

 

 

 

0

1j i ij! 1 = 0;

 

 

 

 

 

@ i

 

 

 

 

=1

i=2

 

A

 

 

 

 

 

@jX

X

 

 

1 через линейные

позволяющего наилучшим образом аппроксимировать

комбинации остальных величин. Поэтому

 

 

 

n

 

p

n

 

 

 

 

1j

1j

i ij! =

1jx1(2j

:::p) = 0:

=1

 

 

=2

j=1

 

 

 

jX

 

Xi

X

 

 

 

26

 

 

 

 

Глава 2.

Многомерные распределения

Отсюда следует. что вектор остатков

x1(2;:::;p) ортогонален любому из век-

торов

 

 

 

 

íà

~

. Нетрудно понять, что на

R12(3:::p)

 

OQi; i 2

 

 

è

 

 

можно смотреть, как

 

косинус угла между

 

 

 

 

 

 

 

 

 

характеристике связей.

между одномерной вели-

 

Перейдем теперь к

x1(3;:::;p)

 

x2(3;:::;p)

 

 

 

чиной и многомерным случайным вектором. Вернемся к трехмерному случаю, определим ~ = ( 2; 3)t и будем считать, что ~ фиксирован.

Рассмотрим условную дисперсию

D(~x) = D( 1=~ = ~x)

и подставим в эту (неслучайную) функцию в качестве аргумента ~. Обозначим

2

= MD(~):

 

1;(2;3)

 

 

Эта величина описывает среднюю изменчивость

1 при неизменном зна-

чении

 

( 2; 3). Коэффициентом множественной корреляции между 1 è2; 3 называется число

v

u2

u1;(23) R1;(2;3) = t1 D 1 :

Квадрат этой величины называют коэффициентом детерминации. Действуя аналогичным образом, т.е. фиксируя некоторые подвекторы

вектора произвольной размерности ~, рассчитывая математические ожи-

дания оставшихся незафиксированными координат при выбранном условии (при этом в результате могут получаться векторные характеристики) и усредняя эти математические ожидания по фиксированным ранее зна- чениям, мы можем получить коэффициенты множественной корреляции между любыми наборами координат.

Приведем формулы для вычисления множественного коэффициента корреляции через парные и частные коэффициенты корреляции коорди-

нат нормального вектора. Пусть V , как и раньше, корреляционная ма-

трица ~

- алгебраическое дополнение ее определителя к месту (i; j).

, ci;j

Тогда множественный коэффициент корреляции между

1

è

2

; :::; n âû-

числяется так:

 

 

 

 

 

R2

= 1

jV j

:

 

 

 

 

 

1;(2;:::;n)

 

c1;1

 

 

 

 

2.5. Корреляционная теория

27

Можно также выписать его связь с частными коэффициентами корреляции (i; j):

n

R12;(2;:::;n) = 1 Y(1 21;j): j=2

28

Глава 2. Многомерные распределения

Глава 3

Группировка и цензурирование

Задача формирования групп выборочных данных таким образом, чтобы сгруппированные данные могли предоставить практически тот же объем информации для принятия решения, что и выборка до группировки, решается исследователем в первую очередь. Целями группировки, как правило, служат снижение объемов информации, упрощение вычислений и придание наглядности данным. Некоторые статистические критерии изначально ориентированы на работу со сгруппированной выборкой. В определенных аспектах задача группировки очень близка задаче классификации, о которой подробнее речь пойдет ниже. Одновременно с задачей группировки исследователь решает и задачу цензурирования выборки, т.е. исключения из нее резко выпадающих данных, как правило, являющихся следствием грубых ошибок наблюдений. Естественно, желательно обеспечить отсутствие таких ошибок еще в процессе самих наблюдений, но сделать это удается не всегда. Простейшие методы решения упомянутых двух задач рассмотрены в этой главе.

3.1Группировка в одномерном случае

В одномерном случае методы группировки (числовых) данных хорошо разработаны. Иногда группы уже подразумеваются в логике постановки задачи, иногда их, что называется, сразу видно. Напомним кратко, как поступать, если никаких априорных соображений не имеется.

Сначала определим число r групп-интервалов, которые мы хотим построить. Для начала можно воспользоваться эмпирической формулой

29

30

Глава 3.

Группировка и цензурирование

Стерджеса

 

 

 

 

 

r

= [log2 n] + 1;

 

(3.1)

ãäå n объем выборки, [:] обозначена целая часть числа.

 

 

Далее определим максимальный

X(n)

и минимальный

X(1)

элементы

выборки, ее размах

 

 

T = X(n) X(1) и длину типичной группы-интервала h = T=r. Строим границы групп-интервалов zj; j = 0; :::; r, полагая

z0 = X(1) "; zj = zj 1 + h; j = 1; ::; (r 1); zr = X(n) + ":

Здесь " - произвольное малое число, не обязательно одинаковое в первой

и последней формуле. В некоторых задачах z0; zr принимаются равными

1; 1 соответственно. После этого следует убедиться, что выполнено следующее условие:

Границы групп не должны совпадать с элементами выборки

Если это условие нарушается, то необходимо сдвинуть границы

zj íà

малое число

" вправо или влево.

 

Наконец, найдем количества nj элементов выборки X, расположенных между zj 1 è zj; j = 1; :::; r. Тут возникает самое главное условие

В каждом интервале должно быть от 3 до 19 элементов выборки

Если условие не выполнено, необходимо разбить "перенаселенные"интервалы на более мелкие и укрупнить "малообитаемые"интервалы за счет присоединения к соседним или просто за счет передвижения границ. Добив-

шись выполнения последнего условия, полагаем j = (zj 1; zj); j =

1; :::; r (â ðîëè z; r выступают их последние варианты, измененные в процессе борьбы за выполнение сформулированных условий), и группировка закончена.

В сгруппированной выборке принято все элементы X, попавшие в

группу

ке появилосьj, отождествлятьдовольно большоес ее серединойчисло одинаковыхи, тем самым,элементовв нашейс повторвыбор--

ностями nj. За счет этого можно сэкономить на вычислениях, заменяя,