Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Эконометрика. Начальный курс

.pdf
Скачиваний:
15
Добавлен:
20.11.2023
Размер:
21.93 Mб
Скачать

Упражнения

241

Обычный метод наименьших квадратов:

Ct

16.2 + 0.l93Pt + 0.090Pt- i + 0.796 (W? + Wf),

(1.30)

(0.091)

(0091)

(0.040)

1

1

'

It

10.1

+ 0.480Pt + 0.333Pt_1

0.112tft_b

 

 

 

(5.47)

(0.097)

(0.101)

(0.027)

 

 

 

W f =

1.48

+ 0.439*t + 0.146Xt_i + 0.130At.

 

 

 

(1.27)

(0.032)

(0.037)

(0.032)

 

 

 

Двухшаговый метод наименьших квадратов:

 

 

 

Ct

16.6

+ 0.017Pt + 0.216Pt_! + 0.810 (Wtp + WP),

 

(1.32)

(0.118)

(0 107)

(0.040)

1

 

 

It =

20.3 + 0.150Pt + 0.6l6Pt_i -

0.158tf(_1(

 

 

 

(7.54)

(0.173)

(0.162)

(0.036)

 

 

 

W? =

1.50 + 0 . 4 3 9 +

0.147Xt_! + 0.130At.

 

 

 

(1.15)

(0.036)

(0039)

(0.029)

 

 

 

Упражнения

9.1. Рассмотрим следующую модель:

Ct = а + 0Yt + £ц,

1Yt —Ct + It + Gt,

h = 7 + &Yt + £2t-

Эндогенные переменные — Ct,Y t, It, экзогенная переменная — Gt- Напишите эту модель в матричной форме и найдите ее приведенную форму. Сколько ограничений накладывается на шесть коэффициентов приведенной формы модели и каковы эти ограничения? Покажите, что при заданных значениях коэффициентов приведенной формы можно единственным образом получить значения коэффициентов а, 0, у и S, т.е. при заданной матрице П уравнение ВП + Г имеет единственное решение относительно В и Г.

9.2. Рассмотрим проблему идентифицируемости каждого из уравнений в следующей модели:

{ Pt +P\iWt

+7n*?t

+71зР*-1

= е«.

021Pt +

Wt + 02zNt

 

+ 722-St

+ 724^1—1= 62t,

+

032^t + Nt

 

+ 732$t + 733Pt-1

+ 734^-1 = e3ti

242

Гл. 9. Системы регрессионных уравнений

где Pt, Wt, Nt индекс цен, зарплата, профсоюзный взнос соответствен­ но (эндогенные переменные), a Qt н St — производительность труда и количество забастовок (экзогенные переменные). Как выглядят поряд­ ковое и ранговое условия, если известно, что:

а)

7 н

= 0 ,

б)

0 2 1

= 1 2 2 = 0,

в)

7зз = 0?

9.3. Опишите процедуру оценивания каждого из уравнений следующей системы:

Уи +012У21

+ 7 п + 7 i2 * 2 t

 

=

£ ц ,

J/2t

+ 721

+723*31

=

£21»

032V2t +

У31 + 7 3 1

+733*31

=

£31-

9.4. Рассматривается следующая система уравнений:

{ Уи =

7 ю

+

^ 12!/21 +

^13У31 + 7 1 1 * 1 1 + 7 1 2 * 2 1

+

£ ц ,

У21

=

120

+ 021У н

 

+ 7 2 1 * 1 1

+ £21»

У31

=

7зо

+ 031Уи +

032V2t

+ 7 3 i* it

+ 733 * 3 i +

£ 3 1-

Идентифицируемо ли каждое из уравнений системы? Что получит­ ся, если применить к первому уравнению двухшаговый метод наимень­ ших квадратов?

9.5. Задана система одновременных уравнений (уь 2/2, 2/3 — эндогенные переменные).

{ Уи =

7 ю

+

0\2Угг

+

7 i i * i t

+

£ « ,

У21 =

720

 

 

+ 023У31 +

721*11

+ 723*31 + £21»

У31 =

031уи

+

032У21

+

731*11 +

732*21 + 733*31 +

£31.

а) Для каждого из трех уравнений определите, выполняются ли по­ рядковые и ранговые условия идентифицируемости.

б) Повторите а) при дополнительном ограничении: 732 = 0.

в) Повторите а) при дополнительном ограничении: 732 = 1.

г) Повторите а) при дополнительном ограничении: 732 —7зз-

Упражнения

243

9.6. Рассматривается модель, состоящая из двух внешне не связанных уравнений (SUR):

ГУи = 0i + £ь

^y a t = 0iXt +£2 -

По 50 наблюдениям (по каждому уравнению) получены следующие

результаты:

=

100,

=

600, £ ® tyti =

60, £ ® tyt 2 = 50,

£ у п = 150, 22у?1 =

500, £ у н у м

= 40, £ y t2 = 50,

Х>?2 = 90.

а) Напишите формулу для GLS-оценки параметров 0г, fo. б) Найдите OLS-оценку этих параметров.

в) Найдите SUR (FGLS)-oneHKy этих параметров и оцените матрицы ковариаций этих оценок.

Глава 10

Метод максимального правдоподобия в моделях регрессии

Данная глава несколько отличается от других глав. Разделы 10.1- 10.4 фактически содержат справочный материал по методу мак­ симального правдоподобия, широко применяемому в математи­ ческой статистике. Подробное изложение этого материала можно найти, например, в (Айвазян (1983), Крамер (1975), Рао (1968)). Раздел 10.5 во многом повторяет описанные кратко в разделах 2.7, 5.3 и приложении МС (п. 7) способы применения этого метода к моделям парной и множественной регрессии. Причина, по кото­ рой мы поместили этот материал не в приложении МС, а здесь, состоит в следующем. Первое, метод максимального правдоподо­ бия является традиционно трудным для студентов разделом кур­ са математической статистики, и его, по нашему мнению, следует повторить в курсе эконометрики, включающем в себя темы вре­ менных рядов и дискретных зависимых переменных, в которых этот метод интенсивно используется. Второе, удобство читателя, для которого все необходимые факты по методу максимального правдоподобия собраны в одном месте книги.

244

10.1. Введение

245

10.1.Введение

Принцип максимального правдоподобия (maximum likelihood, ML)

уже использовался в нашей книге в главе 2 (п. 2.7) для случая парной регрессии и в главе 5 (п. 5.3) для случая множественной регрессии с нормальным распределением вектора ошибок. Крат­ кое описание метода также можно найти в приложении (см. МС, п. 7). В данной главе мы дадим более подробное описание метода максимального правдоподобия. Начнем с простого примера.

Предположим, у нас есть выборка из биномиального распре­ деления В(п,р), где п = 10, а вероятность р неизвестна. Выборка состоит из 7 единиц и 3 нулей, не обязательно в этом порядке. Вероятность 7 успехов в 10 испытаниях равна (см. МС, п. 3)

Мр ) = С[0 р7( 1 - р )3.

(10.1)

Для того чтобы найти значение р, максимизирующее (10.1), мы вычисляем производную логарифма (10.1)

d\nh{p)

7 ___ 3 _

( 10.2)

dp

р 1 - р ’

 

и приравниваем ее нулю. Получаем р = 0.7, значение параметра р, при котором вероятность получения такой выборки максимальна.

Рассмотрим более общий случай. Пусть у нас есть п наблюде­ ний, (j/x,. . . , 2/„), где все у%равны 1 или 0. Вероятность получения в точности х успехов в п испытаниях равна

^ P * ( l - P ) n- S-

(10.3)

Это выражение рассматривается обычно как функция х при за­ данных значениях параметров п, р и называется распределением (distribution). В отличие от этого, в методе максимального правдо­ подобия мы рассматриваем (10.3) как функцию р (предполагаем сейчас, что п известно), при данном х (из наблюденной выборки), и называем (10.3) функцией правдоподобия (likelihood Junction).

Метод максимального правдоподобия является конструктив­ ным методом. В простых случаях, подобно приведенному выше,

246

Гл. 10. Метод максимального правдоподобия в моделях регрессии

удается получить явную формулу для оценки. В более сложных случаях получить явную формулу не удается, однако можно опре­ делить численное значение оценки, максимизирующее функцию правдоподобия. Но и в этой ситуации можно многое сказать о статистических свойствах оценки.

10.2.Математический аппарат

Рассмотрим последовательность случайных величин {уъуг, •••},

не обязательно независимых или одинаково распределенных. Пусть hn(-,Go) — совместная плотность распределения случай­ ных величин у = (y i,... ,у„). Предположим, что вид этой функ­ ции известен, за исключением вектора параметров во, который мы хотим оценить. Мы предполагаем, что во € 6 , где множество возможных значений параметра в принадлежит конечномерному евклидову пространству.

Для каждого (фиксированного) у вещественная функция

1п(в) = 1п(0,у) = Ьп(у,в), * € © , (10.4)

называется функцией правдоподобия (likelihood function), и ее ло­ гарифм In Ьп(в) называется логарифмической функцией правдо­ подобия (loglikelihood function).

Для фиксированного у любое значение 0п(у) € в , такое, что

Ьп(вп(у), у) = sup 1п(в, у),

(10.5)

в€в

 

называется оценкой максимального правдоподобия (maximum like­ lihood, ML, estimate) параметра во. В общем случае нет гарантии, что ML-оцеика параметра во существует для (почти) всех значе­ ний у, но если это верно, функция 0„ называется оценкой мак­ симального правдоподобия (ML estimator) неизвестного парамет­ ра в0.

Когда максимум в (10.5) достигается во внутренней точке про­ странства параметров в , a Ln(d) является дифференцируемой (по в) функцией, то вектор частных производных d ln L n(e)/de

10.2. Математический аппарат

247

в этой точке равен нулю. Тогда дп является решением векторного уравнения

д1пьп(в) _л дв

В случае, когда Ьп(д) дважды дифференцируема но 0, гессиан

(Hessian matrix) определяется как

Н п(в) =

д2\пЬп(в)

( 10.6)

деде1

 

 

и информационная матрица в точке до равна

Я „(в0) = - Е ( Н п(в0)).

(10.7)

Заметим, что информационная матрица вычислена в точке истин­ ного значения параметра до. Асимптотическая информационная матрица для параметра до определяется как

?(до) = lim (1/п)Яп(0о),

(10.8)

ft '00

 

если предел существует. Бели матрица Р(до) положительно опре­ делена, то обратная к ней матрица Р ~ 1(до) является нижней гра­ ницей для асимптотической матрицы ковариаций любой состоя­ тельной оценки параметра до (асимптотическое неравенство РаоКрамера) (ср. МС, п. 7). При некоторых условиях регулярности матрица ковариаций оценки максимального правдоподобия асим­ птотически приближается к этой нижней границе. Вследствие этого Р ~ 1(до) называется асимптотической матрицей ковари­ аций оценки максимального правдоподобия д. Точный смысл по­ следнего утверждения состоит в том, что при некоторых условиях регулярности последовательность случайных векторов

у/п@ п-*о)

(10-9)

сходится по распределению к нормально распределенному случай­ ному вектору с нулевым средним и матрицей ковариаций ^ ~ г(до).

248Гл. 10. Метод максимального правдоподобия в моделях регрессии

10.3.Оценка максимального правдоподобия параметров многомерного нормального распределения

Рассмотрим теперь выборку из многомерного нормального рас­ пределения с математическим ожиданием /х = \ , ... ,Цт)' и мат­ рицей ковариаций а21т. У нас есть п наблюдений (случайных век­ торов) (у ,,... ,у п). Функция плотности для каждого наблюдения равна

h(yi) = (2тг)-'"/2(<г2) - т /2ехр

( (>i ^ У‘

| . (10.10)

Взяв сумму логарифмов этих выражений по всем п наблюдениям, получаем логарифмическую функцию правдоподобия:

!п L =

\п 2 п - ™ ] п а 2 - ± ^ (у < - M)4t/< - /*)• (Ю.11)

Дифференцируя эту функцию по параметрам распределения ц и <т2, получаем следующие уравнения (необходимые условия экстре­ мума):

=

=

(10.12)

^X

dlnL

пт

1

\//

\

(10.13)

да2

“ ~2сг2 +

2<г4

**) (»<“

/*)•

Решал систему (10.12)—(10.13), получаем оценки максимального правдоподобия

h

= Уj

К

* 2 _ E i E i f o i - V j ) 2

(10.14)

* _

 

 

 

 

пт

 

Здесь yji

обозначает

j -ю

компоненту вектора у ь а

=

( l/n) 5It=l Vji-

 

 

 

 

10.4. Свойства оценок максимального правдоподобия

249

10.4.Свойства оценок максимального правдоподобия

Оценки максимального правдоподобия привлекательны благода­ ря своим асимптотическим свойствам. При выполнении весьма общих предположений оценки максимального правдоподобия об­ ладают следующими четырьмя свойствами.

1. И нвариант ност ь. Пусть в — оценка максимального прав­ доподобия параметра в и д(в) — непрерывная функция. Тогда д(в) является оценкой максимального правдоподобия параметра

№ ■

Например, из того, что оценка а2 является оценкой макси­ мального правдоподобия параметра а2 (см. (10.13)), сразу выте­ кает, что 5 и 1/5 являются оценками максимального правдопо­ добия для о и 1/сг соответственно. Из свойства инвариантности вытекает, в частности, что оценки максимального правдоподобия, в общем случае не являются несмещенными (почему?). Из этого свойства следует также, что мы можем параметризовать функ­ цию правдоподобия любым способом, что часто существенно об­ легчает вычисление оценки.

Свойство инвариантности выполняется для конечных выбо­ рок, в то время как следующие три свойства оценок максималь­ ного правдоподобия являются асимптотическими.

2. Сост оят ельност ь. Выполнено равенство: plim в = 0, т. е. Р(|0 - в\ > е) —» 0 при п —>оо для всякого е > 0. Состоятель­ ность рассматривается обычно как самое важное свойство оценки. Все наиболее часто встречающиеся оценки состоятельны. Други­ ми словами, состоятельность — минимальное требование, предъ­ являемое к любой оценке.

Из того, что оценка в состоятельна, следует (см. МС, п. 5), что она сходится к истинному значению параметра по распределению:

в —* в. Это означает, что предельное распределение сосредоточе­ но в точке в, или, другими словами, предельное распределение (в - 0) сосредоточено в точке О. К сожалению, это не очень ин­ формативно. В этом случае для детального рассмотрения ситуа­

250 Гл 10. Метод максимального правдоподобия в моделях регрессии

ции используют подходящую нормировку оценки так, чтобы нор­ мированная оценка имела предельное невырожденное распреде­ ление. Рассмотрим частный случай. Пусть (j/i,. . . , уп) — выборка из нормального распределения N(p, а2). В этом случав у является состоятельной оценкой ц. При этом среднее у ~ N(p, о2In) и, сле­

довательно, у/п{у - р) r>j N(0,o2), поэтому \/п(у - ц) Л N(0,<r2).

В этом частном случае распределение нормированной оценки не зависит от п и равно предельному, а в общем случае мы имеем следующее свойство асимптотической нормальности.

3. А сим пт от ическая нормальност ь. Имеет место следу­ ющее асимптотическое поведение оценки максимального правдо­ подобия:

у/И (в - в) Д Л ^О ,^ -1^ )),

(10.15)

где F(B) обозначает асимптотическую информационную матри­ цу. Следует отметить, что F ~ l {B) является матрицей ковариаций асимптотического распределения у/п(В-В); оценка матрицы ковариаций собственно оценки В равна V(0) = ^ “ (0) = (1/п ) Т ~ [в).

4. А сим пт от ическая эффективность. Оценка макси­ мального правдоподобия асимптотически эффективна. Это озна­ чает, что если мы сравним оценку максимального правдоподобия в с любой другой оценкой в , также состоятельной и асимптоти­ чески нормальной, то V(0) < V(0), т.е. разность V(B) - V(B) является неотрицательно определенной матрицей. В частности, это означает, что дисперсия каждой из компонент вектора В не меньше дисперсии соответствующей компоненты вектора^#, т .е. оценка максимального правдоподобия В «лучше» оценки В.

10 .5 . О ц ен к а м ак си м ал ьн ого

п р ав д о п о доб и я в л и н ей н ой м о д ел и

Рассмотрим стандартную линейную модель (см. главу 3) с нор­ мально распределенными ошибками

у = Х/3 + «, и ~ Щ О, о21п), (10.16)