книги / Эконометрика. Начальный курс
.pdfУпражнения |
241 |
Обычный метод наименьших квадратов:
Ct |
16.2 + 0.l93Pt + 0.090Pt- i + 0.796 (W? + Wf), |
||||||
(1.30) |
(0.091) |
(0091) |
(0.040) |
1 |
1 |
' |
|
It |
10.1 |
+ 0.480Pt + 0.333Pt_1 |
0.112tft_b |
|
|
||
|
(5.47) |
(0.097) |
(0.101) |
(0.027) |
|
|
|
W f = |
1.48 |
+ 0.439*t + 0.146Xt_i + 0.130At. |
|
|
|||
|
(1.27) |
(0.032) |
(0.037) |
(0.032) |
|
|
|
Двухшаговый метод наименьших квадратов: |
|
|
|
||||
Ct |
16.6 |
+ 0.017Pt + 0.216Pt_! + 0.810 (Wtp + WP), |
|||||
|
(1.32) |
(0.118) |
(0 107) |
(0.040) |
1 |
|
|
It = |
20.3 + 0.150Pt + 0.6l6Pt_i - |
0.158tf(_1( |
|
|
|||
|
(7.54) |
(0.173) |
(0.162) |
(0.036) |
|
|
|
W? = |
1.50 + 0 . 4 3 9 + |
0.147Xt_! + 0.130At. |
|
|
|||
|
(1.15) |
(0.036) |
(0039) |
(0.029) |
|
|
|
Упражнения
9.1. Рассмотрим следующую модель:
Ct = а + 0Yt + £ц,
1Yt —Ct + It + Gt,
„h = 7 + &Yt + £2t-
Эндогенные переменные — Ct,Y t, It, экзогенная переменная — Gt- Напишите эту модель в матричной форме и найдите ее приведенную форму. Сколько ограничений накладывается на шесть коэффициентов приведенной формы модели и каковы эти ограничения? Покажите, что при заданных значениях коэффициентов приведенной формы можно единственным образом получить значения коэффициентов а, 0, у и S, т.е. при заданной матрице П уравнение ВП + Г имеет единственное решение относительно В и Г.
9.2. Рассмотрим проблему идентифицируемости каждого из уравнений в следующей модели:
{ Pt +P\iWt |
+7n*?t |
+71зР*-1 |
= е«. |
|
021Pt + |
Wt + 02zNt |
|
+ 722-St |
+ 724^1—1= 62t, |
+ |
032^t + Nt |
|
+ 732$t + 733Pt-1 |
+ 734^-1 = e3ti |
242 |
Гл. 9. Системы регрессионных уравнений |
где Pt, Wt, Nt —индекс цен, зарплата, профсоюзный взнос соответствен но (эндогенные переменные), a Qt н St — производительность труда и количество забастовок (экзогенные переменные). Как выглядят поряд ковое и ранговое условия, если известно, что:
а) |
7 н |
= 0 , |
б) |
0 2 1 |
= 1 2 2 = 0, |
в) |
7зз = 0? |
9.3. Опишите процедуру оценивания каждого из уравнений следующей системы:
Уи +012У21 |
+ 7 п + 7 i2 * 2 t |
|
= |
£ ц , |
J/2t |
+ 721 |
+723*31 |
= |
£21» |
032V2t + |
У31 + 7 3 1 |
+733*31 |
= |
£31- |
9.4. Рассматривается следующая система уравнений:
{ Уи = |
7 ю |
+ |
^ 12!/21 + |
^13У31 + 7 1 1 * 1 1 + 7 1 2 * 2 1 |
+ |
£ ц , |
|
У21 |
= |
120 |
+ 021У н |
|
+ 7 2 1 * 1 1 |
+ £21» |
|
У31 |
= |
7зо |
+ 031Уи + |
032V2t |
+ 7 3 i* it |
+ 733 * 3 i + |
£ 3 1- |
Идентифицируемо ли каждое из уравнений системы? Что получит ся, если применить к первому уравнению двухшаговый метод наимень ших квадратов?
9.5. Задана система одновременных уравнений (уь 2/2, 2/3 — эндогенные переменные).
{ Уи = |
7 ю |
+ |
0\2Угг |
+ |
7 i i * i t |
+ |
£ « , |
У21 = |
720 |
|
|
+ 023У31 + |
721*11 |
+ 723*31 + £21» |
|
У31 = |
031уи |
+ |
032У21 |
+ |
731*11 + |
732*21 + 733*31 + |
£31. |
а) Для каждого из трех уравнений определите, выполняются ли по рядковые и ранговые условия идентифицируемости.
б) Повторите а) при дополнительном ограничении: 732 = 0.
в) Повторите а) при дополнительном ограничении: 732 = 1.
г) Повторите а) при дополнительном ограничении: 732 —7зз-
Упражнения |
243 |
9.6. Рассматривается модель, состоящая из двух внешне не связанных уравнений (SUR):
ГУи = 0i + £ь
^y a t = 0iXt +£2 -
По 50 наблюдениям (по каждому уравнению) получены следующие
результаты: |
= |
100, |
= |
600, £ ® tyti = |
60, £ ® tyt 2 = 50, |
£ у п = 150, 22у?1 = |
500, £ у н у м |
= 40, £ y t2 = 50, |
Х>?2 = 90. |
а) Напишите формулу для GLS-оценки параметров 0г, fo. б) Найдите OLS-оценку этих параметров.
в) Найдите SUR (FGLS)-oneHKy этих параметров и оцените матрицы ковариаций этих оценок.
Глава 10
Метод максимального правдоподобия в моделях регрессии
Данная глава несколько отличается от других глав. Разделы 10.1- 10.4 фактически содержат справочный материал по методу мак симального правдоподобия, широко применяемому в математи ческой статистике. Подробное изложение этого материала можно найти, например, в (Айвазян (1983), Крамер (1975), Рао (1968)). Раздел 10.5 во многом повторяет описанные кратко в разделах 2.7, 5.3 и приложении МС (п. 7) способы применения этого метода к моделям парной и множественной регрессии. Причина, по кото рой мы поместили этот материал не в приложении МС, а здесь, состоит в следующем. Первое, метод максимального правдоподо бия является традиционно трудным для студентов разделом кур са математической статистики, и его, по нашему мнению, следует повторить в курсе эконометрики, включающем в себя темы вре менных рядов и дискретных зависимых переменных, в которых этот метод интенсивно используется. Второе, удобство читателя, для которого все необходимые факты по методу максимального правдоподобия собраны в одном месте книги.
244
10.1. Введение |
245 |
10.1.Введение
Принцип максимального правдоподобия (maximum likelihood, ML)
уже использовался в нашей книге в главе 2 (п. 2.7) для случая парной регрессии и в главе 5 (п. 5.3) для случая множественной регрессии с нормальным распределением вектора ошибок. Крат кое описание метода также можно найти в приложении (см. МС, п. 7). В данной главе мы дадим более подробное описание метода максимального правдоподобия. Начнем с простого примера.
Предположим, у нас есть выборка из биномиального распре деления В(п,р), где п = 10, а вероятность р неизвестна. Выборка состоит из 7 единиц и 3 нулей, не обязательно в этом порядке. Вероятность 7 успехов в 10 испытаниях равна (см. МС, п. 3)
Мр ) = С[0 р7( 1 - р )3. |
(10.1) |
Для того чтобы найти значение р, максимизирующее (10.1), мы вычисляем производную логарифма (10.1)
d\nh{p) |
7 ___ 3 _ |
( 10.2) |
|
dp |
р 1 - р ’ |
||
|
и приравниваем ее нулю. Получаем р = 0.7, значение параметра р, при котором вероятность получения такой выборки максимальна.
Рассмотрим более общий случай. Пусть у нас есть п наблюде ний, (j/x,. . . , 2/„), где все у%равны 1 или 0. Вероятность получения в точности х успехов в п испытаниях равна
^ P * ( l - P ) n- S- |
(10.3) |
Это выражение рассматривается обычно как функция х при за данных значениях параметров п, р и называется распределением (distribution). В отличие от этого, в методе максимального правдо подобия мы рассматриваем (10.3) как функцию р (предполагаем сейчас, что п известно), при данном х (из наблюденной выборки), и называем (10.3) функцией правдоподобия (likelihood Junction).
Метод максимального правдоподобия является конструктив ным методом. В простых случаях, подобно приведенному выше,
246 |
Гл. 10. Метод максимального правдоподобия в моделях регрессии |
удается получить явную формулу для оценки. В более сложных случаях получить явную формулу не удается, однако можно опре делить численное значение оценки, максимизирующее функцию правдоподобия. Но и в этой ситуации можно многое сказать о статистических свойствах оценки.
10.2.Математический аппарат
Рассмотрим последовательность случайных величин {уъуг, •••},
не обязательно независимых или одинаково распределенных. Пусть hn(-,Go) — совместная плотность распределения случай ных величин у = (y i,... ,у„). Предположим, что вид этой функ ции известен, за исключением вектора параметров во, который мы хотим оценить. Мы предполагаем, что во € 6 , где множество возможных значений параметра в принадлежит конечномерному евклидову пространству.
Для каждого (фиксированного) у вещественная функция
1п(в) = 1п(0,у) = Ьп(у,в), * € © , (10.4)
называется функцией правдоподобия (likelihood function), и ее ло гарифм In Ьп(в) называется логарифмической функцией правдо подобия (loglikelihood function).
Для фиксированного у любое значение 0п(у) € в , такое, что
Ьп(вп(у), у) = sup 1п(в, у), |
(10.5) |
в€в |
|
называется оценкой максимального правдоподобия (maximum like lihood, ML, estimate) параметра во. В общем случае нет гарантии, что ML-оцеика параметра во существует для (почти) всех значе ний у, но если это верно, функция 0„ называется оценкой мак симального правдоподобия (ML estimator) неизвестного парамет ра в0.
Когда максимум в (10.5) достигается во внутренней точке про странства параметров в , a Ln(d) является дифференцируемой (по в) функцией, то вектор частных производных d ln L n(e)/de
10.2. Математический аппарат |
247 |
в этой точке равен нулю. Тогда дп является решением векторного уравнения
д1пьп(в) _л дв
В случае, когда Ьп(д) дважды дифференцируема но 0, гессиан
(Hessian matrix) определяется как
Н п(в) = |
д2\пЬп(в) |
( 10.6) |
|
деде1 |
|||
|
|
и информационная матрица в точке до равна
Я „(в0) = - Е ( Н п(в0)). |
(10.7) |
Заметим, что информационная матрица вычислена в точке истин ного значения параметра до. Асимптотическая информационная матрица для параметра до определяется как
?(до) = lim (1/п)Яп(0о), |
(10.8) |
ft '00 |
|
если предел существует. Бели матрица Р(до) положительно опре делена, то обратная к ней матрица Р ~ 1(до) является нижней гра ницей для асимптотической матрицы ковариаций любой состоя тельной оценки параметра до (асимптотическое неравенство РаоКрамера) (ср. МС, п. 7). При некоторых условиях регулярности матрица ковариаций оценки максимального правдоподобия асим птотически приближается к этой нижней границе. Вследствие этого Р ~ 1(до) называется асимптотической матрицей ковари аций оценки максимального правдоподобия д. Точный смысл по следнего утверждения состоит в том, что при некоторых условиях регулярности последовательность случайных векторов
у/п@ п-*о) |
(10-9) |
сходится по распределению к нормально распределенному случай ному вектору с нулевым средним и матрицей ковариаций ^ ~ г(до).
248Гл. 10. Метод максимального правдоподобия в моделях регрессии
10.3.Оценка максимального правдоподобия параметров многомерного нормального распределения
Рассмотрим теперь выборку из многомерного нормального рас пределения с математическим ожиданием /х = (ц\ , ... ,Цт)' и мат рицей ковариаций а21т. У нас есть п наблюдений (случайных век торов) (у ,,... ,у п). Функция плотности для каждого наблюдения равна
h(yi) = (2тг)-'"/2(<г2) - т /2ехр |
( (>i ^ У‘ |
| . (10.10) |
Взяв сумму логарифмов этих выражений по всем п наблюдениям, получаем логарифмическую функцию правдоподобия:
!п L = |
\п 2 п - ™ ] п а 2 - ± ^ (у < - M)4t/< - /*)• (Ю.11) |
Дифференцируя эту функцию по параметрам распределения ц и <т2, получаем следующие уравнения (необходимые условия экстре мума):
= |
= |
(10.12) |
^X
dlnL |
пт |
1 |
\// |
\ |
(10.13) |
да2 |
“ ~2сг2 + |
2<г4 |
**) (»<“ |
/*)• |
Решал систему (10.12)—(10.13), получаем оценки максимального правдоподобия
h |
= Уj |
К |
* 2 _ E i E i f o i - V j ) 2 |
(10.14) |
|
(у |
* _ |
||||
|
|
|
|
пт |
|
Здесь yji |
обозначает |
j -ю |
компоненту вектора у ь а |
= |
|
( l/n) 5It=l Vji- |
|
|
|
|
10.4. Свойства оценок максимального правдоподобия |
249 |
10.4.Свойства оценок максимального правдоподобия
Оценки максимального правдоподобия привлекательны благода ря своим асимптотическим свойствам. При выполнении весьма общих предположений оценки максимального правдоподобия об ладают следующими четырьмя свойствами.
1. И нвариант ност ь. Пусть в — оценка максимального прав доподобия параметра в и д(в) — непрерывная функция. Тогда д(в) является оценкой максимального правдоподобия параметра
№ ■
Например, из того, что оценка а2 является оценкой макси мального правдоподобия параметра а2 (см. (10.13)), сразу выте кает, что 5 и 1/5 являются оценками максимального правдопо добия для о и 1/сг соответственно. Из свойства инвариантности вытекает, в частности, что оценки максимального правдоподобия, в общем случае не являются несмещенными (почему?). Из этого свойства следует также, что мы можем параметризовать функ цию правдоподобия любым способом, что часто существенно об легчает вычисление оценки.
Свойство инвариантности выполняется для конечных выбо рок, в то время как следующие три свойства оценок максималь ного правдоподобия являются асимптотическими.
2. Сост оят ельност ь. Выполнено равенство: plim в = 0, т. е. Р(|0 - в\ > е) —» 0 при п —>оо для всякого е > 0. Состоятель ность рассматривается обычно как самое важное свойство оценки. Все наиболее часто встречающиеся оценки состоятельны. Други ми словами, состоятельность — минимальное требование, предъ являемое к любой оценке.
Из того, что оценка в состоятельна, следует (см. МС, п. 5), что она сходится к истинному значению параметра по распределению:
в —* в. Это означает, что предельное распределение сосредоточе но в точке в, или, другими словами, предельное распределение (в - 0) сосредоточено в точке О. К сожалению, это не очень ин формативно. В этом случае для детального рассмотрения ситуа
250 Гл 10. Метод максимального правдоподобия в моделях регрессии
ции используют подходящую нормировку оценки так, чтобы нор мированная оценка имела предельное невырожденное распреде ление. Рассмотрим частный случай. Пусть (j/i,. . . , уп) — выборка из нормального распределения N(p, а2). В этом случав у является состоятельной оценкой ц. При этом среднее у ~ N(p, о2In) и, сле
довательно, у/п{у - р) r>j N(0,o2), поэтому \/п(у - ц) Л N(0,<r2).
В этом частном случае распределение нормированной оценки не зависит от п и равно предельному, а в общем случае мы имеем следующее свойство асимптотической нормальности.
3. А сим пт от ическая нормальност ь. Имеет место следу ющее асимптотическое поведение оценки максимального правдо подобия:
у/И (в - в) Д Л ^О ,^ -1^ )), |
(10.15) |
где F(B) обозначает асимптотическую информационную матри цу. Следует отметить, что F ~ l {B) является матрицей ковариаций асимптотического распределения у/п(В-В); оценка матрицы ковариаций собственно оценки В равна V(0) = ^ “ (0) = (1/п ) Т ~ [в).
4. А сим пт от ическая эффективность. Оценка макси мального правдоподобия асимптотически эффективна. Это озна чает, что если мы сравним оценку максимального правдоподобия в с любой другой оценкой в , также состоятельной и асимптоти чески нормальной, то V(0) < V(0), т.е. разность V(B) - V(B) является неотрицательно определенной матрицей. В частности, это означает, что дисперсия каждой из компонент вектора В не меньше дисперсии соответствующей компоненты вектора^#, т .е. оценка максимального правдоподобия В «лучше» оценки В.
10 .5 . О ц ен к а м ак си м ал ьн ого
п р ав д о п о доб и я в л и н ей н ой м о д ел и
Рассмотрим стандартную линейную модель (см. главу 3) с нор мально распределенными ошибками
у = Х/3 + «, и ~ Щ О, о21п), (10.16)