8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов
8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов
Как мы уже отмечали, в моделях временных рядов часто значения объясняемых переменных зависят от их значений в предыдущие моменты времени.
Авторегрессионной моделью с распределенными лагами порядков р и q (или моделью ADL (р, q) называется модель1 вида
yt = а + Ро*, + РЛ-1 + ». + $p*t-P + YiJ>,-i + + УчУі-g + *t • (8-14)
При этом, вообще говоря, имеет место корреляция между yt-x И
Именно такого вида модели имеют наибольшее практическое значение, и именно такого вида механизм возникновения корреляции между регрессорами и ошибками регрессии наиболее часто встречается в экономических приложениях. На практике чаще всего возникают модели ADL порядка (0,1), т. е. модели вида2
yt = а + $xt + yyt_x + є, (8.15)
с ошибками регрессии гь подчиняющимися авторегрессионному процессу первого порядка AR(l) или закону скользящей средней первого порядка МА(1):
є, =рє,-і+5,; (8.16) e,=S,+p£,-i. (8.17)
В обоих случаях — независимые, одинаково распределенные случайные величины с нулевыми математическими ожиданиями и дисперсиями а2 (белый шум).
В дальнейшем мы будем иметь дело почти исключительно с моделями вида (8.15).
Рассмотрим сначала результат применения к модели (8.14) обычного метода наименьших квадратов. Начнем с модели (8.15). Предположим сначала для простоты, что регрессор Хв уравнении (8.15) отсутствует, т. е. лаговая переменная j^-i является единственной объясняющей переменной, и модель имеет вид:
Уг = УУі-і + Et (8.18)
1 «ADL» — от английских слов «autogressive distributed lags». Следует отметить, что наряду с авторегрессионной моделью ADL{p,q) в эконометрике используется и «обычная» регрессионная модель с распределенными лагами р-го порядка (или модель DL(p))
yt =а + родс/+рідс/_і+р2дс/-2+». + Р/7^-іР+Є/ •
2 При записи модели ADL(Q,) удобнее коэффициент ро обозначать просто р.
е/=ре/.1+^/. (8.19)
Тогда оценка у, полученная обычным методом наименьших квадратов, имеет вид:
п п
у = ^ = p+-L . (8.20)
1>*2-і 2>м (=i (=i
Напомним, что все ряды предполагаются стационарными,
т. е. имеют место равенства:
£>(є,_,)=я(є(), Cov(jv,, є,_,) = Cov{y,, є,). (8.21)
Таким образом, оценка у (8.20) при увеличении объема выборки сходится по вероятности к величине вида
Со^цеО
Найдем величину (8.22) в явном виде. Взяв дисперсии от обеих частей равенств (8.18) и (8.19) и используя (8.21), получим:
D(el) = -^-. (8.23)
1-р2
D{yt) = fD{yt) + 2tCovG>,_, , є,)+D{et). (8.24)
Далее:
Cov(y,, є,) = YCov(y,_,, є,)+Z)(s,), (8.25)
Cov(y,_i, e,) = Cov(y,_i, рєм + є,) = pCov(y,_,, Є,_, ) =
= pCov(j>,,£()
(8.26)
Исключая Cov(yt, є,) из равенств (8.25), (8.26), получим, используя (8.23):
CovGv,, є,) = j Й ч • (8.27)
(1 р2) (1 ур)
Подставляя выражение (8.23) в (8.24), получаем с учетом (8.27):
Подставляя (8.27), (8.28) в (8.22), получаем, что предел по вероятности оценки (8.20) равен
Y + P 1 + YP*
Очевидно, что несостоятельность оценки (8.20) тем больше, чем сильнее автокорреляция ошибок £. На практике, однако, часто выполняется условие р«у. В этом случае предел оценки наименьших квадратов будет близок к истинному значению параметра, хотя и не равен ему.
Приведенные здесь выкладки можно почти дословно повторить и в том случае, если в модели присутствует объясняющая переменная X, не коррелирующая с ошибками регрессии. Приведем их окончательный результат. Оценка (8.20) сходится по вероятности к величине вида
Y +
a2p(l-y2)
р2/)(хО(1-р2)(1-Ур)+а2(1 + Ур)
Если условие р«у не выполняется, обычный метод наименьших квадратов может давать существенное отклонение от истинного результата даже на выборках большого объема.
Аналогичные выкладки можно проделать и для моделей (8.15), (8,16). Приведем конечный результат. При увеличении объема выборки оценка параметра у сходится по вероятности к величине
pa2(l-Y2) (8 29)
p2Z)(x,) + a2(l + 2yp + p2)'
8.4. Оценивание моделей с распределенными лагами. Нелинейный метод наименьших квадратов
Рассмотрим модель (8.15) и запишем уравнение модели в момент времени t — 1
yt-i = a + рх,_! + yyt_2 + є,_!. (8.30)
Подставим выражение (8.30) в (8.15). Получим:
уг = а(1 + у)+ рх, + Рух,.! + y2yt-2 + zt + • (8.31)
Далее запишем уравнение (8.15) в момент времени t—2 и подставим полученное значение yt-2 в (8.31). Продолжая этот процесс до бесконечности, получим:
yt = -^+ fo +РІЛЧ-* + |>Ч-* • (8.32)
1-у к= к=о
Модель (8.32) называется моделью с распределением Койка лаговых объясняющих переменных. Ее еще иногда называют моделью с геометрическим распределением, имея в виду, что коэффициенты при лаговых переменных образуют геометрическую прогрессию со знаменателем уі (напомним, что уі<1). Преобразование модели (8.15) к виду (8.32) называется обратным преобразованием Койка.
Заметим, что переменные X не коррелируют с ошибками є, так что, применив обратное преобразование Койка, мы решили проблему коррелированное™ регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным иЗ-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррелированы. Во-вторых, уравнение оказалось бы неидентифицируе-мым. В модели на самом деле присутствует всего четыре параметра. Между тем как, взяв всего лишь три лага, мы бы получили оценки пяти параметров.
Уравнение (8.32) может быть оценено с помощью процедуры, которая называется нелинейным методом наименьших квадратов. Опишем эту процедуру.
1. С достаточно мелким шагом (например, 0,01) перебираются все значения у из возможной области значений этого параметра (если никакой априорной информации не имеется, то эта область — интервал (0, 1). Получается последовательность значений у(а
2. Для каждого значения уа) вычисляется значение
3. Для каждого № методом наименьших квадратов оценивается уравнение
о ( а) yt=OL + \$Xt +Ut.
(8.33)
4. Выбирается то уравнение (8.33), которое обеспечивает
наибольший коэффициент детерминации R2. Соответствующее
значение у<в> принимается за оценку параметра у. Вычисляются
оценки а, р.
5. Оценки исходных параметров находятся следующим образом:
&! =a(l-y), pi =ру.
Процедура нелинейного метода наименьших квадратов реализована в большинстве компьютерных пакетов.
Обратим внимание на то, что хотя с помощью обратного преобразования Койка устранена коррелированность регрессоров с ошибками, но автокорреляция ошибок приобретает сложную структуру, и устранение ее может оказаться практически невозможным. Так что хотя получаемые таким образом оценки оказываются состоятельными, они обладают всеми теми недостатками, о которых подробно говорилось в гл.7.
Обсуждение Эконометрика
Комментарии, рецензии и отзывы