8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов

8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов: Эконометрика, Кремер Н.Ш., 2002 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В учебнике излагаются основы эконометрики. Большое внимание уделяется классической (парной и множественной) и обобщенной моделям линейной регрессии, классическому и обобщенному методам наименьших квадратов, анализу временных рядов...

8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов

Как мы уже отмечали, в моделях временных рядов часто значения объясняемых переменных зависят от их значений в предыдущие моменты времени.

Авторегрессионной моделью с распределенными лагами порядков р и q (или моделью ADL (р, q) называется модель1 вида

yt = а + Ро*, + РЛ-1 + ». + $p*t-P + YiJ>,-i + + УчУі-g + *t • (8-14)

При этом, вообще говоря, имеет место корреляция между yt-x И

Именно такого вида модели имеют наибольшее практическое значение, и именно такого вида механизм возникновения корреляции между регрессорами и ошибками регрессии наиболее часто встречается в экономических приложениях. На практике чаще всего возникают модели ADL порядка (0,1), т. е. модели вида2

yt = а + $xt + yyt_x + є, (8.15)

с ошибками регрессии гь подчиняющимися авторегрессионному процессу первого порядка AR(l) или закону скользящей средней первого порядка МА(1):

є, =рє,-і+5,; (8.16) e,=S,+p£,-i. (8.17)

В обоих случаях — независимые, одинаково распределенные случайные величины с нулевыми математическими ожиданиями и дисперсиями а2 (белый шум).

В дальнейшем мы будем иметь дело почти исключительно с моделями вида (8.15).

Рассмотрим сначала результат применения к модели (8.14) обычного метода наименьших квадратов. Начнем с модели (8.15). Предположим сначала для простоты, что регрессор Хв уравнении (8.15) отсутствует, т. е. лаговая переменная j^-i является единственной объясняющей переменной, и модель имеет вид:

Уг = УУі-і + Et (8.18)

1 «ADL» — от английских слов «autogressive distributed lags». Следует отметить, что наряду с авторегрессионной моделью ADL{p,q) в эконометрике используется и «обычная» регрессионная модель с распределенными лагами р-го порядка (или модель DL(p))

yt =а + родс/+рідс/_і+р2дс/-2+». + Р/7^-іР+Є/ •

2 При записи модели ADL(Q,) удобнее коэффициент ро обозначать просто р.

е/=ре/.1+^/. (8.19)

Тогда оценка у, полученная обычным методом наименьших квадратов, имеет вид:

п п

у = ^ = p+-L . (8.20)

1>*2-і 2>м (=i (=i

Напомним, что все ряды предполагаются стационарными,

т. е. имеют место равенства:

£>(є,_,)=я(є(), Cov(jv,, є,_,) = Cov{y,, є,). (8.21)

Таким образом, оценка у (8.20) при увеличении объема выборки сходится по вероятности к величине вида

Со^цеО

Найдем величину (8.22) в явном виде. Взяв дисперсии от обеих частей равенств (8.18) и (8.19) и используя (8.21), получим:

D(el) = -^-. (8.23)

1-р2

D{yt) = fD{yt) + 2tCovG>,_, , є,)+D{et). (8.24)

Далее:

Cov(y,, є,) = YCov(y,_,, є,)+Z)(s,), (8.25)

Cov(y,_i, e,) = Cov(y,_i, рєм + є,) = pCov(y,_,, Є,_, ) =

= pCov(j>,,£()

(8.26)

Исключая Cov(yt, є,) из равенств (8.25), (8.26), получим, используя (8.23):

CovGv,, є,) = j Й ч • (8.27)

(1 р2) (1 ур)

Подставляя выражение (8.23) в (8.24), получаем с учетом (8.27):

Подставляя (8.27), (8.28) в (8.22), получаем, что предел по вероятности оценки (8.20) равен

Y + P 1 + YP*

Очевидно, что несостоятельность оценки (8.20) тем больше, чем сильнее автокорреляция ошибок £. На практике, однако, часто выполняется условие р«у. В этом случае предел оценки наименьших квадратов будет близок к истинному значению параметра, хотя и не равен ему.

Приведенные здесь выкладки можно почти дословно повторить и в том случае, если в модели присутствует объясняющая переменная X, не коррелирующая с ошибками регрессии. Приведем их окончательный результат. Оценка (8.20) сходится по вероятности к величине вида

Y +

a2p(l-y2)

р2/)(хО(1-р2)(1-Ур)+а2(1 + Ур)

Если условие р«у не выполняется, обычный метод наименьших квадратов может давать существенное отклонение от истинного результата даже на выборках большого объема.

Аналогичные выкладки можно проделать и для моделей (8.15), (8,16). Приведем конечный результат. При увеличении объема выборки оценка параметра у сходится по вероятности к величине

pa2(l-Y2) (8 29)

p2Z)(x,) + a2(l + 2yp + p2)'

8.4. Оценивание моделей с распределенными лагами. Нелинейный метод наименьших квадратов

Рассмотрим модель (8.15) и запишем уравнение модели в момент времени t — 1

yt-i = a + рх,_! + yyt_2 + є,_!. (8.30)

Подставим выражение (8.30) в (8.15). Получим:

уг = а(1 + у)+ рх, + Рух,.! + y2yt-2 + zt + • (8.31)

Далее запишем уравнение (8.15) в момент времени t—2 и подставим полученное значение yt-2 в (8.31). Продолжая этот процесс до бесконечности, получим:

yt = -^+ fo +РІЛЧ-* + |>Ч-* • (8.32)

1-у к= к=о

Модель (8.32) называется моделью с распределением Койка лаговых объясняющих переменных. Ее еще иногда называют моделью с геометрическим распределением, имея в виду, что коэффициенты при лаговых переменных образуют геометрическую прогрессию со знаменателем уі (напомним, что уі<1). Преобразование модели (8.15) к виду (8.32) называется обратным преобразованием Койка.

Заметим, что переменные X не коррелируют с ошибками є, так что, применив обратное преобразование Койка, мы решили проблему коррелированное™ регрессоров со случайными членами. Однако применение обычного метода наименьших квадратов к модели (8.32) оказывается на практике невозможным иЗ-за бесконечно большого количества регрессоров. Разумеется, в силу того, что коэффициенты входящего в модель ряда убывают в геометрической прогрессии, и, стало быть, сам ряд быстро сходится, можно было бы ограничиться сравнительно небольшим числом лагов. Однако и в этом случае мы столкнулись бы по крайней мере с двумя трудно решаемыми проблемами. Во-первых, возникла бы сильная мультиколлинеарность, так как естественно ожидать, что лаговые переменные сильно коррелированы. Во-вторых, уравнение оказалось бы неидентифицируе-мым. В модели на самом деле присутствует всего четыре параметра. Между тем как, взяв всего лишь три лага, мы бы получили оценки пяти параметров.

Уравнение (8.32) может быть оценено с помощью процедуры, которая называется нелинейным методом наименьших квадратов. Опишем эту процедуру.

1. С достаточно мелким шагом (например, 0,01) перебираются все значения у из возможной области значений этого параметра (если никакой априорной информации не имеется, то эта область — интервал (0, 1). Получается последовательность значений у(а

2. Для каждого значения уа) вычисляется значение

Предел суммирования К выбирается так, что дальнейшие члены ряда вносят в его сумму незначительный вклад (очевидно, чем меньше выбранное значение y(fl), тем меньше членов ряда приходится учитывать).

3. Для каждого № методом наименьших квадратов оценивается уравнение

о ( а) yt=OL + \$Xt +Ut.

(8.33)

4. Выбирается то уравнение (8.33), которое обеспечивает

наибольший коэффициент детерминации R2. Соответствующее

значение у<в> принимается за оценку параметра у. Вычисляются

оценки а, р.

5. Оценки исходных параметров находятся следующим образом:

&! =a(l-y), pi =ру.

Процедура нелинейного метода наименьших квадратов реализована в большинстве компьютерных пакетов.

Обратим внимание на то, что хотя с помощью обратного преобразования Койка устранена коррелированность регрессоров с ошибками, но автокорреляция ошибок приобретает сложную структуру, и устранение ее может оказаться практически невозможным. Так что хотя получаемые таким образом оценки оказываются состоятельными, они обладают всеми теми недостатками, о которых подробно говорилось в гл.7.

Эконометрика

Эконометрика

Обсуждение Эконометрика

Комментарии, рецензии и отзывы

8.3. оценивание моделей с распределенными лагами. обычный метод наименьших квадратов: Эконометрика, Кремер Н.Ш., 2002 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В учебнике излагаются основы эконометрики. Большое внимание уделяется классической (парной и множественной) и обобщенной моделям линейной регрессии, классическому и обобщенному методам наименьших квадратов, анализу временных рядов...