9.2. косвенный метод наименьших квадратов
9.2. косвенный метод наименьших квадратов
1 В матрице-столбце X единица означает фиктивную переменную, умножаемую на свободные члены уравнений системы.
В основе предлагаемого метода лежит простая идея. Поскольку препятствием к применению метода наименьших квадратов является коррелированность эндогенных переменных со случайными членами, следует разрешить систему уравнений относительно У, так, чтобы в правых частях уравнений оставались только экзогенные переменные X. Очевидно, что для уравнений (9.3), (9.4) это всегда можно сделать. Затем применить обычный метод наименьших квадратов к полученным уравнениям и получить оценки некоторых выражений от исходных параметров, из которых потом найти оценки и самих параметров.
Такая процедура называется косвенным методом наименьших квадратов. Продемонстрируем его на примере системы (9.3)—(9.4).
Разрешая уравнения (9.3)—(9.4) относительно Yx, Y^ запишем уравнения в виде:
Yx = ax+bxXx+cxX2+vx, Y2 =а2 +b2X х+с2Х2+v2,
(9.5)
где
(9.6)
ах = — , а2 = — , Ьх = ; Ь2=I-Y1Y2 I-Y1Y2 I-Y1Y2 I-Y1Y2
Y1P2 п Р2 л, _ Yi£2+£i л, _У2Єі+є2
С9 — ; Vi — ; V9-I-Y1Y2 I-Y1Y2 I-Y1Y2 I-Y1Y2
(индекс t для простоты опущен).
Для дальнейшего упрощения будем считать, что переменные Y отцентрированы, т. е. а = 0. (При практическом применении метода это абсолютно несущественно.) Применив к (9.5) обычный метод наименьших квадратов, получим оценки параметров Ь, с.
г __(X2X2){XlYl)-{XlX2)(X2Y])
(XlXl)(X2X2)-(XlX2)
. _{XlX]){X2Y])-(XlX2)(XlYl)
(xlxl)(x2x2)-(xlx2)2
^ _ (X2X2)(X]Y2)-(XlX2)(X2Y2)
(x]x])(x2x2)-(xlx2)2
ё _(X[Xl)(X2Y2)-(XlX2)(X[Y2)
(x{xx){x2x2)-(xxx2)2
(9.7)
где ) = (щ) = ±у1іУ!; , (х^) = ±хиУіі ,
xtb xtp Уїь Угі — значения переменных Xh Хр Yh Yj.
Между тем равенства (9.6) позволяют однозначно выразить исходные параметры а, р, у через я, Ъ, с.
~ _Ъхс2-Ъ2сх ~ _bxc2-b2cx
Pi - Л ' Р2"
(9.8)
с2 Ъх С Ъх
Таким образом, используя (9.6), получаем:
(9.9)
_ (XXYX){X2Y2)-(X2YX)(XXY2) Pl (XxXx)(X2Y2)-(XxX2)(XxY2y В _ (^YX)(X2Y2)-(X2YX)(XXY2) Р2 (X2X2)(XxYx)-(XxX2)(X2Yxy
_(XXXX)(X2YX)-(XXX2)(XXYX) Yl (XxXx)(X2Y2)-(XxX2){XxY2y . (X2X2)(XXY2)~(XXX2)(X2Y2) Ъ (X2X2)(X2Yx)-(XxX2)(X2Yxy
Оценки (9.8) называются оценками косвенного метода наймень-mux квадратов. В отличие от оценок прямого применения метода наименьших квадратов оценки (9.9) состоятельны.
Рассмотрим пример исследования системы (9.3)—(9.4). Пусть имеются данные по п = 200 наблюдениям переменных.
На рис. 9.1 приведены гистограммы и основные числовые характеристики соответствующих выборок.
Series: X1 | |
Sample 1 200 | |
Observations 200 | |
Mean | 5,019551 |
Median | 4,967329 |
Maximum | 6,715498 |
Minimum | 3,589654 |
Std. Dev. | 0,611454 |
Skewness | -0,001757 |
Kurtosis | 2,589694 |
Jarque-Bera | 1,403028 |
Probability | 0,495834 |
Series: X2 | |
Sample 1 200 | |
Observations 200 | |
Mean | 12,00998 |
Median | 11,98016 |
Maximum | 13,12772 |
Minimum | 10,95409 |
Std. Dev. | 0,403707 |
Skewness | 0,111117 |
Kurtosis | 2,590569 |
Jarque-Bera | 1,808515 |
Probability | 0,404842 |
4121
Ml
1000 1200 1400 1600 1800 2000 2200 2400
Series: Y1 | |
Sample 1 200 | |
Observations 200 | |
Mean | 1712,685 |
Median | 1708,201 |
Maximum | 2545,273 |
Minimum | 896,9183 |
Std. Dev. | 346,7838 |
Skewness | -0,088008 |
Kurtosis | 2,486183 |
Jarque-Bera | 2,458246 |
Probability | 0,292549 |
600 800 1000 1200 1400 1600 1800
Series: Y2 | |
Sample 1 200 | |
Observations 200 | |
Mean | 1255,944 |
Median | 1257,273 |
Maximum | 1916,141 |
Minimum | 583,9797 |
Std. Dev. | 279,9589 |
Skewness | 0,092848 |
Kurtosis | 2,482940 |
Jarque-Bera | 2,515282 |
Probability | 0,284324 |
г
Рис.9.1
Применим сначала обычный метод наименьших квадратов. Получим следующие результаты:
ух = 3153,451 +15,73х, l,2y2 ;d = l ,894, R2 = 0,9999; (5,127) (0,687) (0,001)
у2 = 2606,23 +12,88х2 -0,83^; d = 1,893, R2 = 0,9999. (1,75) (0,581) (0,001)
В обоих случаях мы имеем практически стопроцентную подгонку: коэффициент детерминации равен единице с точностью до четвертого знака. Однако, как мы знаем, полученные оценки несостоятельны, и, следовательно, их значения могут заметно отклоняться от истинных значений параметров.
Применим теперь косвенный метод наименьших квадратов: оценим регрессионную зависимость Yt по Х и Х2
ух = 2242,1 Ъ5 + 471,19хх 241,07х2 ;d = l ,96, R2 = 0,778,
(361,2) (19,04) (28,83) у2 = 727,7 -376,37*! + 201,29х2 ;d = l ,96, R2 = 0,769,
(297,35) (15,67) (23,74) , Таким образом, получаем:
Ъх = 471,19; С = -241,07; Ь2 = -376,37; с2 = 201,29; (9 щ ах = 2242,755; а2 = 727,7,
откуда, используя (9.8), получаем:
а! = 3114,286; а2 = 2519,134; рх = 20,43; р2 = 8,73; (9 ^ У! = -1,198; Y2 = -0,8.
Как видно, полученные таким образом оценки заметно отличаются от полученных прямым методом наименьших квадратов.
Обсуждение Эконометрика
Комментарии, рецензии и отзывы