9.2. косвенный метод наименьших квадратов

9.2. косвенный метод наименьших квадратов: Эконометрика, Кремер Н.Ш., 2002 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В учебнике излагаются основы эконометрики. Большое внимание уделяется классической (парной и множественной) и обобщенной моделям линейной регрессии, классическому и обобщенному методам наименьших квадратов, анализу временных рядов...

9.2. косвенный метод наименьших квадратов

1 В матрице-столбце X единица означает фиктивную переменную, умножаемую на свободные члены уравнений системы.

В основе предлагаемого метода лежит простая идея. Поскольку препятствием к применению метода наименьших квадратов является коррелированность эндогенных переменных со случайными членами, следует разрешить систему уравнений относительно У, так, чтобы в правых частях уравнений оставались только экзогенные переменные X. Очевидно, что для уравнений (9.3), (9.4) это всегда можно сделать. Затем применить обычный метод наименьших квадратов к полученным уравнениям и получить оценки некоторых выражений от исходных параметров, из которых потом найти оценки и самих параметров.

Такая процедура называется косвенным методом наименьших квадратов. Продемонстрируем его на примере системы (9.3)—(9.4).

Разрешая уравнения (9.3)—(9.4) относительно Yx, Y^ запишем уравнения в виде:

Yx = ax+bxXx+cxX2+vx, Y2 =а2 +b2X х+с2Х2+v2,

(9.5)

где

(9.6)

ах = — , а2 = — , Ьх = ; Ь2=I-Y1Y2 I-Y1Y2 I-Y1Y2 I-Y1Y2

Y1P2 п Р2 л, _ Yi£2+£i л, _У2Єі+є2

С9 — ; Vi — ; V9-I-Y1Y2 I-Y1Y2 I-Y1Y2 I-Y1Y2

(индекс t для простоты опущен).

Для дальнейшего упрощения будем считать, что переменные Y отцентрированы, т. е. а = 0. (При практическом применении метода это абсолютно несущественно.) Применив к (9.5) обычный метод наименьших квадратов, получим оценки параметров Ь, с.

г __(X2X2){XlYl)-{XlX2)(X2Y])

(XlXl)(X2X2)-(XlX2)

. _{XlX]){X2Y])-(XlX2)(XlYl)

(xlxl)(x2x2)-(xlx2)2

^ _ (X2X2)(X]Y2)-(XlX2)(X2Y2)

(x]x])(x2x2)-(xlx2)2

ё _(X[Xl)(X2Y2)-(XlX2)(X[Y2)

(x{xx){x2x2)-(xxx2)2

(9.7)

где ) = (щ) = ±у1іУ!; , (х^) = ±хиУіі ,

xtb xtp Уїь Угі — значения переменных Xh Хр Yh Yj.

Между тем равенства (9.6) позволяют однозначно выразить исходные параметры а, р, у через я, Ъ, с.

~ _Ъхс2-Ъ2сх ~ _bxc2-b2cx

Pi - Л ' Р2"

(9.8)

с2 Ъх С Ъх

Таким образом, используя (9.6), получаем:

(9.9)

_ (XXYX){X2Y2)-(X2YX)(XXY2) Pl (XxXx)(X2Y2)-(XxX2)(XxY2y В _ (^YX)(X2Y2)-(X2YX)(XXY2) Р2 (X2X2)(XxYx)-(XxX2)(X2Yxy

_(XXXX)(X2YX)-(XXX2)(XXYX) Yl (XxXx)(X2Y2)-(XxX2){XxY2y . (X2X2)(XXY2)~(XXX2)(X2Y2) Ъ (X2X2)(X2Yx)-(XxX2)(X2Yxy

Оценки (9.8) называются оценками косвенного метода наймень-mux квадратов. В отличие от оценок прямого применения метода наименьших квадратов оценки (9.9) состоятельны.

Рассмотрим пример исследования системы (9.3)—(9.4). Пусть имеются данные по п = 200 наблюдениям переменных.

На рис. 9.1 приведены гистограммы и основные числовые характеристики соответствующих выборок.

Series: X1

Sample 1 200

Observations 200

Mean

5,019551

Median

4,967329

Maximum

6,715498

Minimum

3,589654

Std. Dev.

0,611454

Skewness

-0,001757

Kurtosis

2,589694

Jarque-Bera

1,403028

Probability

0,495834

Подпись:
Подпись:

Series: X2

Sample 1 200

Observations 200

Mean

12,00998

Median

11,98016

Maximum

13,12772

Minimum

10,95409

Std. Dev.

0,403707

Skewness

0,111117

Kurtosis

2,590569

Jarque-Bera

1,808515

Probability

0,404842

4121

Ml

1000 1200 1400 1600 1800 2000 2200 2400

Series: Y1

Sample 1 200

Observations 200

Mean

1712,685

Median

1708,201

Maximum

2545,273

Minimum

896,9183

Std. Dev.

346,7838

Skewness

-0,088008

Kurtosis

2,486183

Jarque-Bera

2,458246

Probability

0,292549

Подпись: 600 800 1000 1200 1400 1600 1800

Series: Y2

Sample 1 200

Observations 200

Mean

1255,944

Median

1257,273

Maximum

1916,141

Minimum

583,9797

Std. Dev.

279,9589

Skewness

0,092848

Kurtosis

2,482940

Jarque-Bera

2,515282

Probability

0,284324

г

Рис.9.1

Применим сначала обычный метод наименьших квадратов. Получим следующие результаты:

ух = 3153,451 +15,73х, l,2y2 ;d = l ,894, R2 = 0,9999; (5,127) (0,687) (0,001)

у2 = 2606,23 +12,88х2 -0,83^; d = 1,893, R2 = 0,9999. (1,75) (0,581) (0,001)

В обоих случаях мы имеем практически стопроцентную подгонку: коэффициент детерминации равен единице с точностью до четвертого знака. Однако, как мы знаем, полученные оценки несостоятельны, и, следовательно, их значения могут заметно отклоняться от истинных значений параметров.

Применим теперь косвенный метод наименьших квадратов: оценим регрессионную зависимость Yt по Х и Х2

ух = 2242,1 Ъ5 + 471,19хх 241,07х2 ;d = l ,96, R2 = 0,778,

(361,2) (19,04) (28,83) у2 = 727,7 -376,37*! + 201,29х2 ;d = l ,96, R2 = 0,769,

(297,35) (15,67) (23,74) , Таким образом, получаем:

Ъх = 471,19; С = -241,07; Ь2 = -376,37; с2 = 201,29; (9 щ ах = 2242,755; а2 = 727,7,

откуда, используя (9.8), получаем:

а! = 3114,286; а2 = 2519,134; рх = 20,43; р2 = 8,73; (9 ^ У! = -1,198; Y2 = -0,8.

Как видно, полученные таким образом оценки заметно отличаются от полученных прямым методом наименьших квадратов.

Эконометрика

Эконометрика

Обсуждение Эконометрика

Комментарии, рецензии и отзывы

9.2. косвенный метод наименьших квадратов: Эконометрика, Кремер Н.Ш., 2002 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В учебнике излагаются основы эконометрики. Большое внимание уделяется классической (парной и множественной) и обобщенной моделям линейной регрессии, классическому и обобщенному методам наименьших квадратов, анализу временных рядов...