Глава 7 прогнозирование в регрессионных моделях

Глава 7 прогнозирование в регрессионных моделях: Сборник задач к начальному курсу эконометрики, Катышев П.К., 2007 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В книге приведены также условия задач, поэтому она может использоваться не только в комплекте с указанным базовым учебником, но также с любым другим учебником по эконометрике. Книга является первым изданием подобного типа на русском языке.

Глава 7 прогнозирование в регрессионных моделях

Задача 7.1

Проверьте формулу (7.8):

Е(у У„+і)2 = <т2(1 + х'п+1(Х'ХГ1хп+1) для среднеквадратичной ошибки прогноза.

Решение

Ошибка прогноза е равна

е = У-Уп+1 = ж'п+іЗ(^+l^ + £„+i).

Поскольку оценка 5 несмещенная и E^n+i) = 0, то математическое ожи дание ошибки прогноза равно 0:

Е(е) = Е(х;+13) x'n+xf3 Е(е)1+1) = х'п+ф x'n+li3 = 0. J Отсюда получаем: J Е(е2) = V(e) = V(x'n+1p х'п+ф en+1) = У(х'п+ф e„+1)

= V«+13) + V(en+1) 2Cov(x;+13. £n+i). і

Последнее слагаемое равно 0, так как єп+ и 0 некоррелированы. Таким образом,

Е(е2) = V«+13) + V(£n+i) = <+1V(3)xn+1 + a2 j = a2x'n+l(X'X)-lxn+i+<r2 =a2(l+x'n+l(X'X)-lx„+i),

что и требовалось показать.

Задача 7.2

L Докажите равенство (7.9):

Ш 2 2 Л , 1 , (^n+1-x)2

I E(,-yn+1) ^ +

для среднеквадратичной ошибки прогноза в случае парной регрессии.

Решение

Из решения задачи 7.1 следует, что достаточно показать, что

~2

п *)2'

Xn + l(X Х) Хп+1 = ~ +

В случае парной регрессии к = 2 и

1 х/

1

Подпись: 1 х„
Подпись: Тогда

Подпись: —ПХ [ 1 1
— ПХ п xn+i
1 -

х; + 1(Х'Х)-1хп+1 =

1 *п+1 1

_ *i I г ,

П ПХ 1

ПХ =2 Iі

Подпись: 2 + nx2 + 1 2nxx,l+i j

n(i;x?-nx2) $

n(]C x? — па-'2)

CC*t " пх2) + н(х|1+і -х)2 = 1 (хп+і -х)2

n £(xf х)2 *

Іадача 7.3

Имеется у — Х/3-f-e: — классическая регрессионная модель (у — пх 1 вектор, X ~ пх к матрица, є — пх 1 вектор ошибок, /3 — кх 1 вектор коэффициентов, Еє = 0, V(e) = о2І), Пусть хГІ+і = (х„+і,ь...,хп+іііе)/ — дополнительное наблюдение независимых переменных и yn+i = x'n+l{3 + єп+.

Покажите, что если матрица X содержит константу, то ошибка прогноза минимальна, если каждое xn+i j равно среднему j-ro столбца матрицы X.

Решение

Как следует из формулы (7.8) (см. также задачу 7.1), надо найти вектор Жп+ь минимизирующий квадратичную форму F = x'n+i{X' Х)~~1хп+. Введем следующие обозначения (считая, что константа является первым регрессором):

1

= [г Щ, г= [1 ... 1]',

где xn+i — (к 1) х 1 вектор, г — п х 1 вектор, X — п х (к 1) матрица. Квадратичная форма F в этих обозначениях имеет вид

F =

xu+l(x'x)-lxn+l = [i s'rt+l]

г x]

1

[1 SUi

г'г

г'Х

х'г XX

1

Запишем условия экстремума первого порядка (см. (ЛА.22), (ЛА.24)):

-М— = 2"' + 2х'п+1 А = 0. I

Получаем xn+i = —А~'1а. Из формул для обращения блочной матрицы (ЛА.17), (ЛА.18) получаем |

їп+і = -А"1а = -(-X \%){\%'t)-1 =

n

т.е. j-я компонента вектора жп+і равна среднему j-й колонки матрицы

Задача 7.4 жшЛ

Для модели парной регрессии yt = а + 0xt + Єї, t = 1,..., 10, известно, что

Г &' = 8* X>t=4o, &? = 2б, £>? = 2оо, Л»*** = 2°

всюду суммирование от 1 до 10). Для некоторого наблюдения s дано xs = 10. Предполагая, что наблюдение s удовлетворяет исходной модели,

а) вычислите наилучший линейный несмещенный прогноз величины у3;

б) оцените стандартную ошибку прогноза.

Решение

а) Имеем:

а =

а =

Ем XtVt пху = 2010-4-0.8 ЕГ=1*г?-"^2 200-10.4а у -0х = 0.8 + 0.3-4 = 2.

= -0.3,

В соответствии с теорией (см. (7.3)) получаем:

\% = а + 0х8 = 2 0.3 • 10 = -1.

б) Найдем сумму квадратов остатков ESS в исходной регрессии. Учитывая, что Yh= et = 0 и £2"=1 xtet = 0, получаем:

ESS = J] е? = J] etfo -&Щ = 53 <•,?/, = 51 (Vt & Щ )yt = 53 yf «53 Уі Pj^xty, = 26 2 • 8 + 0.3 • 20 = 16.

Оценку дисперсии ошибок получаем по формуле

| Л2 ESS 16 .

О = = — = I.

п-2 8

Согласно формуле (7.9) оценка среднеквадратичной ошибки прогноза есть величина

Подпись: чЛ2Подпись: = 2 1 + —

6 = а2[1 + ± +

(Xs Х)

(10-4)2 10 •* 200 10 • 42

= 4.

Отсюда получаем, что оценка стандартной ошибки прогноза равна 2.

Задача 7.5 шкі ж

Стандартная линейная модель у = Х0 4 є, где у — п х 1 вектор, X — п х к матрица, оценивается обычным методом наименьших квадратов. Имеется дополнительное наблюдение у0, х'0 — (хо і, • • • ,.Tofe)С помощью какой статистики можно ответить на вопрос: удовлетворяет ли наблюдение исходной модели? ^^^^^^р

Решение

Одно из возможных решений основано на том факте, что если дополнительное наблюдение уо удовлетворяет исходной модели, то статистика

. _ Уо ~ Уо S

имеет распределение Стьюдентас п — к степенями свободы. Здесь yb ~ прогноз для уел а «5 — оценка стандартной ошибки прогноза,

5 = y/s*(l-rx'Q(X'X)-*Xo) 

Задавая уровень значимости а и вычислив статистику £, мы отвергаем нулевую гипотезу о том, что дополнительное наблюдение удовлетворяет исходной модели, в том случае, когда > £i-a/2(n — к), и не отвергаем эту гипотезу, если ^ £і-а/2(п ~ ^). (Здесь £i_0/2(" ~ к) ~ двусторонняя (1 — а/2)-квантиль распределения Стьюдента с п — А' степенями свободы.)

Задача 7.6 j

Дана регрессионная модель у, = а 4 0xt 4£(, t = 1,... ,п. Предположим, что параметр 0 известен. Предложите способ прогноза величины уп+ (ДЛ* заданного xn+i) и найдите дисперсию ошибки прогноза.

Решение I

Рассмотрим переменную Zt = yf — 0Xt. Для нее справедлива модель: ц

Zt = а 4Et, t = 1,..., п.

Согласно теореме из п. 7.1 главы 7, величина а = z является наилучшим (в смысле среднеквадратичного отклонения) линейным прогнозом для Zn+l' Значит, величина yn+i =3 40хп+г может служить прогнозом для уп-М"

Докажем несмещенность прогноза.

Е(уп+1 -Уя+i) = E(a + #rFl+i +є„+і (а+Дтп+і)) = Е(а о) + Еєп+[ = 0,

так как а несмещенная МИК-оцеика параметра а.

Найдем геперь дисперсию ошибки прогноза yn+i^^^^^^^

ь V(2/n+i yn+i) = V(a ф 0т*ї + єп+і (а -Ь /?х„+|)) = V(a S + єп+0

(так как а строится по наблюдениям с 1 по п и, следовательно, а и єп+ независимые)

= V(a a) + V(*n+I) = V(S) + V(cn+l)

= V{z

a2 = iV(2)+a2 = + a2 = n n

n + l«

a

Сборник задач к начальному курсу эконометрики

Сборник задач к начальному курсу эконометрики

Обсуждение Сборник задач к начальному курсу эконометрики

Комментарии, рецензии и отзывы

Глава 7 прогнозирование в регрессионных моделях: Сборник задач к начальному курсу эконометрики, Катышев П.К., 2007 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В книге приведены также условия задач, поэтому она может использоваться не только в комплекте с указанным базовым учебником, но также с любым другим учебником по эконометрике. Книга является первым изданием подобного типа на русском языке.