1.4. интерпретация коэффициентов
1.4. интерпретация коэффициентов
Поскольку модели логит, пробит и гомпит являются нелинейными моделями, то оцененные коэффициенты в этих моделях имеют интерпретацию, отличающуюся от интерпретации коэффициентов в линейной модели.
Все эти модели имеют вид
У, = G + ^ + врхір )+є, = G (xT6>), i = 1,n ; при этом
P{yt = 1 xt }= E( yxt) = G(xTd).
Пусть k -я объясняющая переменная является непрерывной переменной. Тогда предельный эффект (marginal effect) этой переменной определяется как производная dP{y, = 1 хг} dG(xTte)
и, в отличие от линейной модели, этот эффект зависит от значений объясняющих переменных для i -го субъекта X' = (xi1,..., xip ) .
Малое изменение Axik k -й объясняющей переменной приводит (при неизменных значениях остальных объясняющих переменных) к изменению вероятности P{yt = 1 xi} на величину, приближенно равную
-ч Ж -ч "
dXft ^ik
Заметим, что поскольку модель нелинейна, при интерпретации значений предельного эффекта надо иметь в виду отклик интересующей нас вероятности именно на малые приращения объясняющей переменной.
В случае, когда сама объясняющая переменная принимает только два значения 0 и 1 (дамми-переменная dummy variable), указывающие на наличие (1) или отсутствие (0) у субъекта определенного признака, "малые" изменения переменной, о которых говорилось выше, попросту невозможны. В этом случае "предельный эффект" определяют просто как разность
Pjy, = 1 x*, d = l}Pyl = 1 x*,d = 0},
где d обозначает рассматриваемую дамми-переменную, а x* -вектор значений остальных объясняющих переменных.
В пробит-модели P[y, = 1 x, }= Ф{хт1в)= Ф(хл +... + 6pxip). Малое изменение Axjk к -й объясняющей переменной приводит здесь (при неизменных значениях остальных объясняющих переменных) к изменению вероятности Pyt = 1 xt} на величину, приближенно равную
P{ її } ЭФ(^1 x,1 +L + evxv) л ( т )о л
1 -t1 /2
где <р( z) = . e - функция плотности стандартного
нормального распределения N (0,1), математическое ожидание которого равно нулю, а дисперсия равна единице. Предельный эффект к -й объясняющей переменной равен p(xT) вк (а не вк как в линейной модели).
В логит-модели P[yi = 1 xt }= a(xJo) = л(в1 xi1 +... + 0pxip)
малое изменение Axik к -й объясняющей переменной приводит (при неизменных значениях остальных объясняющих переменных) к изменению вероятности р{уі = 1 xi} на величину, приближенно равную
dxik dxik
Учитывая явный вид функции A(z), находим отсюда: ДР[у, = 1 xi }= JA(xf A(xf в)) вк } Axik .
Выражение, заключенное в фигурные скобки, представляет предельный эффект для к -й объясняющей переменной в логит-модели.
Заметим теперь следующее. Пусть p = Р( A) вероятность
некоторого события A, 0 < p < 1. Отношение часто называют
1-p
шансами (осіск) этого события. Например, если p = 2/3, то
p 2/3 0 ,
= = 2 , и шансы за то, что событие A произойдет, против
1 p 1 /3
того, что это событие не произойдет, равны 2:1 ("два к одному", или
p
"в 2 раза выше"). Логарифм отношения называют логитом
1-p
(logit), logit(p) = ln . Если logit(p) = 0, то p = 1 p = 0.5 , т.е.
11 p J
шансы для события A равны "50 на 50". Если logit(p)> 0, то больше шансов, что событие A произойдет. Если logit(p)< 0 , то больше шансов, что событие A не произойдет.
Пусть теперь p = Pyt = 1 xi}. В
теперь p = Py t = 1 x{]. В логит-модели
p = Mxtв)=-—v7 Л, 1 -p=~і гттп, так что logit(p) = x
1 + expx в) 1 + exp(x. в)
т.е. логит-модель линейна в отношении логита. Отсюда вытекает, что изменение значения к -й объясняющей переменной на величину Axjk приводит (при неизменных значениях остальных объясняющих
переменных) к изменению значения ln на вкAx к, что при
11 p J
малых значениях Axk означает изменение значения отношения
p
приблизительно на 100 вкAxк процентов. Иначе говоря, при
1-p
этом шансы за то, что y i = 1, против того, что y i = 0, возрастают приблизительно на 100 • вк Axк процентов.
Обсуждение Эконометрика для начинающих (Дополнительные главы)
Комментарии, рецензии и отзывы