19.3. нелинейная регрессия

19.3. нелинейная регрессия: Математические методы в экономике, Замков Олег Олегович, 2001 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В учебнике дано систематическое изложение основных базовых математических методов, используемых в экономике. Он содержит не только инструментарий математического анализа, знание которого необходимо любому грамотному экономисту..

19.3. нелинейная регрессия

На практике часто встречается ситуация, когда априорно известен нелинейный характер зависимости между объясняемыми и объясняющими переменными. В этом случае функция /в уравнении y=f[a,x) нелинейна (а вектор параметров функции, которые нам нужно оценить). Например, вид зависимости между ценой и количеством товара в той же модели спроса и предложения: она не всегда предполагается линейной, как в нашем примере. Нелинейную функцию можно преобразовать в линейную, как это было сделано, например, логарифмированием с функцией Кобба-Дугласа. Однако не все функции поддаются такой непосредственной линеаризации. Любую дифференцируемую нужное число раз функцию можно разложить в функциональный ряд и затем оценить регрессию объясняемой переменной с членами этого ряда. Тем не менее такое разложение всегда осуществляется в окрестности определенной точки, и лишь в этой окрестности достаточно точно аппроксимирует оцениваемую функцию. В то же время оценить зависимость требуется обычно на более или менее значительном интервале, а не только в окрестности некоторой точки. При линеаризации функции или разложении её в ряд с целью оценки регрессии возникают и другие проблемы: искажение отклонений е и нарушение их первоначальных свойств, статистическая зависимость членов ряда между собой. Например, если оценивается формула

у — ах + Ьх2 + е',

полученная путем линеаризации или разложения в ряд, то независимые переменные х и х2 связаны между собой даже не статистически, но функционально. Если исходная ошибка е здесь связана с переменной х, то добавление х2 приводит к появлению (с соответствующими коэффициентами) квадрата этой переменной и её удвоенного произведения с х, что искажает исходные предпосылки модели. Поэтому во многих случаях актуальна непосредственная оценка нелинейной формулы регрессии. Для этого можно воспользоваться нелинейным МНК. Идея МНК основана на том, чтобы минимизировать сумму квадратов отклонений расчетных значений от эмпирических, т.е. нужно оценить параметры а функции J[a,x) таким образом, чтобы ошибки е~ y.-J[a,x), точнее их квадраты, по совокупности были минимальными. Для этого нужно решить задачу минимизации

F= Е (У, -Яа,х)У -> min.

(5)

Для решения этой задачи существует два пути. Во-первых, может быть осуществлена непосредственная минимизация функции F с помощью методов нелинейной оптимизации, позволяющих находить экстремумы выпуклых линий. Это, например, метод наискорейшего спуска, при использовании которого в некоторой исходной точке определяется антиградиент (направление наиболее быстрого убывания) функции F. Далее находится минимум ^при движении в данном направлении, и в точке этого минимума снова определяется градиент. Процедура повторяется до тех пор, пока разница значений ^на двух последовательных шагах не окажется меньше заданной малой величины. Другой путь состоит в решении системы нелинейных уравнений, которая получается из необходимых условий экстремума функции F. Эти условия равенство нулю частных производных функции Fno каждому из параметров о., т.е.

F =0,

j= 1,...,т. Получается система уравнений

-2Е (Уі ~ Аа>х)) faJ'(ci,x) = 0, у =1,..., т,

(6)

нелинейность которой обусловлена нелинейностью функции/ относительно параметров а. Эта система уравнений может быть решена итерационными методами (когда последовательно находятся векторы параметров, все в меньшей степени нарушающие уравнения системы). Однако в общем случае решение такой системы не является более простым способом нахождения вектора а, чем непосредственная оптимизация методом наискорейшего спуска.

Существуют методы оценивания нелинейной регрессии, сочетающие непосредственную оптимизацию, использующую нахождение градиента, с разложением в функциональный ряд (ряд Тейлора) для последующей оценки линейной регрессии. Наиболее известен из них метод Марквардта, сочетающий в себе достоинства каждого из двух используемых методов.

При построении нелинейных уравнений более остро, чем в линейном случае, стоит проблема правильной оценки формы зависимости между переменными. Неточности при выборе формы оцениваемой функции существенно сказываются на качестве отдельных параметров уравнений рефессии и, соответственно, на адекватности всей модели в целом.

Математические методы в экономике

Математические методы в экономике

Обсуждение Математические методы в экономике

Комментарии, рецензии и отзывы

19.3. нелинейная регрессия: Математические методы в экономике, Замков Олег Олегович, 2001 читать онлайн, скачать pdf, djvu, fb2 скачать на телефон В учебнике дано систематическое изложение основных базовых математических методов, используемых в экономике. Он содержит не только инструментарий математического анализа, знание которого необходимо любому грамотному экономисту..