Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Методы устранения автокорреляции. Процедуры оценивания Кохрейна-Оркатта и Хильдрета-Лу




В связи с тем, что наличие в модели регрессии автокорреляции между остатками модели может привести к негативным результатам всего процесса оценивания неизвестных коэффициентов модели, а именно к:

а) увеличению дисперсий оценок параметров модели;

б) смещению оценок, полученных по МНК;

в) снижению значимости оценок параметров,

автокорреляция остатков должна быть устранена.

Основной причиной наличия случайного члена в модели являются несовершенные знания о причинах и взаимосвязях, определяющих то или иное значение зависимой переменной. Поэтому свойства случайных отклонений, в том числе и автокорреляция, в первую очередь зависят от выбора формулы зависимости и состава объясняющих переменных.

Так как автокорреляция чаще всего вызывается неправильной спецификацией модели, то необходимо, прежде всего, скорректировать саму модель. Возможно, автокорреляция вызвана отсутствием в модели некоторой важной объясняющей переменной. Следует попытаться определить данный фактор и учесть его в уравнении регрессии. Также можно попробовать изменить формулу зависимости (например, линейную на гиперболическую и т. д.).

Однако если все разумные процедуры изменения спецификации модели исчерпаны, а автокорреляция имеет место, то можно предположить, что она обусловлена какими-то внутренними свойствами ряда εt. В этом случае можно воспользоваться авторегрессионным преобразованием. В линейной регрессионной модели либо в моделях, сводящихся к линейной, наиболее целесообразным и простым преобразованием является авторегрессионная схема первого порядка AR(1).

Для простоты изложения AR(1) рассмотрим модель парной линейной регрессии . Тогда наблюдениям t и (t - 1) соответствуют формулы: и .

Пусть случайные отклонения подвержены воздействию авторегрессии первого порядка: , где последовательность случайных компонентов – не коррелированна, а коэффициент ρ известен.

Вычтем из наблюдения t соотношение наблюдения (t - 1), умноженное на ρ:

Применим преобразование модели:

Тогда в новых переменных модель примет вид: в котором шоковая переменная уже не искажена автокорреляцией.

Данное преобразование (D) относится к классу декорреляции операторов [7]. Он приводит к потере первого наблюдения (если мы не обладаем предшествующим ему наблюдением). Число степеней свободы уменьшится на единицу, что при больших выборках не так существенно, но при малых может привести к потере эффективности. Эта проблема обычно преодолевается с помощью поправки Прайса-Винстена:

Отметим, что авторегрессионное преобразование может быть обобщено на произвольное число объясняющих переменных, т. е. использовано для уравнения множественной регрессии. Таким образом, авторегрессионное преобразование первого порядка AR(1) может быть обобщено на преобразования более высоких порядков AR(2), AR(3) и т. д.:

Можно показать, что в случае автокорреляции остатков ковариационная матрица вектора случайных отклонений имеет вид:

 

 

 
 

В обобщенном МНК параметры уравнения регрессии определяются по формуле Эйткена:

Однако на практике значение коэффициента ρ обычно неизвестно и его необходимо оценивать. Существует несколько методов оценивания ρ.

1. на основе статистики Дарбина-Уотсона. Т.к. она тесно связана с коэффициентом корреляции между соседними отклонениями через соотношение , то в кач-ве оценки коэффициента ρ может быть взят коэф r: Этот метод оценивания неплох при большом числе наблюдений, так как этом случае оценка r параметра ρ будет достаточно точной.

2. метод Кохрейна-Оркатта. включает следующие этапы:

1. Применяя МНК к исходному уравнению регрессии, получают первоначальные оценки параметров a0 и a1; вычисляют остатки

2. В качестве оценки параметра ρ используют его МНК-оценку в регрессии .

3. Применяя Обобщённый МНК к преобразованному уравнению, получают новые оценки параметров a0 и a1.

4. Строят новый вектор остатков и процесс возвращается к этапу 2.

Чередование этапов осуществляется до тех пор, пока не будет достигнута требуемая точность, т. е. пока разность между предыдущей и последующей оценками ρ не станет меньше любого наперед заданного числа.

Процедура КО реализована в большинстве эк компьютерных программах.

3. Процедура Хильдрата-Лу также применяема в регрессионных пакетах. Метод основан на тех же принципах, но использует другой алгоритм вычислений:

1. Преобразованное уравнение оценивают для каждого значения ρ из интервала (-1;1) с заданным шагом внутри его.

2. Выбирают значение ρ, для которого сумма квадратов остатков в преобразованном уравнении минимальна, а коэффициенты регрессии определяются при оценивании преобразованного уравнения с использованием этого значения.

3. В окрестности этого значения устраивается более мелкая сетка и процесс отбора наилучшего значения ρ осуществляется до тех пор, пока не будет достигнута требуемая точность.

 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...