Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Итерационный взвешенный метод наименьших квадратов (ИВМНК).




 

ИВМНК используют для уменьшения влияния возможных выбросов в данных. В основу метода положена ранее рассмотренная идея построения устойчивых оценок (оценок с высокой пороговой точкой). При вычислении таких оценок наблюдениям, сильно отличающимся по величине от остальных, присваивались малые или даже нулевые веса.

Процедура ИВМНК начинается с построения ВМНК-оценок по всем данным с одинаковыми весами: . На очередной k -ой итерации веса назначаются в зависимости от величины остатков подгонки на предыдущей итерации.

Наблюдениям , соответствующим большим остаткам присваивают заниженные веса .

При построении взвешенных МНК-оценок влияние наблюдения ослаблено весовым коэффициентом , если и исключено полностью, если .

Известны несколько правил выбора . Рассмотрим процедуру Тьюки назначения весов на очередном шаге ИВМНК.

,

 

При остатке наблюдение считается выбросом, а вес назначается равным нулю.

Кривая биквадратного взвешивания остатков.

 

Алгоритм построения ИВМНК-оценок.

 
 

Обычно бывает достаточно 3-5 итераций для окончания процесса подгонки.

Рассматривая проблему точек разбалансировки, мы видели, что в точках разбалансировки (там, где близко к 1) выброс в наблюдениях не обязательно приводит к большим остаткам. Так что выброс в точке разбалансировки не обнаруживается приведенным выше алгоритмом. Чтобы исключить такую ситуацию, можно модифицировать процедуру выбора весов

,

ослабив или исключив влияние данных в точке разбалансировки.

Можно рассмотреть несколько более сложную процедуру выбора весов, в которой влияние i -го наблюдения снижается при одновременном выполнении двух условий (наличие большого остатка и наблюдение в точке разбалансировки при >0,5).

По окончании подгонки по ИВМНК обязательно должен составляться протокол о всех наблюдениях, взятых на последней итерации с малыми весами для дальнейшего выявления причин, вызвавших такой эффект.

Данные, которые трактуются нами как выбросы, могут иметь значительно большую ценность, чем все остальные.

 

 

8. Следствия нарушения основных предположений МНК.

В МНК подбирается зависимость переменной у от регрессоров (факторов) ; ; на основе n - наблюдений переменной при фиксированных значениях регрессоров.

Основные предположения МНК: 8.1

- модель данных есть ,

- значения регрессоров в каждом из наблюдений задаются точно,

- ошибки наблюдений являются случайными и имеют одинаковые распределения,

- , ошибки не смещены,

- , ошибки не коррелированны,

- распределение ошибок нормально.

Однако отклонения от этих предположений при расчетах может привести к ошибкам. Например, вследствие того, что в модель включено недостаточное или избыточное количество регрессоров. Рассмотрим эффекты отклонений от указанных предположений.

Неполнота моделей.

Пусть существующая связь между наблюдениями и регрессорами описывается соотношением: . 8.2

Однако по ряду причин при подборе зависимости в модель данных мы включили не все регрессоры,

а только часть их: 8.3

и не ведая о существовании других регрессоров, подобрали вектор параметров:

Математическое ожидание оценки есть:

= 8.4

В результате оценка оказывается смещенной на величину . Решая МНК-задачу (8.3) вместо задачи (8.2) мы находим связь y только с частью регрессоров, влияющих на y, да и ту с систематическими ошибками. Однако возможна ситуация, когда , при этом векторы значений регрессоров обеих групп в точках наблюдений оказываются взаимно ортогональными. В этой случае смещение оценок отсутствует.

Оценка для , вычисляемая по неполной модели данных (8.3), смещена:

; здесь n - количество наблюдений переменной y,

p - число учитываемых регрессоров, - матрица проектирования и X - матрица плана размера в МНК-задаче (8.3),

Z - матрица значений неучтенных регрессоров и - вектор неучтенных параметров.

Построение прогнозов переменной y в точку

; Поскольку оценки смещены, то и прогнозы смещены.

Остатки

. Остатки смещены.

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...