Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Тестирование гипотез общего линейного вида о параметрах регрессии.




Для оценивания регрессии объекта Equation рассчитываются следующие показатели качества регрессионного уравнения:

· остаточная сумма квадратов регрессии (Sumsquaredresid),

· коэффициент детерминации R2 (R-squared),

· скорректированный (на число регрессоров)

· коэффициент детерминации 2 adjR (AdjustedR-squared),

· оценка среднеквадратического отклонения ошибки регрессии (S.E. ofregression),

· среднеквадратические отклонения для коэффициентов регрессии se(i) (Std. Error),

· фактические значения t -статистик Стьюдента для каждого коэффициента регрессии (t-Statistic),

· p -значения (фактические вероятности принятия нулевой гипотезы) для каждого коэффициента регрессии (Prob),

· значение статистики Фишера F (F-statistic),

· p -значения (фактические вероятности принятия нулевой гипотезы) для статистики Фишера F (Prob(F-statistic)).

Величина коэффициента детерминации R2 имеет смысл только в том случае, когда константа включена в состав регрессоров, и может быть интерпретирована как доля вариации зависимой переменной, объясненная вариацией независимых переменных (факторов) регрессионного уравнения. Поскольку проверка гипотез основана на предположении о нормальности распределения ошибок регрессионного уравнения, необходимо проверить его выполнение для полученного вектора остатков регрессии.

Для проверки нулевой гипотезы H0 о равенстве нулю некоторого коэффициента регрессионного уравнения (H0: i =0) необходимо сравнить фактическое значение статистики, которое указывается в колонке t -Statistic в окне результатов оценивания регрессии объекта Equation, с критическим значением t -статистики Стьюдента для выбранного уровня значимости α, то есть со значением двусторонней (1-α) квантили t -статистики Стьюдента с n - k степенями свободы.

Величина α характеризует допустимый уровень вероятности ошибиться, отвергнув нулевую гипотезу, когда она верна. В теории проверки статистических гипотез величину α называют ошибкой первого рода.

Если фактическое значение t -статистики Стьюдента больше критического значения статистики, то нулевая гипотеза отвергается для данного уровня значимости α, иначе нулевая гипотеза не может быть отвергнута для данного уровня значимости α

В случае отвержения нулевой гипотезы для уровня значимости α говорят, что коэффициент β i регрессионного уравнения значим на уровне значимости α (или, говорят, что оценка коэффициента β i значимо отличается от нуля), и соответствующий ему регрессор объясняет вариацию зависимой переменной. В противном случае говорят, что коэффициент незначим на уровне значимости α

Второй способ проверки гипотезы – сравнить p -значение (фактическую вероятность принятия нулевой гипотезы данного коэффициента регрессии) с выбранным уровнем значимости α Если выполняется условие p <α, то нулевая гипотеза отвергается на уровне значимости α, иначе нулевая гипотеза не может быть отвергнута для данного уровня значимости α.

3. Проверка статистической гипотезы о значимости уравнения в целом. Для проверки гипотезы о значимости уравнения в целом необходимо воспользоваться статистикой Фишера F. В этом случае нулевая гипотеза имеет вид H0: { β1 = β 2 =…=0 }, то есть тестируется одновременное равенство нулю всех коэффициентов регрессионного уравнения кроме константы регрессии β 0. Необходимо сравнить фактическое значение статистики Фишера F, возвращаемое Eviews (F-statistic), и сравнить его с критическим значением статистики Фишера F для выбранного уровня значимости α, то есть со значением (1-α) квантили статистики Фишера с (k -1, n-k) степенями свободы.

Если фактическое значение статистики Фишера F больше критического значения, то нулевая гипотеза отвергается для данного уровня значимости α, иначе нулевая гипотеза не может быть отвергнута для данного уровня значимости α.

В случае отвержения нулевой гипотезы для уровня значимости α говорят, что регрессионное уравнение значимо в целом на уровне значимости α и вариация независимых переменных объясняет вариацию зависимой переменной в регрессионном уравнении. В противном случае говорят, что уравнение в целом незначимо на уровне значимости α и включенные в регрессию факторы не улучшают прогноз для зависимой переменной по сравнению с ее средним значением.

Eviews не возвращает критического значения статистики Фишера F в окне результатов оценивания регрессии, но соответствующая квантиль может быть найдена с использованием встроенной функции @qfdist. Введем в окне ввода команд строку show @qfdist(v,p1,p2), где v =1-, p1 = k - 1, p2 = n - k. Команда show показывает на экран значение функции @qfdist.

4. Проверка статистической линейной гипотезы общего вида.

Для проверки гипотезы воспользуемся тестом Вальда (WaldTest). Вспомним, что коэффициенты регрессионного уравнения в Eviews имеют обозначения C(1) (коэффициент β 1 при первом регрессоре), C(2) и так далее, последним коэффициентом будет константа регрессии. Это справедливо, если в спецификации регрессионного уравнения при его оценивании служебная переменная С указана в конце спецификации.

Для работы с тестом Вальда выберем в меню объекта Equation пункт ViewCoefficientTests, Wald – CoefficientRestrictions. В диалоговом окне WaldTest необходимо ввести линейные ограничения на коэффициенты уравнения регрессии, разделяя их запятой. Помните, что ограничения должны быть линейно независимыми, а количество вводимых ограничений должно быть строго меньше количества оцениваемых переменных. Для парной регрессии из рассмотренного выше примера п.2 занятия 4 можно ввести только одно 32 ограничение, например, С(1)+2 С(2)=7, что соответствует записи β 1 +2 β 0 =7. Результат тестирования возвращается в окне Equation, которое содержит имя уравнения, нулевую гипотезу и значения статистик напротив текста F-statistic и Chi-square (используются два различных варианта теста со статистиками Фишера и 2) вместе с соответствующими p -значениями. Будет ли нулевая гипотеза отвергнута или принята, зависит от выбранного уровня значимости при тестировании статистической гипотезы.

МУЛЬТИКОЛЛИНЕАРНОСТЬ

Еще одной серьезной проблемой при построении моделей множественной линейной регрессии по МНК является мультиколлинеарность - линейная взаимосвязь двух или нескольких объясняющих переменных. Причем, если объясняющие переменные связаны строгой функциональной зависимостью, то говорят о совершенной мультиколлинеарности. На практике можно столкнуться с очень высокой (или близкой к ней) мультиколлинеарностью - сильной корреляционной
зависимостью между объясняющими переменными. Причины мультиколлинеарности и способы ее устранения анализируются ниже.

 

10.1. Суть мультиколлинеарности

Мультиколлинеарность может быть проблемой лишь в случае множественной регрессии. Ее суть можно представить на примере совершенной мультиколлинеарности.

Пусть уравнение регрессии имеет вид

 

Y=β0 + β1X1 + β 2X2 + ε (10.1)

 

Пусть также между объясняющими переменными существует строгая линейная зависимость:

 

X2 = Yo + Y1X1. (10.2)

 

Подставив (10.2) в (10.1).получим:

 

Y = β0+ β1X1 + β2(Yo + Y1Xi) + e

или Y = (β0 + β2Yo) + (β1+ β2Y1)X1 + e.

 

Обозначив β0 + β2Y0 = a, β1 + β2Y1 = b. получаем уравнение парной линейной регрессии:

Y = a + b*X1 + ε. (10.3)

 

По МНК нетрудно определить коэффициенты а и Ь. Тогда получим систему двух уравнений:ув0 + в2у0 =а, (10,4) |в12у1 = Ь.

 

В систему (10.4) входят три неизвестные β0, β1, β2 (коэффициенты Yo н Y1 определены в (10.2)). Такая система в подавляющем числе случаев имеет бесконечно много решений. Таким образом, совершенная мультиколлинеарность не позволяет однозначно определить коэффициенты регрессии уравнения (10.1) и разделить вклады объясняющих переменных X, и Х: в их влиянии на зависимую переменную Y. В этом случае невозможно сделать обоснованные статистические выводы об этих коэффициентах. Следовательно, в случае мультиколлинеарности выводы по коэффициентам и по самому уравнению регрессии будут ненадежными.

Совершеннаямультиколлинеарность является скорее теоретическим примером. Реальна же ситуация, когда между объясняющими переменными существует довольно сильная корреляционная зависимость, а не строгая функциональная. Такая зависимость называется несовершенной мулътиколлинеарностью. Она характеризуется высоким коэффициентом корреляции р между соответствующими объясняющими переменными. Причем, если значение р по абсолютной величине близко к единице, то говорят о почти совершенной мультиколлинеарности. В любом случае мультиколлинеарность затрудняет разделение влияния объясняющих факторов на поведение зависимой переменной и делает оценки коэффициентов регрессии ненадежными.

 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...