Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Мультиколлинеарность факторов




По величине парных коэффициентов корреляции обнаруживается лишь явная коллинеарность факторов. Наибольшие трудности при использовании множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестаёт быть полностью независимой и нельзя оценить воздействие каждого фактора в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надёжна оценка распределения суммы объяснённой вариации по отдельным факторам с помощью МНК.

Если рассматривается регрессия y = a+b×x+c×z+d×v+e, то как одно из следствий системы нормальных уравнений получается равенство

. (5.11)

Общая сумма квадратов отклонений = Сумма квадратов отклонений, объяснённая дисперсией (факторная) Остаточная сумма квадратов отклонений

Или

.

В свою очередь при независимости факторов друг от друга выполнимо равенство

,

где Sx, Sz, Sv – суммы квадратов отклонений, обусловленные влиянием соответствующих факторов.

Если факторы интеркоррелированы, последнее равенство нарушается.

Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:

· затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в чистом виде, так как факторы коррелированы; параметры линейной регрессии теряют экономический смысл;

· оценки параметров ненадёжны, обнаруживают большие стандартные ошибки и меняются с изменением объёма наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между векторами.

Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей, поскольку все недиагональные элементы гxi,xj (xi ¹ xj) были бы равны нулю. Так, для включающего три объясняющих переменных уравнения

yteor = b0+b1×x1 + b2×x2 + b3×x3 + ε (5.12)

матрица коэффициентов корреляции между факторами имела бы определитель, равный 1

det(R)= .

Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты корреляции = 1, то определитель такой матрицы равен нулю:

Det(R) = .

Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадёжнее результаты множественной корреляции. Наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.

Оценка значимости мультиколлинеарности факторов может быть проведена методом испытания гипотезы о независимости переменных H0: det(R)=1. Доказано, что величина имеет приближённое c2 –распределение с n×(n-1)/2 степенями свободы. Если фактическое значение c2 превосходит табличное (критическое)

c2факт > c2 табл(df,a),

то гипотеза Н0 отклоняется. Это означает, что det(R) ¹ 1, недиагональные ненулевые коэффициенты корреляции указывают на коллинеарность факторов. Мультиколлинеарность считается доказанной.

Через коэффициенты множественной детерминации можно найти переменные, ответственные за мультиколлинеарность факторов. Для этого в качестве зависимой переменной рассматривается каждый из факторов. Чем ближе значение коэффициента множественной детерминации к единице, тем сильнее проявляется мультиколлинеарность факторов. Сравнивая между собой коэффициенты множественной детерминации факторов

и т.д.,

можно выделить переменные, ответственные за мультиколлинеарность, следовательно, можно решать проблему отбора факторов, оставляя в уравнении факторы с минимальной величиной коэффициента множественной корреляции.

Используя обозначение матрицы плана (для m = 3)

полная мультиколлинеарность означает следующие эквивалентные формулировки:

— столбцы матрицы X линейно зависимы между собой;

— ранг rank(X)<m+1;

— rank(XT×X)<m+1;

— детерминант det(XT×X) = 0.

 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...