Метод наименьших квадратов и его предпосылки
Рассмотрим уравнение линейной множественной регрессии. Уравнение генеральной совокупности или модель регрессии запишем в виде
где
Предполагается, что εt независимы и нормально распределены с нулевым математическим ожиданием и постоянной дисперсией Термины «зависимая» и «независимые» для переменных не совсем удачны и означают лишь, что в этом случае значения зависимой переменной оцениваются на основе известных значений независимых переменных. Приведём предпосылки спецификации классической регрессионной модели:
Кроме предпосылок спецификации модели необходимо выполнение ещё и предпосылок метода наименьших квадратов (МНК). Как известно, оценки параметров модели линейной регрессии обычно рассчитываются на основе МНК. Доказано, что эти оценки будут «хорошими», т.е. несмещёнными, эффективными и состоятельными, если будут выполняться следующие предпосылки относительно поведения остаточного члена
Кроме основных предпосылок, рассматриваются ещё две дополнительные – отсутствие между регрессорами сильной линейной зависимости (совершенной мультиколлинеарности) и что Одна из задач эконометрики – тестирование выполнимости предпосылок и выработка методов оценивания при их нарушениях. Оцененное уравнение регрессии будем записывать так:
Здесь Представим уравнение генеральной совокупности и оценённое уравнение регрессии в матричной форме. Введём следующие обозначения: Y = Тогда уравнения регрессии (2.1) и (2.2) в матричной форме примут вид Y = X МНК-оценки параметров уравнения (2.1) рассчитываются из условия минимизации по b квадратичной формы: Q(b) = Продифференцируем Q(b) по b и приравняем результат к нулю:
Откуда имеем b = Это и есть МНК-оценка параметров уравнения (2.1). Кроме того, известно, что несмещённая оценка дисперсии случайного члена
где
Свойства МНК-оценок Остановимся более подробно на свойствах полученных оценок. Относительно уравнения множественной регрессии можно высказать те же предположения 1 – 4, что и для простой регрессии (заменив независимую переменную векторов независимых переменных), в том числе и предположения, лежащие в основе теоремы Гаусса-Маркова.
Рассмотрим математическое ожидание полученных оценок. M(b) = M( = Здесь предполагается, что матрица Х детерминирована, а М( Подсчитаем ковариационную матрицу полученных оценок. При этом будем иметь в виду, что ковариационная матрица остатков регрессии имеет вид Cov(b) = М{(b- Итак, Cov(b) =
Воспользуйтесь поиском по сайту: ![]() ©2015 - 2025 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|