Теорема Гаусса-Маркова.


     Вернемся к рассмотрению регрессионного уравнения . Сделаем некоторые предположения.

1) - спецификация модели, отражающая наше представление о механизме зависимости.

2)  Хt – детерминированная экзогенная переменная. Случайный член должен быть распределен независимо от объясняющей переменной.

3)  М() = 0, то есть случайный член не должен иметь систематического смещения. Это условие всегда можно выполнить, если модель включает свободный член, который будет учитывать любую систематическую  тенденцию. Можно считать это условие выполняющимся автоматически.

      D() = M(2) – M2() = M(2) = 2 = Const для всех наблюдений. Условие независимости дисперсии от номера наблюдений называют гомоскедастичностью. Случай не выполнения условия гомоскедастичности называют гетероскедастичностью –  M(2) = 2  Const,

4) cov(i, j) = M(i j) –M(i)M(j) = M(i j) = 0. Предполагается отсутствие систематической связи между значениями  для разных наблюдений. Случайные члены должны быть независимыми. В случае, когда это свойство нарушается (временные ряды), говорят об автокорреляции остатков -

M(i j) 0.

     Часто добавляется условие ~ N(0, ). В этом случае модель называют нормальной линейной регрессионной моделью. Таки образом, задача состоит в оценке параметров и  по данным наблюдений.

Теорема Гаусса-Маркова:

             в предположении 1)-4) оценки параметров регрессии,

             полученные МНК, имеют наименьшую дисперсию в

             классе всех линейных несмещенных оценок.

Доказательство:

1.   Докажем несмещенность оценок: .

.

.

      2. Определим дисперсии оценок.

.

.

Следовательно, оценки состоятельны.

      3. Оценки эффективны, то есть они имеют наименьшую дисперсию по сравнению с любыми другими оценками данных параметров.

 

Предыдущие материалы: Следующие материалы: