Проблема спецификации переменных. Мультиколлинеарность


 

Мультиколлениарность – это линейная взаимосвязь двух любых регрессоров Xj  и Xk , (j, k = ), что является нарушением 7 предпосылки метода наименьших квадратов.

Здесь может быть два случая:

а) Два любых фактора имеют между собой линейную функциональную (детерминированную) связь

 

                                                     xj=a+bxk;                                            (5.1)

 

В этом случае соответствующий вектор столбцы базе данных xij , () и xik, () оказываются строго линейно – зависимыми и определитель матрицы нормальных уравнений равен нулю:

 

                                                                                                         (5.2)

 

Значит матрица  необратима и оценить параметры уравнения регрессии по методу наименьших квадратов невозможно.

б) Линейная связь (5.1) стохастическая (скрытная). Однако она может быть выявлена путем вычисления коэффициента линейной парной корреляции если  критерии Стьюдента  значим, то стохастическая линейная взаимосвязь есть!

Следствия:

1). Матрица  нормальных уравнений формально обратима, но плохо обусловлена (её определитель  очень мал, и тем меньше, чем сильнее взаимосвязь хj и xk). При большей размерности этой матрицы (десятки и сотни регрессоров) возникают вычислительные проблемы.

2) Если все же удалось построить уравнение регрессии с сохранением в нем мультиколлинеарных факторов, уравнение регрессии имеет плохое качество:

  • Модель, как правило, неадекватна;
  • Большие среднеквадратичные отклонения оцениваемых параметров ;
  • Оценки неустойчивы по вариации исходных данных;
  • Данные моделирования трудноинтерпретируемы;

 

Предыдущие материалы: Следующие материалы: