Основные задачи регрессионного анализа. Особенности классической линейной модели множественной регрессии.


Регрессионный анализ – это статистический метод исследования зависимости случайной величины Y от переменных Xj (j = 1, 2, k), рассматриваемых в регрессионном анализе как неслучайные величины независимо от истинного закона распределения Xj.

Регрессионный анализ используют для решения следующих задач:

  • установления  формы  зависимости  между  переменными (линейная-нелинейная, отрицательная-положительная);
  • определения  функции  регрессии.  Важно  выяснить,  каково было  бы  действие  на  зависимую  переменную  главных факторов, если бы прочие факторы не изменялись и если бы были исключены случайные элементы;
  • прогностической  оценки  неизвестных  значений  зависимой переменной.  С  помощью  функции  регрессии  можно воспроизвести  значения  зависимой  переменной  внутри интервала  заданных  значений  независимых  переменных (интерполяция) или оценить течение процесса вне заданного интервала (экстраполяция).

Одной  из  задач регрессионного  анализа  является  исследование  зависимости одной переменной  Y  от  нескольких  объясняющих  или  независимых переменных  X1, X2, Xn в условиях конкретного места  и  конкретного  времени.  Эта  задача  решается  с  помощью множественного регрессионного анализа.

Наиболее  часто  используемая  множественная  линейная  модель  регрессионного анализа имеет вид: y = β0+β1хi1+βj xij+βk xk+εI, где εi – случайные ошибки наблюдения, независимые между собой, имеют нулевую среднюю и дисперсию σ2 .

Коэффициент регрессии βj показывает, на какую величину в среднем изменится результативный признак Y, если переменную Xj увеличить на единицу измерения.

Основная задача регрессионного анализа заключается в нахождении по выборке объемом n оценки неизвестных коэффициентов регрессии β0, β1, βk.

Так как в регрессионном анализе xj рассматриваются как неслучайные величины, а Mεi = 0, то уравнение регрессии имеет вид: y= β0+β1хi1+ βj xij+βk xk, где i=1, 2, n; у=xβ (матричная форма).

При построении модели множественной линейной регрессии учиты­ваются следующие пять условий:

1.    величины хi1,хi2, ...,хim - неслучайные и независимые переменные;

2.    математическое ожидание случайной ошибки уравнения регрессии
равно нулю во всех наблюдениях: М (ε) = 0,  i= 1,m;

3.    дисперсия случайной ошибки уравнения регрессии является постоянной для всех наблюдений: D(ε) = σ2 = const;

4.    случайные ошибки модели регрессии не коррелируют между собой (ковариация случайных ошибок любых двух разных наблюдений равна нулю): соv(εi,εj.) = 0, i≠j;

5.    случайная ошибка модели регрессии - случайная величина, подчиняющаяся нормальному закону распределения с нулевым математическим ожиданием и дисперсией σ2.

 

Предыдущие материалы: Следующие материалы: