Классическая линейная модель множественной регрессии (КЛММР)

Предположим, что для оценки уравнения регрессии взята выборка объемом n. Результаты наблюдений над результативным признаком представлены вектором и матрицей Х типа объект-свойство наблюденных значений признаков :

X =

здесь – значение j-го признака на i-м объекте наблюдения; столбец из "1" можно считать столбцом "наблюденных" значений для признака

Очевидно, что, подставляя в правую часть наблюденные значение объясняющих переменных для объекта наблюдение Оi, а в левую часть наблюденное значение результативного признака мы сможем их уравновесить величиной - регрессионным остатком, характеризующей расхождение между наблюденным значением и "осредненным" значением - то есть значением линейной функции регрессии:

или, если

Система линейных уравнений называется линейной моделью множественной регрессии (ЛММР).

Отметим, что наличие регрессионных остатков в (ЛММР) объясняется вариацией результативного признака относительно "среднего значения" при данных значениях объясняющих переменных, что в свою очередь можно объяснить влиянием на результативный признак ряда неучтенных факторов-признаков.

Будем предполагать, что

1) – детерминированные переменные;

2) ранг матрицы Х равен "к+1" – среди признаков нет линейно зависимых;

3) - нет систематических ошибок в измерении у;

4) - гомоскедастичность регрессионных остатков (равноточные измерения);

5) - условие некоррелированных регрессионных остатков.

Условия 4 – 5 можно заменить одним условием в векторной форме

4')

Условия (1–5) известны как условия Гаусса – Маркова. ЛММР, удовлетворяющая требованиям (1–5), называется классической ЛММР (КЛММР)


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  




Подборка статей по вашей теме: