Расчет коэффициентов множественной линейной регресcии

 

Представим данные наблюдений и соответствующие коэффициенты в матричной форме. Здесь Y − вектор-столбец размерности n наблюдений зависимой переменной Y; Х − матрица размерности n Ч (m + 1), в которой i-я строка (i = 1, 2, …, n) представляет наблюдение вектора значений независимых переменных X1, X2, …, Xm; единица соответствует переменной при свободном члене b0; B − вектор-столбец размерности

(m + 1) параметров уравнения регрессии (6.6); e − вектор-столбец размерности n отклонений выборочных (реальных) значений yi зависимой переменной Y от значений y^i, получаемых по уравнению регрессии 

                      

Y^i = b0 + b1X1 + b2X2 +... + bmXm.                  (2.12)

 

Нетрудно заметить, что функция Q= ∑ei2 в матричной форме представима как произведение вектор-строки eT = (e1, e2,..., en) на вектор-столбец e. Вектор-столбец e, в свою очередь, может быть записан в следующем виде: 

e = Y − XB.                                   (2.13)

Отсюда:

Q = eT⋅e = (Y − XB)T⋅(Y −XB) = YT Y −BT XT Y −YT XB +BT XT XB =

= YT Y − 2BT XT Y + BTXT XB.                   (2.14)       

Здесь eT, BT, XT, YT − векторы и матрицы, транспонированные к e, B, X, Y соответственно. При выводе формулы (6.14) мы воспользовались известными соотношениями линейной алгебры:

 (Y − XB)T = YT - (XB)T; (XB)T = BTXT; BT XT Y = YT XB.   (2.15)

 

Эти соотношения легко проверить, записав поэлементно все мат-рицы и выполнив с ними нужные действия. Необходимым условием экстремума функции Q является равенство нулю ее частных производных  по всем параметрам bj, в матричном виде имеет следующий вид:

(2.16)

 

Для упрощения изложения обозначим матрицу XT X размерности (m + 1) Ч (m + 1) через Z. Обозначим вектор-столбец ХTY размерности (m + 1) через R. Тогда BT XT Y = BTR = ∑ajrj+1, где rj+1 – соответствующий элемент вектора R.

Следовательно, формула (2.16) справедлива. Приравняв ∂Q/ ∂b0 нулю, получим общую формулу (2.18) вычисления коэффициентов множественной линейной регрессии.

Здесь (XT X)−1 − матрица, обратная к XT X. Полученные общие соотношения справедливы для уравнений регрессии с произвольным количеством m объясняющих переменных. Проанализируем полученные результаты для случаев m = 1, m = 2. Для парной регрессии Y = b0 + b1X + e имеем: (Приложения А)

Сравнивая диагональные элементы z′jj матрицы Z−1= (XT X)−1 с формулами, замечаем, что Sb2j= S2 ⋅ z′jj, j = 0, 1. Рассуждая аналогично, можно вывести формулы (осуществление выкладок рекомендуем в качестве упражнения) определения коэффициентов регрессии для уравнения с двумя объясняющими переменными (m = 2). Соотношение (6.17) в этом случае в расширенной форме имеет вид системы трех линейных уравнений с тремя неизвестными b0, b1, b2:

∑yi = nb0 + b1∑xi1 + b2∑xi2,                    

∑xi1yi =b0∑xi1 +b1∑xi21 +b2∑xi1xi2,           (2.19)

∑xi2yi =b0∑xi2 +b1∑xi1xi2 +b2∑xi22.

 

 


Понравилась статья? Добавь ее в закладку (CTRL+D) и не забудь поделиться с друзьями:  



double arrow
Сейчас читают про: