Представим данные наблюдений и соответствующие коэффициенты в матричной форме. Здесь Y − вектор-столбец размерности n наблюдений зависимой переменной Y; Х − матрица размерности n Ч (m + 1), в которой i-я строка (i = 1, 2, …, n) представляет наблюдение вектора значений независимых переменных X1, X2, …, Xm; единица соответствует переменной при свободном члене b0; B − вектор-столбец размерности
(m + 1) параметров уравнения регрессии (6.6); e − вектор-столбец размерности n отклонений выборочных (реальных) значений yi зависимой переменной Y от значений y^i, получаемых по уравнению регрессии
Y^i = b0 + b1X1 + b2X2 +... + bmXm. (2.12)
Нетрудно заметить, что функция Q= ∑ei2 в матричной форме представима как произведение вектор-строки eT = (e1, e2,..., en) на вектор-столбец e. Вектор-столбец e, в свою очередь, может быть записан в следующем виде:
e = Y − XB. (2.13)
Отсюда:
Q = eT⋅e = (Y − XB)T⋅(Y −XB) = YT Y −BT XT Y −YT XB +BT XT XB =
= YT Y − 2BT XT Y + BTXT XB. (2.14)
Здесь eT, BT, XT, YT − векторы и матрицы, транспонированные к e, B, X, Y соответственно. При выводе формулы (6.14) мы воспользовались известными соотношениями линейной алгебры:
(Y − XB)T = YT - (XB)T; (XB)T = BTXT; BT XT Y = YT XB. (2.15)
Эти соотношения легко проверить, записав поэлементно все мат-рицы и выполнив с ними нужные действия. Необходимым условием экстремума функции Q является равенство нулю ее частных производных по всем параметрам bj, в матричном виде имеет следующий вид:
(2.16)
Для упрощения изложения обозначим матрицу XT X размерности (m + 1) Ч (m + 1) через Z. Обозначим вектор-столбец ХTY размерности (m + 1) через R. Тогда BT XT Y = BTR = ∑ajrj+1, где rj+1 – соответствующий элемент вектора R.
Следовательно, формула (2.16) справедлива. Приравняв ∂Q/ ∂b0 нулю, получим общую формулу (2.18) вычисления коэффициентов множественной линейной регрессии.
Здесь (XT X)−1 − матрица, обратная к XT X. Полученные общие соотношения справедливы для уравнений регрессии с произвольным количеством m объясняющих переменных. Проанализируем полученные результаты для случаев m = 1, m = 2. Для парной регрессии Y = b0 + b1X + e имеем: (Приложения А)
Сравнивая диагональные элементы z′jj матрицы Z−1= (XT X)−1 с формулами, замечаем, что Sb2j= S2 ⋅ z′jj, j = 0, 1. Рассуждая аналогично, можно вывести формулы (осуществление выкладок рекомендуем в качестве упражнения) определения коэффициентов регрессии для уравнения с двумя объясняющими переменными (m = 2). Соотношение (6.17) в этом случае в расширенной форме имеет вид системы трех линейных уравнений с тремя неизвестными b0, b1, b2:
∑yi = nb0 + b1∑xi1 + b2∑xi2,
∑xi1yi =b0∑xi1 +b1∑xi21 +b2∑xi1xi2, (2.19)
∑xi2yi =b0∑xi2 +b1∑xi1xi2 +b2∑xi22.