Линейная модель множественной регрессии. У=а0+а1х1+ а2х2+…+ аmхm+e
Параметры определяются с помощью методов наименьших квадратов.
Для этого проведем все рассуждения в матричной форме. Введем следующие матричные обозначения:
;
где У вектор n значений результативного показателя.
Х – матрица n значений m независимых переменных; а матрица параметров
У=Х∙а+ε.
Заметим, что а – выборочные оценки совокупности.
Итак, метод наименьших квадратов требует мин-ии суммы квадратов отклонений исходных модели значений
,
Далее:
Из матричной алгебры известно, что , тогда:
1 – это есть матрица размерностью 1Х1, т.е. число-скаляр, а скаляр при трансформировании не меняется, поэтому Þ
Согласно условию экстремума S по а =0
;
2ХТY+2aXTX=0
XTY=aXTX
Для погашения а умножим обе части этого уравнения на (ХТХ)-1, тогда
а= (XTХ)-1∙XTY
Решение задачи нахождения матицы, а возможно лишь в том случае, если строки и столбцы матрицы Х линейно независимы.
Модель множественной регрессии. Технология разработки прогнозов на ПВМ.
|
|
Связь между у и независимыми факторами х1, х2, … хn можно охарактеризовать уравнением (моделью) множественной регрессии.
Y=f (х1, х2, … хn).
Эта модель показывает, какие значения в ср принимает результативный показатель У, если переменные Хi примут какие-то свой конкретные значения.
В зависимости от функции f будем иметь линейную или не линейную множественную регрессию.
Тинтером было доказано, что усложнение формы связи м\у хi и у не принципиально влияет на конечные результаты.
Линейная модель множественной регрессии.
У=а0+а1х1+ а2х2+…+ аmхm+e
Параметры определяются с помощью методов наименьших квадратов.
Технология разработки прогнозов на ПВМ.