Простая линейная регрессия (ПЛР) – y = f(x; a) + ε;
у – эндогенная, х – экзогенная, ε – случайная «шоковая» переменная, а – неизвестный вектор параметров модели.
ε – случайные погрешности модели, а также экз. (факторные) пер-ные, кот. считаются несущественными по степени влияния на энд.пер-ную.
Пример: Y=ax+b+ε; x–уровень безработицы, y–темп инфляции.
По степени владения априорной информацией различ. 2 задачи:
1)при неизвестной функции взаимосвязи – задача подбора структуры модели.
2)при заданной функции – задача оценивания неизвестных параметров. Основной метод оценивания параметров – метод наименьших квадратов, кот.обеспечивает оптимальные свойства оценкам только при выполнении классических предположений:
П1. отсутствие систематич.ошибок наблюдений уравнения регрессии: M{ } = 0, t=1,…,T.(случайные перем не влияют)
П2. случайные ошибки некоррелированы между собой: M{ * } = 0, t τ, t,τ=1,…,T.
П3. наблюдения производятся с одинаковой точностью, т.е. дисперсии случ. переменных одинаковы во все моменты измерения: D{ } = , t=1,…,T. - гомоскедастичность
|
|
П4. Экз.переменные измеряются без ошибок. В случае модели множ.линейной регрессии их значения образуют линейно-независимые векторы.
П5. Закон распределения вероятностей случайной переменной принадлежит к классу нормальных распределений с нулевым мат.ожиданием и дисперсией , которая чаще всего неизвестна.
Чтобы применять регресс.анализ, необх. иметь сведения о корреляц.анализе.
Коррел.связь – связь, когда признак У реагирует на изменение другого признака х изменением своего частотного распределения.
Регресс.зависимость – зависимость условной средней арифметической выходного признака от изменений входного признака.
Парный коэффициент корреляции (r) – мера коррел. зависимости двух признаков. Принимает значения от -1 до 1; при преобразованиях сдвига и масштаба может только изменить знак без изменения значения; если r = 1 или -1, то существует линейная зависимость между х и У; если r =0, то делают вывод об отсутствии коррел.зависимости признаков.
= - парный коэффициент корреляции Пирсона,
- ковариация между признаками, - среднеквадратич.отклонения х и у.