Линейная регрессия
Линейная регрессия (англ. Linear regression) — используемая в статистике регрессионная модель зависимости одной (объясняемой, зависимой) переменной от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) с линейной функцией зависимости.
Модель линейной регрессии является часто используемой и наиболее изученной в эконометрике. А именно изучены свойства оценок параметров, получаемых различными методами при предположениях о вероятностных характеристиках факторов, и случайных ошибок модели. Предельные (асимптотические) свойства оценок нелинейных моделей также выводятся исходя из аппроксимации последних линейными моделями. С эконометрической точки зрения более важное значение имеет линейность по параметрам, чем линейность по факторам модели.
ОпределениеПравить
Регрессионная модель
- ,
где — параметры модели, — случайная ошибка модели; называется линейной регрессией, если функция регрессии имеет вид
- ,
где — параметры (коэффициенты) регрессии, — регрессоры (факторы модели), k — количество факторов модели[1].
Коэффициенты линейной регрессии показывают скорость изменения зависимой переменной по данному фактору, при фиксированных остальных факторах (в линейной модели эта скорость постоянна):
Параметр , при котором нет факторов, называют часто константой. Формально — это значение функции при нулевом значении всех факторов. Для аналитических целей удобно считать, что константа — это параметр при «факторе», равном 1 (или другой произвольной постоянной, поэтому константой называют также и этот «фактор»). В таком случае, если перенумеровать факторы и параметры исходной модели с учетом этого (оставив обозначение общего количества факторов — k), то линейную функцию регрессии можно записать в следующем виде, формально не содержащем константу:
- ,
где — вектор регрессоров, — вектор-столбец параметров (коэффициентов).
Линейная модель может быть как с константой, так и без константы. Тогда в этом представлении первый фактор либо равен единице, либо является обычным фактором соответственно.
Парная и множественная регрессияПравить
В частном случае, когда фактор единственный (без учёта константы), говорят о парной или простейшей линейной регрессии:
Когда количество факторов (без учёта константы) больше одного, то говорят о множественной регрессии:
ПримерыПравить
Модель затрат организации (без указания случайной ошибки)Править
- — общие затраты
- — постоянные затраты (не зависящие от объёма производства)
- — переменные затраты, пропорциональные объёму производства
- — удельные или средние (на единицу продукции) переменные затраты
- — объём производства.
Простейшая модель потребительских расходов (Кейнс)Править
- — потребительские расходы
- — располагаемый доход
- — «предельная склонность к потреблению»
- — автономное (не зависящее от дохода) потребление.
Матричное представлениеПравить
Пусть дана выборка объёмом n наблюдений переменных y и x. Обозначим t — номер наблюдения в выборке. Тогда — значение переменной y в t-м наблюдении, — значение j-го фактора в t-м наблюдении. Соответственно, — вектор регрессоров в t-м наблюдении. Тогда линейная регрессионная зависимость имеет место в каждом наблюдении:
Введём обозначения:
- — вектор наблюдений зависимой переменой y
- — матрица факторов.
- — вектор случайных ошибок.
Тогда модель линейной регрессии можно представить в матричной форме:
Классическая линейная регрессияПравить
В классической линейной регрессии предполагается, что наряду со стандартным условием выполнены также следующие предположения (условия Гаусса-Маркова):
- Гомоскедастичность (постоянная или одинаковая дисперсия) или отсутствие гетероскедастичности случайных ошибок модели:
- Отсутствие автокорреляции случайных ошибок:
Данные предположения в матричном представлении модели формулируются в виде одного предположения о структуре ковариационной матрицы вектора случайных ошибок:
Помимо указанных предположений, в классической модели факторы предполагаются детерминированными (нестохастическими). Кроме того, формально требуется, чтобы матрица имела полный ранг ( ), то есть предполагается, что отсутствует полная коллинеарность факторов.
При выполнении классических предположений обычный метод наименьших квадратов позволяет получить достаточно качественные оценки параметров модели, а именно: они являются несмещёнными, состоятельными и наиболее эффективными оценками.
Методы оценкиПравить
См. такжеПравить
ПримечанияПравить
- ↑ Демиденко, 1981, с. 6.
ЛитератураПравить
- Е.З. Демиденко. Линейная и нелинейная регрессия. — М.: Финансы и статистика, 1981. — 302 с.
- Дж. Себер. Линейный регрессионный анализ. — М.: Мир, 1980. — 456 с. — 13 700 экз.
В статье не хватает ссылок на источники (см. рекомендации по поиску). |