Это не официальный сайт wikipedia.org 01.01.2023

Тест Чоу — Википедия

Тест Чоу

Тест Чоу (Чжоу, англ. Chow test) — применяемая в эконометрике процедура проверки стабильности параметров регрессионной модели, наличия структурных сдвигов в выборке. Фактически тест проверяет неоднородность выборки в контексте регрессионной модели.

Истинные значения параметров модели могут теоретически различаться для разных выборок, так как выборки могут быть неоднородны. В частности, при анализе временных рядов может иметь место так называемый структурный сдвиг, когда со временем изменились фундаментальные характеристики изучаемой системы. Это означает, что модель до этого сдвига и модель после сдвига вообще говоря разные. Например, экономика в 1998—1999 году и в 2008—2009 годах претерпевала структурные изменения в связи с кризисными явлениями, поэтому параметры макроэкономических моделей могут быть разными, до и после этих моментов.

Тест Чоу на структурное изменениеПравить

Пусть дана выборка S   объёмом n  , которая разбита на две подвыборки S 1 ,   S 2  , с объёмами n 1 ,   n 2   соответственно: n = n 1 + n 2  . Для временных рядов это означает обычно, что определён момент времени, подозреваемый на «структурный сдвиг», соответственно временные ряды разбиваются на ряды до этого момента и после.

Пусть рассматривается регрессионная модель y t = x t T b + ε t  , где b   — параметры модели (их количество — k  ). Предполагается, что подвыборки могут быть неоднородными. Таким образом, для двух подвыборок имеются две модели:

{ y t = x t T b 1 + ε t   ,   t S 1 y t = x t T b 2 + ε t   ,   t S 2  

Эти две модели можно представить одной моделью, если использовать индикатор подвыборки d  :

d t = { 1   ,   t S 1 0   ,   t S 2  

Используя эту переменную формулируется следующая модель:

y t = x t T ( d t b 1 + ( 1 d t ) b 2 ) + ε t = d t x t T b 1 + ( 1 d t ) x t T b 2 + ε t = z 1 T b 1 + z 2 T b 2 + ε t   —

«длинная модель» без ограничений для всей выборки с количеством параметров 2 k  . Если в этой модели наложить ограничение H 0 :   b 1 = b 2  , то получается исходная модель y t = x t T b + ε t   с k   параметрами также для всей выборки. Это — «короткая модель» — модель с линейными ограничениями на параметры длинной модели.

Тогда процедуру теста можно свести к проверке этого линейного ограничения. При нормально распределённых случайных ошибках применяется стандартный F-тест для проверки k   линейных ограничений. Статистика этого теста строится по известному принципу:

F = ( R S S S R S S L ) / k R S S L / ( n k L ) = ( R S S R S S 1 R S S 2 ) / k ( R S S 1 + R S S 2 ) / ( n 2 k )     F ( k , n 2 k )  

Соответственно, если значение этой статистики больше критического при данном уровне значимости, то гипотеза об ограничениях отвергается в пользу длинной модели, то есть выборки признаются неоднородными и необходимо строить две разные модели для выборок. В противном случае выборка однородна (параметры модели стабильны) и можно строить общую модель для выборки.

Кроме F-теста можно применять и другие тесты для проверки гипотезы об ограничениях, в частности LR-тест. Особенно это касается более общего случая, когда выделяются не две подвыборки, а несколько. Если количество подвыборок равно m  , то соответствующая LR-статистика будет иметь распределение χ 2 ( ( m 1 ) k )  .

ЗамечаниеПравить

В тесте предполагается, что разными в выборках могут быть только параметры линейной модели, но не параметры распределения случайной ошибки. В частности, предполагается одинаковая дисперсия случайной ошибки в обоих подвыборках. В общем случае, однако, это может быть не так. В этом случае применяют тест Вальда со статистикой:

W = ( b ^ 1 b ^ 2 ) T ( V ^ 1 + V ^ 2 ) 1 ( b ^ 1 b ^ 2 ) d χ 2 ( k )  ,

где b ^ 1 , V ^ 1 , b ^ 2 , V ^ 2   — оценки параметров и оценки их ковариационной матрицы в первой и второй подвыборках соответственно.

Тест Чоу на предсказаниеПравить

Здесь применяется несколько иной подход. Строится модель для одной из подвыборок и на основе построенной модели прогнозируется зависимая переменная для второй подвыборки. Чем больше различия между предсказанными и фактическими значениями объясняемой переменной во второй выборке, тем больше разница между подвыборками. Соответстувующая F-статистика равна:

F = ( R S S R S S 1 ) / n 2 R S S 1 / ( n 1 k )     F ( n 2 , n 1 k )  .

В данном случае также можно использовать LR-статистику с асимптотическим распределением χ 2 ( n 2 )  .

См. такжеПравить

ЛитератураПравить