Как стать автором
Обновить

Тест Йохансена на коинтеграцию

Время на прочтение15 мин
Количество просмотров4.5K

Цель данной статьи - поделиться результатами сравнительного анализ двух тестов на коинтеграцию, теста Энгла-Гренджера и теста Йохансена. Для этого нам понадобится рассмотреть соотношение между двумя и более переменными, понять, что такое VAR процесс, как перейти к VECM модели, в чем заключается процедура Йохансена, и как интерпретировать результат статистического теста, полученного от стандартного пакета типа Matlab.

VAR процесс

Регрессия полезна, когда анализируются только два ряда, потому что в этом случае может быть не более одного коэффициента коинтеграции. В случае со многими переменными может быть более одного вектора коинтеграции. Следовательно, нужна методология, которая бы определила структуру всех векторов коинтеграции.

Векторный авторегрессионный (VAR) процесс, основанный на гауссовых (нормально распределенных) ошибках, часто использовался в качестве описания макроэкономических временных рядов. Причин для этого много: VAR-модель гибкая, легко оцениваемая и, как правило, хорошо вписывается в макроэкономические данные. Однако возможность объединения долгосрочной и краткосрочной информации с использованием свойств коинтеграции, вероятно, является наиболее важной причиной, по которой VAR-модель продолжает вызывать интерес как у эконометристов, так и у прикладных экономистов.

Теоретические экономические модели традиционно разрабатывались как неслучайные математические сущности и часто применялись к эмпирическим данным путем добавления процесса случайных ошибок в математическую модель.

С эконометрической точки зрения эти два подхода принципиально отличаются друг от друга: первый начинается с явной случайной формулировки всех данных, а затем сужает общую статистическую (динамическую) модель путем наложения поддающихся проверке ограничений на параметры, второй начинается с математической (статической) формулировки теоретической модели, а затем расширяет модель путем добавления случайных компонентов.

К сожалению, было доказано, что эти два подхода, даже если применяются к идентичным данным, дают очень разные результаты, поэтому приводят к различным выводам. С научной точки зрения это неудовлетворительно. Поэтому здесь мы попытаемся преодолеть разрыв между двумя точками зрения, начав с некоторых типичных вопросов, которые представляют теоретический интерес, а затем покажем, как можно ответить на эти вопросы на основе статистического анализа VAR-модели. Поскольку статистический анализ по своей конструкции «больше», чем теоретическая модель, он не только отвечает на конкретные теоретические вопросы, но и дает дополнительное представление о макроэкономической проблеме.

Теоретическую модель можно упростить, сделав допущение «при прочих равных условиях», то есть что «все остальное неизменно», в то время как статистически четкая эмпирическая модель должна решать теоретическую проблему в контексте «все остальное меняется». Встраивая теоретическую модель в более широкие эмпирические рамки, анализ статистически обоснованной модели может подтвердить наличие подводных камней в макроэкономическом рассуждении. В этом смысле VAR-анализ может быть полезен для создания новых гипотез или для изменения слишком узко заданных теоретических моделей.

На практике полезно классифицировать переменные, которые характеризуются высокой степенью персистентности во времени (незначительный возврат к среднему), как нестационарные, а переменные, характеризующиеся значительной тенденцией возврата к среднему, как стационарные. Однако важно подчеркнуть, что стационарность / нестационарность или, наоборот, порядок интегрирования являются не свойством экономической переменной, а удобным статистическим приближением для разграничения краткосрочных, среднесрочных и долгосрочных изменений в данных.

Перейдем к случаю, когда мы наблюдаем вектор p переменных. В этом случае необходимо дополнительно обсудить ковариации между переменными в момент времени t, а также их ковариации между моментами времени t и t - h. Ковариации содержат информацию о статических и динамических связях между переменными, которую мы хотели бы раскрыть с помощью эконометрики. Для простоты x_t будет использоваться для обозначения как случайной величины, так и ее реализации.

Рассмотрим (p \times 1)-мерный вектор x_t:

x_t = \left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\	\vdots \\	x_{p,t} \\\end{array}\right], t = 1,\dots,T.

Введем следующее обозначение на случай, когда не были сделаны упрощающие предположения:

E[x_t] = \left[\begin{array}{c}	\mu_{1,t} \\	\mu_{2,t} \\	\vdots \\	\mu_{p,t} \\\end{array}\right], Cov[x_t,x_{t-h}] = \left[\begin{array}{cccc}	\sigma_{11.h} & \sigma_{12.h} & \dots & \sigma_{1p.h} \\	\sigma_{21.h} & \sigma_{22.h} & \dots & \sigma_{2p.h} \\	\vdots & \vdots & \ddots & \vdots \\	\sigma_{p1.h} & \sigma_{p2.h} & \dots & \sigma_{pp.h} \\\end{array}\right] = \Sigma_{t.h}, t = 1,\dots,T.

Теперь предположим, что одно и то же распределение применимо ко всем x_t и что распределение приблизительно нормально, поэтому первые два момента вокруг среднего значения (центральные моменты) являются достаточными для описания вариации в данных. Введем обозначение:

Z = \left[\begin{array}{c}	x_1 \\	x_2 \\	\vdots \\	x_T \\\end{array}\right], E[Z] = \left[\begin{array}{c}	\mu_1 \\	\mu_2 \\	\vdots \\	\mu_T \\\end{array}\right] = \tilde \mu,

где Z - вектор размерности (Tp \times 1). Ковариационная матрица представлена следующим образом

E[(Z - \tilde \mu)(Z - \tilde \mu)'] = \left[\begin{array}{ccccc}	\Sigma_{1.0} & \Sigma_{2.1}^{'} & \dots & \Sigma_{T-1.T-2}^{'} & \Sigma_{T.T-1}^{'} \\	\Sigma_{2.1} & \Sigma_{2.0} &  & \dots & \Sigma_{T.T-2}^{'} \\	\vdots & \vdots & \ddots & \vdots & \vdots \\	\Sigma_{T-1.T-2} & \vdots &  & \Sigma_{T-1.0} & \Sigma_{T.1}^{'} \\	\Sigma_{T.T-1} & \Sigma_{T.T-2} & \dots & \Sigma_{T.1} & \Sigma_{T.0} \\\end{array}\right] = \sum_{(Tp \times Tp)}^{\sim},

где \Sigma_{t.h} = Cov(x_t,x_{t-h}) = E(x_t - \mu_t)(x_{t-h} - \mu_{t-h})'. Вышеприведенное обозначение дает полное общее описание многомерного нормального векторного случайного процесса. Поскольку параметров для оценки гораздо больше, чем наблюдений, то с практической точки зрения такое описание бесполезно, и необходимо упростить предположения для сокращения числа параметров. Эмпирические модели обычно основаны на следующих предположениях:

  • \Sigma_{t.h} = \Sigma_{h} для всех t, h = \dots, -1, 0, 1, \dots;

  • \mu_t = \mu для всех t.

Теперь мы можем записать среднее значение и ковариации в более простой форме:

\tilde \mu = \left[\begin{array}{c}	\mu \\	\mu \\	\vdots \\	\mu \\\end{array}\right], \tilde \Sigma = \left[\begin{array}{ccccc}	\Sigma_{0} & \Sigma_{1}^{'} & \Sigma_{2}^{'} & \dots & \Sigma_{T-1}^{'} \\	\Sigma_{1} & \Sigma_{0} & \Sigma_{1}^{'} & \ddots & \vdots \\	\Sigma_{2} & \Sigma_{1} & \Sigma_{0} & \ddots & \Sigma_{2}^{'} \\	\vdots & \ddots & \ddots & \ddots & \Sigma_{1}^{'} \\	\Sigma_{T-1} & \dots & \Sigma_{2} & \Sigma_{1} & \Sigma_{0} \\\end{array}\right].

Два приведенных выше допущения для бесконечного T определяют слабо стационарный процесс. Когда эти два предположения будут выполнены, VAR-модель будет иметь постоянные параметры.

Пусть \{x_t\} - случайный процесс (упорядоченный ряд случайных переменных) для t = \dots,-1,0,1,2,\dots. Тогда \{x_t\} считается стационарным в широком смысле. Стационарность в узком смысле требует, чтобы распределение (x_{t1},\dots,x_{tk}) было таким же, как (x_{t1+h},\dots,x_{tk+h}) для h = \dots,-1,0,1,2,\dots

  • E[x_t] = -\infty < \mu < \infty для всех t,

  • E[x_t - \mu]^2 = \Sigma_{0} < \infty для всех t,

  • E[(x_t - \mu)(x_{t+h} - \mu)] = \Sigma_{h} < \infty для всех t и h = 1,2,\dots

Эмпирический анализ начинается с матрицы X = [x_1,\dots,x_T], где x_t - это (p \times 1) вектор переменных. Исходя из предположения, что наблюдаемые данные X являются реализацией случайного процесса, можно выразить совместную вероятность X при заданном начальном значении X_0 и значении параметра \theta, описывающего случайный процесс:

P(X|X_0;\theta) = P(x_1,x_2,\dots,x_T|X_0;\theta).

Для данной функции вероятности оценки максимального правдоподобия могут быть найдены путем максимизации функции правдоподобия. Здесь мы ограничимся обсуждением многомерного нормального распределения. Для выражения совместной вероятности X|X_0 удобно использовать процесс Z^{'} = x_1^{'}, x_2^{'}, x_3^{'}, \dots, x_T^{'} \sim N_{Tp}(\mu,\Sigma) вместо (T \times p) матрицы X. Поскольку у \mu размерность Tp \times 1, а у \Sigma - Tp \times Tp, то параметров гораздо больше, чем наблюдений без упрощения допущений. Но даже если мы вводим упрощающие ограничения на среднее значение и ковариации процесса, они не дают прямой информации об экономическом поведении. Поэтому, разложив совместный процесс на условный и частный, а затем последовательно повторяя разложение для частного процесса, мы можем получить более полезную формулировку:

\begin{align*} 	P(x_1,x_2,\dots,x_T|X_0;\theta) = P(x_T|x_{T-1},\dots,x_1,X_0;\theta)P(x_{T-1},x_{T-2},\dots,x_1|X_0;\theta) = \\ 	\vdots \\ 	= \prod_{t=1}^{T} P(x_t|X_{t-1}^0;\theta), \end{align*}

где

X_{t-1}^0 = [x_{t-1},x_{t-2},\dots,x_1,X_0].

Теперь покажем, что VAR-модель является условным процессом

\{x_t|X_{t-1}^0\} \sim N_p(\mu_t,\Omega).

Можно увидеть, как \mu t и \Omega связаны с \mu и \Sigma. Сначала разложим данные на два набора, вектор x_t и условный набор X_{t-1}^0, то есть

X = \left[\begin{array}{c}	x_t \\	X_{t-1}^0 \\\end{array}\right].

Запишем частный и условный процесс:

y_{1,t} = x_t,m_1 = E[x_t],y_{2,t} = \left[\begin{array}{c}	x_{t-1} \\	x_{t-2} \\	\vdots \\	x_1 \\\end{array}\right],m_2 = \left[\begin{array}{c}	E[x_{t-1}] \\	E[x_{t-2}] \\	\vdots \\	E[x_1] \\\end{array}\right],\tilde \Sigma = \left[\begin{array}{c|ccc}	\Sigma_0 & \Sigma_1^{'} & \dots & \Sigma_{T-1}^{'} \\ \hline	\Sigma_1 & \Sigma_{0} & \Sigma_1^{'} & \vdots \\	\vdots & \ddots & \ddots & \Sigma_1^{'} \\	\Sigma_{T-1} & \dots & \Sigma_1 & \Sigma_0 \\\end{array}\right] = \left[\begin{array}{cc}	\Sigma_{11} & \Sigma_{12} \\	\Sigma_{21} & \Sigma_{22} \\\end{array}\right].

Теперь можно вывести параметры условной модели:

\{x_t|X_{t-1}^0\} \sim N_p(\mu_t,\Sigma_{11.2}),

где

\mu_t = m_1 + \Sigma_{12} \Sigma_{22}^{-1}(X_{t-1}^0 - m_2)

и

\Sigma_{11.2} = \Sigma_{11} - \Sigma_{12} \Sigma_{22}^{-1} \Sigma_{21}.

Разница между наблюдаемым значением процесса и его условным средним значением обозначена как \varepsilon_t:

x_t - \mu_t = \varepsilon_t.

Подставляя выражение для условного среднего значения, получаем:

x_t = m_1 + \Sigma_{12} \Sigma_{22}^{-1}(X_{t-1}^0 - m_2) + \varepsilon_{t},x_t = m_1 - \Sigma_{12} \Sigma_{22}^{-1} m_2 + \Sigma_{12} \Sigma_{22}^{-1} X_{t-1}^0 + \varepsilon_{t}.

Используя обозначение \mu_0 = m_1 - \Sigma_{12} \Sigma_{22}^{-1} m_2, [\Pi_1,\Pi_2,\dots,\Pi_{T-1}] = \Sigma_{12} \Sigma_{22}^{-1} и принимая, что \Pi_{k+1},\Pi_{k+2},\dots,\Pi_{T-1} = 0, получаем векторную авторегрессионную модель k-го порядка:

x_t = \mu_0 + \Pi_1 x_{t-1} + \dots + \Pi_k x_{t-k} + \varepsilon_{t},t = 1,\dots,T

где \varepsilon_{t} - NI_p(0,\Omega), а x_0,\dots,x_{k+1} считаются заданными.

Если верно предположение, что X = [x_1,x_2,\dots,x_T] является многомерным нормальным ((\tilde{\mu},\Sigma),\Sigma)процессом, то из этого следует, что VAR-модель:

  • линейна по параметрам;

  • имеет постоянные параметры;

  • имеет нормально распределенные ошибки \varepsilon_{t}.

Обратите внимание, что постоянство параметров зависит от постоянства ковариационных матриц \Sigma_{12} и \Sigma_{22}. Если какая-либо из них изменится в результате преобразования или вмешательства во время анализа выборки, вероятно, изменятся как свободный член \mu_0, так и «коэффициенты наклона» \Pi_1,\dots,\Pi_k. Таким образом, допущения о постоянстве параметров сильно зависят от контекста и обычно требуют, чтобы для соответствующего периода времени моделировались все основные известные структурные изменения.

Было показано, что VAR-модель по сути представляет собой переформулировку ковариаций данных. Вопрос заключается в том, можно ли интерпретировать модель с точки зрения рационального экономического поведения, и если да, то можно ли использовать модель в качестве «плана эксперимента», когда данные собираются путем пассивных наблюдений. Идея заключается в интерпретации условного среднего значения \mu_t VAR-модели как описания планов агентов во время t-1 с учетом имеющейся информации X_{t-1}^0 = [x_{t-1},\dots,x_{t-k}]. В соответствии с допущениями VAR-модели, разница между средним значением и фактической реализацией представляет собой процесс белого шума

\mu_t = E_{t-1}(x_t|x_{t-1},\dots,x_{t-k}) = \mu_0 + \Pi_1 x_{t-1} + \dots + \Pi_k x_{t-k},x_t - \mu_t = \varepsilon_{t},\varepsilon_{t} \sim NI_p(0,\Omega).

Таким образом, допущение NI_p(0,\Omega) согласуется с экономическими агентами, которые рациональны в том смысле, что они не допускают систематических ошибок при составлении планов на время t на основе имеющейся информации в момент времени t-1. Например, VAR-модель с автокоррелированными и/или гетероскедастическими остатками описывает агентов, которые не используют всю информацию, содержащуюся в данных, как можно более эффективно. Это связано с тем, что, включив систематические изменения в остатки, агенты могут повысить точность, с которой они реализуют свои планы. Поэтому проверка предположений модели, то есть проверка остатков на соответствие белому шуму, имеет решающее значение не только для правильного статистического вывода, но и для экономической интерпретации модели как примерного описания поведения рациональных агентов.

К сожалению, во многих экономических приложениях допущение о многомерной нормальности для VAR-модели в ее простейшей форме не выполняется. Поскольку в целом статистические выводы справедливы только в той степени, в какой удовлетворяются предположения, заложенные в основу модели, это потенциально является серьезной проблемой. Поэтому нужно спросить, возможно ли модифицировать базовую VAR-модель таким образом, чтобы она сохраняла свою привлекательность в качестве удобного описания основных свойств данных и в то же время позволяла делать обоснованные выводы.

Исследования в области моделирования показали, что достоверные статистические выводы чувствительны к нарушению некоторых допущений, таких как параметрическая нестабильность, автокорреляция остатков (чем выше, тем хуже) и асимметричные остатки, при этом достаточно устойчивы к другим, таким как избыточный коэффициент эксцесса и гетероскедастичность остатков.

В любом случае, прямое или косвенное тестирование предположений имеет решающее значение для успеха эмпирического применения. Как только мы поймем причины, по которым модель не удовлетворяет допущениям, часто появляется возможность модифицировать модель, чтобы в итоге получить статистически «хорошо себя зарекомендовавшую» модель. Важными инструментами в этом контексте являются:

  • использование интервенционных фиктивных переменных для объяснения значимых политических или институциональных событий в выборке;

  • обусловленность слабо или сильно экзогенными переменными;

  • проверка измерений выбранных переменных;

  • коррекция периода выборки, чтобы избежать структурных изменений или разделить выборку на более однородные периоды.

ECM процесс

Так называемая векторная модель исправления ошибок (далее VECM) дает удобную переформулировку VAR-модели в терминах разностей, запаздывающих разностей и уровней процесса. У этой формулировки есть несколько преимуществ:

  1. Эффект мультиколлинеарности, который обычно сильно проявляется в данных временных рядов, значительно снижается в форме исправления ошибок. Разности гораздо более «ортогональны», чем уровни переменных.

  2. Вся информация о долгосрочных эффектах обобщается в матрице уровней (в дальнейшем обозначена как \Pi). Следовательно, ей можно уделить особое внимание при решении проблемы коинтеграции.

  3. Интерпретация оценок интуитивно более понятна, поскольку коэффициенты можно естественным образом разделить на краткосрочные и долгосрочные эффекты.

  4. Формулировка VECM дает прямой ответ на вопрос, «почему цена актива изменилась с предыдущего по настоящий период в результате изменений в выбранном наборе информации».

Теперь рассмотрим модель VAR(k), сформулированную в общей форме VECM без константы и тренда:

\Delta x_t = \Gamma_1^{(m)} \Delta x_{t-1} + \Gamma_2^{(m)} \Delta x_{t-2} + \dots + \Gamma_{k-1}^{(m)} \Delta x_{t-k+1} + \Pi x_{t-m} + \varepsilon_{t},

где m - целое число между 1 и k, определяющее положение лага ECM-члена. Обратите внимание, что значение функции правдоподобия не меняется даже при изменении значения m.

VAR(2)-модель в VECM формулировке при m=1определена как:

\Delta x_t = \Gamma_1^{(1)} \Delta x_{t-1} + \Pi x_{t-1} + \varepsilon_{t},

где \Pi = - (I - \Pi_1 - \Pi_2), а \Gamma_1^{(1)} = - \Pi_2. В уравнении лагированная матрица уровней \Pi находится во времени t - 1.

CVAR процесс

Рассмотрим нестационарную VAR-модель и покажем, что наличие единичных корней (стохастических трендов) приводит к условию неполного ранга (r < p) на матрице долгосрочных уровней \Pi = \alpha \beta'.

Коинтеграция подразумевает, что определенные линейные комбинации переменных векторного процесса интегрированы более низким порядком, чем сам процесс. Таким образом, если нестационарность одной переменной соответствует нестационарности другой, то существует их линейная комбинация, которая становится стационарной. Другой способ выразить это взаимоотношение заключается в том, что когда две или несколько переменных имеют общие стохастические (и детерминистические) тренды, они будут иметь тенденцию двигаться вместе в долгосрочной перспективе. Такие векторы коинтеграции \beta'x_t часто могут быть интерпретированы как долгосрочные равновесные соотношения переменных и, следовательно, представляют значительный экономический интерес.

В рамках VAR-модели гипотеза о коинтеграции может быть сформулирована в виде ограничения на неполный ранг матрицы \Pi. Воспроизведем ниже VAR(2)-модель в виде ECM с m = 1:

\Delta x_t = \Gamma_1 \Delta x_{t-1} + \Pi x_{t-1} + \varepsilon_{t},

и дадим оценку неограниченной матрице \Pi.

Если X_t \sim I(1), то \Delta x_t \sim I(0). Из этого следует, что \Pi не может иметь полного ранга, так как обратное приведет к логическому несоответствию в уравнении. Рассмотрим \Pi = I как простую матрицу с полным рангом. В этом случае в каждом уравнении стационарная переменная \Delta x_t будет равна нестационарной переменной x_{t-1} плюс некоторые запаздывающие стационарные переменные \Gamma_1 \Delta x_{t-1} и член со стационарной ошибкой. Поскольку стационарная переменная не может быть равна нестационарной переменной, то либо \Pi = 0, либо матрица должна иметь неполный ранг:

\Pi = \alpha \beta',

где \alpha и \beta - (p \times r)-матрицы, r \leq p. Таким образом, при гипотезе I(1) имеем коинтегрированную VAR(2)-модель:

\Delta x_t = \Gamma_1 \Delta x_{t-1} + \alpha \beta' x_{t-1} + \varepsilon_{t},

где \beta' x_{t-1} - (r \times 1) - вектор коинтеграции. \alpha интерпретируется как скорость приведения процесса к равновесию. В соответствии с гипотезой о том, что x_t \sim I(1), все стохастические компоненты в модели являются стационарными, и система теперь логически непротиворечива.

Если r=p, то x_t стационарно, и применяется стандартный вывод. Если r = 0, то в x_t существует p автономных трендов, так что каждый x_{i,t} является нестационарным со своим собственным индивидуальным трендом. По сути мы имеем VAR-процесс в ряде разностей. В этом случае векторный процесс управляется p различными стохастическими трендами, и невозможно получить векторы коинтеграции между уровнями переменных. Мы говорим, что переменные не имеют общих стохастических трендов и, следовательно, не движутся вместе во времени.

В этом случае VAR-модель с уровнями может быть переформулирована в VAR-модель с разностями без потери долгосрочной информации. Поскольку \Delta x_t \sim I(0) , в модели с разностями применяется стандартный вывод. Если 0 < p < r , то x_t \sim I(1) и существует r направлений, по которым процесс можно сделать стационарным с помощью линейных комбинаций. Это и есть векторы коинтеграции. Причина нашего интереса к ним заключается в том, что они часто могут быть интерпретированы как отклонения от стабильных экономических отношений.

R процесс (консолидация общей VAR модели)

Рассмотрим VAR(k)модель в форме ECM с \Pi = \alpha \beta':

\Delta x_t = \Gamma_1 \Delta x_{t-1} + \dots + \Gamma_{k-1} \Delta x_{t-k+1} + \alpha \beta' \tilde x_{t-1} + \varepsilon_{t},

где t = 1, \dots, T, \tilde x_{t - 1}- это p_1 \times 1вектор, p_1 = p + m, m - количество детерминированных компонент, таких как константа или тренд, а начальные значения x_1, \dots, x_k считаются заданными.

Мы используем следующие сокращенные обозначения:

Z_{0t} = \Delta x_t,\\Z_{1t} = \tilde x_{t - 1},\\Z_{2t} = [\Delta x'_{t -1}, \Delta x'_{t-2}, \dots, \Delta x'_{t - k + 1}],

тогда мы можем переписать VAR(k)модель в более компактной форме:

Z_{0t} = \alpha \beta' Z_{1t} + \Psi Z_{2t} + \varepsilon_t,

где \Psi = [\Gamma_1, \Gamma_2, \dots, \Gamma_{k - 1}]. Теперь мы консолидируем краткосрочные «транзитные» эффекты, \Psi Z_{2t}, чтобы получить «чистую» модель долгосрочной коррекции. Чтобы объяснить идею «консолидации», которая используется во многих различных ситуациях в эконометрике, мы сначала проиллюстрируем ее использование в модели множественной регрессии.

Теорема Фриша-Во-Ловела (Frisch-Waugh-Lovell, FWL) гласит, что OLS-оценка \beta_{2.1} в модели линейной регрессии, y_t = \beta_{1.2} x_{1t} + \beta_{2.1} x_{2t} + \varepsilon_t может быть получена в два этапа.

  1. Построить регрессию y_tот x_{1t}, получая остатки u_{1t}из y_t = \hat b_1 x_{1t} + u_{1t}.
    Построить регрессию x_{2t}от x_{1t}, получая остатки u_{2t}из x_{2t} = \hat b_2 x_{1t} + u_{2t}.

  2. Построить регрессию u_{1t}от u_{2t}, чтобы получить оценку \beta_{2.1}, то есть u_{1t} = \beta_{2.1} u_{2t} + error.

Таким образом сначала мы консолидируем влияние x_{1t}на y_tи x_{2t}, а затем строим регрессию для «очищенного» y_t, то есть u_{1t}, от «очищенного» x_{2t}, то есть u_{2t}.

Воспользуемся той же идеей для VAR-модели. Сначала определим вспомогательные регрессии:

Z_{0t} = \hat B'_1 Z_{2t} + R_{0t},\\Z_{1t} = \hat B'_2 Z_{2t} + R_{1t},

где \hat B'_1 = M_{02} M^{-1}_{22}, \hat B'_2 = M_{12} M^{-1}_{22} - МНК оценки, M_{ij} = \Sigma_t(Z_{it} Z'_{jt})/T. Таким образом, это эмпирические аналоги ковариационных матриц \Sigma_{ij}.

Консолидированная модель

R_{0t} = \alpha \beta' R_{1t} + error

важна для понимания как статистических, так и экономических свойств VAR-модели. Путем консолидации исходная «грязная» VAR, содержащая краткосрочные эффекты коррекции и интервенции, была преобразована в «чистую» равновесную форму коррекции, в которой коррекция происходит исключительно в направлении долгосрочных равновесных отношений. Это означает, что мы не только преобразовали «грязную» эмпирическую модель в красивую статистическую модель, но и в более интерпретируемую экономическую форму.

Тест Йохансена

Тест Йохансена, также называемый LR-тестом на коинтеграционный ранг или тестом следа (трейс тестом), основан на VAR-модели в R-форме, где сконцентрирована вся краткосрочная динамика, фиктивные и другие детерминированные компоненты:

R_{0t} = \alpha \beta' R_{1t} + error.

Тест Йохансена называется тестом следа, потому что асимптотическое распределение статистики является следом матрицы, основанной на функциях броуновского движения или стандартных винеровских процессах. Тест Йохансена для определения ранга коинтеграции r включает следующие гипотезы:

  • H(r): rank = r , то есть наличие p - r единичных корней, r векторов коинтеграции, x_tнестационарны;

  • H(p): rank = p , то есть отсутствие единичных корней, x_tстационарны.

Соответствующая LR-статистика имеет вид (статистика следа):

\tau_{p-r} = -T \sum_{i = r + 1}^p \ln (1 - \lambda_{i}),

где \lambda_{i} можно интерпретировать как квадрат канонических корреляций между линейной комбинацией уровней \beta'_i R_{1t-1} и линейной комбинацией разностей w'_i R_{0t}. В этом смысле величина \lambda_i является показателем того, насколько сильно линейное отношение \beta'_i R_{1t-1} коррелирует со стационарной частью процесса R_{0t} . Когда \lambda_i = 0 , линейная комбинация нестационарна и не существует поправки на равновесие.

Процедура тестирования заключается в следующем. Сначала проверяется нулевая гипотеза о том, что существует один вектор коинтеграции, затем гипотеза о двух векторах и т.д. Мы отвергаем нулевую гипотезу, что r- число векторов коинтеграции - меньше чем p, если значение статистического критерия больше указанного критического значения.

Также возможна проверка нулевой гипотезы против альтернативной о том, что ранг на единицу больше, чем предполагается в нулевой гипотезе:

  • H(r): rank = r ;

  • H(r + 1): rank = r + 1 .

В таком случае применяется статистика максимального собственного числа:

\tau_{p-r} = -T \ln (1 - \lambda _{r+1}).

Пример: преобразование VAR(3) в ECM

Возьмем в качестве примера VAR(3) процесс:

x_{1,t} = a_1 x_{1,t-1} + a_2 x_{1,t-2} + a_3 x_{1,t-3} + b_1 x_{2,t-1} + b_2 x_{2,t-2} + b_3 x_{2,t-3} + \varepsilon_{1,t},\\x_{2,t} = c_1 x_{1,t-1} + c_2 x_{1,t-2} + c_3 x_{1,t-3} + d_1 x_{2,t-1} + d_2 x_{2,t-2} + d_3 x_{2,t-3} + \varepsilon_{2,t}.

Это достаточно сложное уравнение может быть выражено в матричной форме (опустим вектор с ошибками для краткости):

\left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\\end{array}\right] = \left[\begin{array}{cc}	a_1 & b_1 \\	c_1 & d_1 \\\end{array}\right] \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \left[\begin{array}{cc}	a_2 & b_2 \\	c_2 & d_2 \\\end{array}\right] \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \left[\begin{array}{cc}	a_3 & b_3 \\	c_3 & d_3 \\\end{array}\right] \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right],\left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\\end{array}\right] = \Pi_1 \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \Pi_2 \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] + \left[ \begin{array}{c} 	\varepsilon_{1,t} \\ 	\varepsilon_{2,t} \\ \end{array} \right].

Далее мы должны преобразовать модель через разности. Это можно сделать следующим образом. Во-первых, мы вычитаем

\left[ \begin{array}{c} 	x_{1,t-1} \\ 	x_{2,t-1} \\ \end{array} \right]

из обеих частей уравнения, преобразуя левую сторону уравнения в разности:

\left[\begin{array}{c}	x_{1,t} \\	x_{2,t} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] = \Pi_1 \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \Pi_2 \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right],\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + \Pi_2 \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] + \left[ \begin{array}{c} 	\varepsilon_{1,t} \\ 	\varepsilon_{2,t} \\ \end{array} \right].

Мы можем преобразовать это выражение следующим образом:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + (\Pi_2 + \Pi_1 - I - (\Pi_1 - I)) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + \Pi_3 \cdot \left[ \begin{array}{c} 	x_{1,t-3} \\ 	x_{2,t-3} \\ \end{array} \right].

Открывая скобки, получаем:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] - (\Pi_1 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Группируем члены с общими множителями:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left(\left[\begin{array}{c}	x_{1,t-1} \\	x_{2,t-1} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right]\right) + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

В результате получим выражение:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \Pi_3 \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Схожая процедура применяется по отношению к матрице \Pi_3:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] + \\ + (\Pi_3 + \Pi_1 + \Pi_2 - I - (\Pi_1 + \Pi_2 - I)) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Открывая скобки, получаем:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] +\\ + (\Pi_1 + \Pi_2 + \Pi_3 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] - (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Группируем члены с общими множителями:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left( \left[\begin{array}{c}	x_{1,t-2} \\	x_{2,t-2} \\\end{array}\right] - \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right] \right) + \\ + (\Pi_1 + \Pi_2 + \Pi_3 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

В результате получаем:

\left[\begin{array}{c}	\Delta x_{1,t} \\	\Delta x_{2,t} \\\end{array}\right] = (\Pi_1 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-1} \\	\Delta x_{2,t-1} \\\end{array}\right] + (\Pi_1 + \Pi_2 - I) \cdot \left[\begin{array}{c}	\Delta x_{1,t-2} \\	\Delta x_{2,t-2} \\\end{array}\right] + \\ + (\Pi_1 + \Pi_2 + \Pi_3 - I) \cdot \left[\begin{array}{c}	x_{1,t-3} \\	x_{2,t-3} \\\end{array}\right].

Обозначим \Gamma_1^{(3)} = \Pi_1 - I, \Gamma_2^{(3)} = \Pi_1 + \Pi_2 - I, \Pi = \Pi_1 + \Pi_2 + \Pi_3 - I, получим VAR(3) модель в ECM форме:

\Delta x_t = \Gamma_1^{(3)} \Delta x_{t-1} + \Gamma_2^{(3)} \Delta x_{t-2} + \Pi x_{t-3} + \varepsilon_t.

Мы видим, что VAR-процесс уровней рядов может быть записан как VAR-процесс разностей за исключением одного члена \Pi x_{t-3}.

Ранг матрицы \Pi дает число векторов коинтеграции в рядах динамики (ранг матрицы - это число линейно независимых рядов). Таким образом, ранг матрицы говорит о том, что следует делать. Если \Pi имеет нулевой ранг, то матрица \Pi - нулевая. Это показывает, что коинтеграции в рядах данных нет, и для достижения стационарности требуется нахождение разностей.

Если матрица \Pi - полная, то ряды уже стационарны (матрица \Pi имеет обратную, и, таким образом, выражение может быть решено для уровней, выраженных в разностях. Это будет верным только если ряды уровней I(0)).

Если ранг \Pi лежит между 0 и p ( 0<r<p, в нашем случае p = 2, r = 1), то существует p векторов коинтеграции. Модель исправления ошибки включает в себя краткосрочные изменения, которые поддерживают долгосрочное равновесие.

Тест Йохансена в MATLAB

У нас есть два ряда цен акций, x_1и x_2. Мы хотим, чтобы x_1и x_2были коинтегрированными, то есть чтобы ранг коинтеграции был равен 1. Рассмотрим два тикера Московской биржи, TATN (y) и TATNP (x) за 2020 год:

y_t = 1.0478 x_t + \varepsilon_t.
Динамика цен акций TATN и TATNP
Динамика цен акций TATN и TATNP

Тест Йохансена выполняется с помощью функции jcitest, которая на вход принимает массив из временных рядов, в данном случае размера n \times 2, где n - количество торговых дней. На выходе функция возвращает логическое значение, равное 1, если нулевая гипотеза отвергается в пользу альтернативной, и 0 – иначе.

testPrices(:,1) = prices(:,indexY);
testPrices(:,2) = prices(:,indexX);
[hjt,pValuejt,statjt,cValuejt,mles] = jcitest(testPrices, 'model', 'H2');
[hjtm,pValuejtm,statjtm,cValuejtm,mlesm] = jcitest(testPrices, 'model', 'H2', 'test', 'maxeig');

Статистика следа

Дальше начинается самое интересное: программа выдает ответ, который обычному человеку сложно понять, потому что он приходит в виде массива логических значений.

Результат теста Йохансена для статистики следа
Результат теста Йохансена для статистики следа

Википедия нас к такому не готовила, поэтому давайте разберемся, что здесь происходит. Гипотетически тест следа может привести к трем различным вариантам ранга коинтеграции и, следовательно, количествам единичных корней.

  1. p - r = 2, r = 0, когда \tau_2 \leq C_2

  2. p - r = 1, r = 1, когда \tau_2 > C_2, \tau_1 \leq C_1

  3. p - r = 0, r = 2, когда \tau_2 > C_2, \tau_1 > C_1

где \tau_{p - r} - статистика следа, C_{p - r}- соответствующие критические значения, p в нашем случае равно 2, так как у нас две переменные, y (TATN) и x (TATNP). Поэтому, чтобы оценить значение r , мы должны выполнить последовательность тестов.

Отметим, что асимптотические таблицы определяются так, что когда H_r истинна, тогда P_{p - r} (\tau_{p - r} \leq C_{0.95} (p - r)) = 0.95, где \tau_{p - r} задается как:

\tau_{p-r} = -T \sum_{i = r + 1}^p \ln (1 - \lambda_{i}).

Рассмотрим результат теста для нулевого ранга. В чем здесь заключается нулевая гипотеза?

  • H(0): rank = 0 , то есть наличие 2 единичных корней, 0 векторов коинтеграции, yи x нестационарны;

  • H(2): rank = 2 , то есть отсутствие единичных корней, y и x стационарны;

  • P_1 (r = 0) = P_1 (\tau_2 \leq C_2).

Из ответа матлаба мы видим, что нулевая гипотеза отвергается для нулевого ранга ( h = 1для r = 0). Это означает, что P_1 (\tau_2 \leq C_2) \rightarrow 0 асимптотически.

Рассмотрим результат теста для первого ранга. В чем здесь заключалась нулевая гипотеза?

  • H(1): rank = 1 , то есть наличие 1 единичного корня, 1 вектора коинтеграции, yи x нестационарны;

  • H(2): rank = 2 , то есть отсутствие единичных корней, y и x стационарны;

  • P_1 (r = 1) = P_1 (\tau_1 \leq C_1).

Следующее значение p - r = 1 соответствует r = 1, истинному коинтеграционному числу, а P_1 (\tau_1 \leq C_1) \rightarrow 0.95 в соответствии с ответом матлаба о том, что нулевая гипотеза не отвергается для первого ранга ( h = 0 для r = 1). Таким образом последний вариант P_1 (p - r = 0) \rightarrow \leq 0.05.

Резюмируем:

  • P_1 (p - r = 2, r = 0) = P_1 (\tau_2 \leq C_2) \rightarrow 0

  • P_1 (p - r = 1, r = 1) = P_1 (\tau_2 > C_2, \tau_1 \leq C_1) \rightarrow 0.95

  • P_1 (p - r = 0, r = 2) = P_1 (\tau_2 > C_2, \tau_1 > C_1) \rightarrow p_0 \leq 0.05

Таким образом правильное значение r асимптотически принимается в 95% всех случаев, что как раз и должна делать процедура 5%-ного теста.

Статистика максимального собственного числа

Практически тот же самый результат мы видим для статистики максимального собственного числа.

Результат теста Йохансена для статистики максимального собственного числа
Результат теста Йохансена для статистики максимального собственного числа

Здесь у нас есть следующие варианты:

  • r = 0, когда \tau_2 \leq C_2

  • r = 1, когда \tau_2 > C_2, \tau_1 \leq C_1

где \tau_{p - r} - статистика максимального собственного числа, C_{p - r}- соответствующие критические значения.

Напомним, что \tau_{p - r} задается как:

\tau_{p-r} = -T \ln (1 - \lambda _{r+1}).

Рассмотрим результат теста для нулевого ранга. В чем здесь заключается нулевая гипотеза?

  • H(0): rank = 0

  • H(1): rank = 1

  • P_1 (r = 0) = P_1 (\tau_2 \leq C_2)

Из ответа матлаба мы видим, что нулевая гипотеза отвергается для нулевого ранга ( h = 1для r = 0). Это означает, что P_1 (\tau_2 \leq C_2) \rightarrow 0 асимптотически.

Рассмотрим результат теста для первого ранга. В чем здесь заключалась нулевая гипотеза?

  • H(1): rank = 1

  • H(2): rank = 2

  • P_1 (r = 1) = P_1 (\tau_1 \leq C_1)

Следующее значение r = 1 соответствует истинному коинтеграционному числу, а P_1 (\tau_1 \leq C_1) \rightarrow 0.95 в соответствии с ответом матлаба о том, что нулевая гипотеза не отвергается для первого ранга ( h = 0 для r = 1).

По результатам обеих статистик мы видим, что пара (TATN, TATNP) является коинтегрированной.

Тест Энгла-Грэнджера vs Тест Йохансена

Мной была проанализирована 1 621 пара акций Московской биржи за 2020 год на дневных данных. В 87% случаев результаты теста Энгла-Гренджера и теста Йохансена совпали.

Также было проанализировано 3 193 890 пар на американских биржах (NYSE, NASDAQ и AMEX) за 2020 год на дневных данных. Также в 87% случаев результаты теста Энгла-Гренджера и теста Йохансена совпали.

Еще было проанализировано 21 725 пар на криптобиржах (Poloniex, Binance, Kraken) за 2020 год на дневных данных. В 86% случаев результаты теста Энгла-Гренджера и теста Йохансена совпали.

С практической точки зрения для принятия решения о том, стоит ли добавлять пару активов в портфель, а также для оценки весовых коэффициентов лучше использовать оба теста на коинтеграцию.

Теги:
Хабы:
Всего голосов 4: ↑4 и ↓0+4
Комментарии4

Публикации