Дг,; о-о, оц, ат; Во> Рь Bpi Yi, Y2. •••> Уч)
( ( т Л\
Л,2=Ро+1М2-(+2>Л-,-/=1 i=i
Наша функция правдоподобия является произведением этих функций для различных наблюдений г (при условии достаточного числа наблюдений для расчетов
т р ) 4
«о+Za/r/-< • Po + ZP<8>-< +ZyA-,- .
i=l i=l /=1
для данных значений а и (3). Отсюда
In I(ao, a., affl; Во. Вь (Зр; yb y2, -у,),
( у2
, - a0 + Za< -<
few-{z -
Это выражение зависит не только от а (которые видны), но и от В и у, которые скрыты, в том смысле, что они являются подсуммами л.
Задача здесь - найти значения а, В и у, при которых значе-ние In L будет максимально. Это достигается числовыми методами поиска.
Оиенка максимального
правдоподобия
при коинтеграиии
В интересах доступности изложения в общей модели, приведенной в главе, отсутствует стохастический элемент. Уравнение (7.57), например, должно выглядеть так:
ДА", = Л,*ДА"Г , + А*2 ДЯ; 2 + ПА, 3 + е„ (П.7.17)
Предполагается, что компоненты независимы и подчиняются нормальному распределению с неизвестными дисперсиями. Таким образом, функция правдоподобия будет функцией от этих неизвестных дисперсий
вместе с элементами матриц А\ ,А2 и П.
Теоретически мы должны раскрыть уравнение (П.7.17) для получения точного выражения компонентов е„ выраженных в тех же параметрах, и отсюда построить и максимизировать функцию правдоподобия. На практике это было бы довольно сложно и эффективнее будет использовать для достижения этого матричную алгебру. Для этого был разработан порядок Йохансена.
ПРИЛОЖЕНИЕ 7.2.
Каноническая корреляция и регрессия
В регрессионном анализе мы стараемся смоделировать зависимую переменную как линейную комбинацию совокупности независимых переменных. Наша задача состоит в том, чтобы выбрать "лучшую" линейную комбинацию, которая достигнет наилучшего соответствия моделируемых значений наблюдаемым. Когда же сами независимые переменные являются неизвестными линейными комбинациями других переменных, тогда нам нужно воспользоваться каноническим анализом.
В нашем анализе многофакторной коинтеграции мы показали, что при помощи простых алгебраических действий можно выразить векторный авторегрессионный процесс X, = AlXr l + А2К1-2 + АтЛх-ъ в следующем виде
ДА, - Л*дЛ, 1 • л2 &Л, 2 + 1Ц, з. (П.7.18)
Мы сказали, что если П имеет полный ранг, мы можем найти решение для Х, 3. Это будет значить, что составляющие X являются ДО), поскольку будут выражены в виде разностей. Но это противоречит первоначальному предположению, что они Д1). Это значит, что составляющие X в действительности являются стационарными, что для X найдены изменения разности и что правильная модель - это VAR-модель в уровнях.
Мы сказали, что если ранг П равен нулю, то мы имеем VAR в разностях - стандартный подход к моделированию нестационарного процесса.
Отсюда мы заинтересованы в рассмотрении возможности того, что ранг П не является ни полным, ни нулевым. Это говорит о существовании коинтеграции. Проблема заключается в том, что в условиях белого шума мы не будем знать точного ранга П. Таким образом, мы должны
построить статистическую процедуру оценки матрицы и ее компонентов (а и у) и ассоциированный критерий ее ранга.
Одна из таких процедур была разработана Йохансеном (1988). Согласно этому методу уравнение (П.7.18) запишется следующим образом:
АХ, - ОД, 3 = Л,*Д& , + а\ Д£ 2. (П.7.19)
В этой форме, при том что члены белого шума для удобства опущены, мы видим, что надо выразить линейную комбинацию АХ, и К,-г через линейную комбинацию предыдущих разностей.
Если бы мы знали П, то мы могли бы регрессировать АХ, - ГУГ, 3
по и Х, 2 для того, чтобы найти а\ , чтобы найти а\ (это подразумевает отдельные регрессии для каждого компонента). Мы, таким образом, могли бы проверить несколько предполагаемых матриц П и выбрать те, к которым конечные регрессии подходят лучше всего. Это получается, когда линейные комбинации, представляющие правую и левую стороны уравнения (П.7.19), имеют наивысшую корреляцию, так что анализ называется канонической корреляцией, а регрессии - каноническими.
Как видим, философия этого метода схожа с философией метода максимального правдоподобия. В этом контексте параметры (элементы матрицы П) выбираются таким образом, что максимизируют не функцию правдоподобия, а функцию корреляции.
Конечно, мы не обязаны делать повторные предположения относительно П. Мы можем использовать оценки максимального правдоподобия для регрессий. Подробности алгебраических действий были бы совершенно ичпишни в этом тексте, но общий план процедуры таков:
1) регрессируйте АХ, по предыдущим разностям и запишите остатки Rat,
2) регрессируйте Х, к по к- 1 предыдущим разностям и запишите остатки Rk, (в нашем примере к = 3);
3) постройте четыре матрицы
1 " j
" ы
1 " j " /=1
" /=1