назад Оглавление вперед


[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [ 122 ] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]


122

Дг,; о-о, оц, ат; Во> Рь Bpi Yi, Y2. •••> Уч)

( ( т Л\

Л,2=Ро+1М2-(+2>Л-,-/=1 i=i

Наша функция правдоподобия является произведением этих функций для различных наблюдений г (при условии достаточного числа наблюдений для расчетов

т р ) 4

«о+Za/r/-< • Po + ZP<8>-< +ZyA-,- .

i=l i=l /=1

для данных значений а и (3). Отсюда

In I(ao, a., affl; Во. Вь (Зр; yb y2, -у,),

( у2

, - a0 + Za< -<

few-{z -

Это выражение зависит не только от а (которые видны), но и от В и у, которые скрыты, в том смысле, что они являются подсуммами л.

Задача здесь - найти значения а, В и у, при которых значе-ние In L будет максимально. Это достигается числовыми методами поиска.

Оиенка максимального

правдоподобия

при коинтеграиии

В интересах доступности изложения в общей модели, приведенной в главе, отсутствует стохастический элемент. Уравнение (7.57), например, должно выглядеть так:

ДА", = Л,*ДА"Г , + А*2 ДЯ; 2 + ПА, 3 + е„ (П.7.17)



Предполагается, что компоненты независимы и подчиняются нормальному распределению с неизвестными дисперсиями. Таким образом, функция правдоподобия будет функцией от этих неизвестных дисперсий

вместе с элементами матриц А\ ,А2 и П.

Теоретически мы должны раскрыть уравнение (П.7.17) для получения точного выражения компонентов е„ выраженных в тех же параметрах, и отсюда построить и максимизировать функцию правдоподобия. На практике это было бы довольно сложно и эффективнее будет использовать для достижения этого матричную алгебру. Для этого был разработан порядок Йохансена.

ПРИЛОЖЕНИЕ 7.2.

Каноническая корреляция и регрессия

В регрессионном анализе мы стараемся смоделировать зависимую переменную как линейную комбинацию совокупности независимых переменных. Наша задача состоит в том, чтобы выбрать "лучшую" линейную комбинацию, которая достигнет наилучшего соответствия моделируемых значений наблюдаемым. Когда же сами независимые переменные являются неизвестными линейными комбинациями других переменных, тогда нам нужно воспользоваться каноническим анализом.

В нашем анализе многофакторной коинтеграции мы показали, что при помощи простых алгебраических действий можно выразить векторный авторегрессионный процесс X, = AlXr l + А2К1-2 + АтЛх-ъ в следующем виде

ДА, - Л*дЛ, 1 • л2 &Л, 2 + 1Ц, з. (П.7.18)

Мы сказали, что если П имеет полный ранг, мы можем найти решение для Х, 3. Это будет значить, что составляющие X являются ДО), поскольку будут выражены в виде разностей. Но это противоречит первоначальному предположению, что они Д1). Это значит, что составляющие X в действительности являются стационарными, что для X найдены изменения разности и что правильная модель - это VAR-модель в уровнях.

Мы сказали, что если ранг П равен нулю, то мы имеем VAR в разностях - стандартный подход к моделированию нестационарного процесса.

Отсюда мы заинтересованы в рассмотрении возможности того, что ранг П не является ни полным, ни нулевым. Это говорит о существовании коинтеграции. Проблема заключается в том, что в условиях белого шума мы не будем знать точного ранга П. Таким образом, мы должны



построить статистическую процедуру оценки матрицы и ее компонентов (а и у) и ассоциированный критерий ее ранга.

Одна из таких процедур была разработана Йохансеном (1988). Согласно этому методу уравнение (П.7.18) запишется следующим образом:

АХ, - ОД, 3 = Л,*Д& , + а\ Д£ 2. (П.7.19)

В этой форме, при том что члены белого шума для удобства опущены, мы видим, что надо выразить линейную комбинацию АХ, и К,-г через линейную комбинацию предыдущих разностей.

Если бы мы знали П, то мы могли бы регрессировать АХ, - ГУГ, 3

по и Х, 2 для того, чтобы найти а\ , чтобы найти а\ (это подразумевает отдельные регрессии для каждого компонента). Мы, таким образом, могли бы проверить несколько предполагаемых матриц П и выбрать те, к которым конечные регрессии подходят лучше всего. Это получается, когда линейные комбинации, представляющие правую и левую стороны уравнения (П.7.19), имеют наивысшую корреляцию, так что анализ называется канонической корреляцией, а регрессии - каноническими.

Как видим, философия этого метода схожа с философией метода максимального правдоподобия. В этом контексте параметры (элементы матрицы П) выбираются таким образом, что максимизируют не функцию правдоподобия, а функцию корреляции.

Конечно, мы не обязаны делать повторные предположения относительно П. Мы можем использовать оценки максимального правдоподобия для регрессий. Подробности алгебраических действий были бы совершенно ичпишни в этом тексте, но общий план процедуры таков:

1) регрессируйте АХ, по предыдущим разностям и запишите остатки Rat,

2) регрессируйте Х, к по к- 1 предыдущим разностям и запишите остатки Rk, (в нашем примере к = 3);

3) постройте четыре матрицы

1 " j

" ы

1 " j " /=1

" /=1

[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [ 122 ] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]