назад Оглавление вперед


[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [ 107 ] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]


107

Ложная природа корреляции двух рядов подтверждается при анализе рядов доходности. Если бы корреляция была высокой, то мы могли бы ожидать отрицательную (положительную) рентабельность в одном ряду при отрицательной (положительной) рентабельности в другом. Однако, как это видно на рис. 7.8, это не всегда имеет место. На само"м деле корреляция рядов динамики доходностей равна всего лишь 0,3.

Таким образом, построение моделей с переменными /(1) может привести к видимой корреляции, которая может быть принята за причинную связь, в то время как этого на самом деле нет.

Модели скользяшеп средней

Модель скользящей средней - это модель, где моделируемая величина задается линейной функцией от прошлых ошибок, т.е. разностей между прошлыми смоделированными значениями и прошлыми фактическими наблюдениями.

Y , = Во + В ,е, , + В 2е, 2 + В 3е, з + ё„ (7.6)

е,= Г,-У, (7.7)

Термин "скользящая средняя", используемый в этой главе, не следует путать со схожим термином, относящимся к технике сглаживания данных.

Авторегресспонные модели скользяшей средней

Разработаны модели временных рядов, которые сочетают авторегрессионный процесс с моделью скользящей средней. Неудивительно, что эти модели называются авторегрессиоными моделями скользящей средней или ARMA1. Модель ARMA(pq) имеет р временных лагов в авторегрессионном процессе и q интервалов в модели скользящей средней. Например, ARMA (3, 2) выглядит следующим образом:

Y, = оо + а, У, , + а2 У, 2 + а3 К, 3 +# В,е, , + В2е, 2 + и„ (7.8)

где и, - остаточный член ошибки в данном уравнении.

Auto-Regressive Moving Average.



Лвторегресспонные интегрированные модели скользя шеи средней (ARIMA)

Если перед применением ARMA необходимо определить разности уровней с целью получения стационарного ряда, то нужно будет знать порядок этих разностей. Таким образом, процесс ARIMA обладает тремя параметрами: р - порядок авторегрессии, d - требуемый порядок предварительно определяемых разностей и q - порядок скользящей средней в модели.

Поскольку ARIMA включает в себя авторегрессионные процессы, модели скользящей средней и интегрирование, то многие динамические процессы можно рассматривать как ARIMA-процессы. Мы уже отметили, что данные могут иметь авторегрессионный компонент (AR). Ряд может обладать определенной степенью интегрирования: Д1), ДО) и даже Д2). В случае Д1) и Д2) нужно единожды или дважды рассчитать разности, чтобы получить стационарный ряд. Наконец, может присутствовать компонент скользящей средней (МА).

Очень важно разбить временной ряд на эти три составляющие для того, чтобы определить структуру моделируемого процесса. Первая стадия - это расчет: разностей с целью получения стационарных рядов. Затем можно попытаться смоделировать полученный стационарный ряд с помощью ARMA.

Например, возьмем абсолютно случайный процесс, где Y, зависит только от среднего уровня ряда и ошибки, т.е.

В этом процессе нет зависимости от прошлых значений Y, нет разностей Y, и нет зависимости от прошлых значений ошибки. Мы можем классифицировать этот процесс как ARIMA (0, 0, 0).

Белый шум - это ARJMA(0,0,0) с нулевым средним значением.

Процесс ARIMA (1, 0, 0) имеет следующий вид:

где - 1<а<1 и г, - элемент белого шума.

Процесс зависит от непосредственно предшествующего значения Y, определение разностей уровней не требуется для трансформации этого ряда в стационарный. Это то же самое, что и процесс AR(1).

Y, = 1 + в,.

(7.9)

Г, = аГ, ! + в„

(7.10)



Если а = 1, то процесс не будет стационарным и потребуется вычисление разностей. Это пример процесса ARIMA (0, 1,0), т.е.

Y, = /-, ,+ е„ (7.11)

потому что для получения стационарного ряда потребуется определение первых разностей У,.АЭто будет определено как процесс случайного блуждания.

Процесс ARIMA (0, 0, 1) имеет следующий вид:

К,= е,+ 0Е, ,, (7.12)

потому что Y, зависит только от значений ошибки. Процесс ARIMA (1,0, 1) будет:

Y, = аУ, , + 0е, , + е,. (7.13)

Векторные авторегрессионные процессы и векторные процессы скользяшей средней

До сих пор мы рассматривали временные ряды только одной переменной. В финансах, как и во многих других областях, нам может понадобиться рассмотреть соотношения между двумя и больше переменными. Например

A-, = aJT, , + РК, „

У,= уХ, х + 5К, ,. (7.14)

Этот процесс можно изобразить в виде матриц с Xt и Yt, образующими вектор следующим образом:

Таким образом, а, В, у и 5 образуют матрицу 2x2.

Процесс, изображенный выше - это векторный AR(1) процесс или VAR (1) процесс, потому что здесь включается только одна непосредственно предшествующая векторная переменная и нет МА процесса.

Процесс VMA (1) не будет включать предыдущие значения переменной, но только предыдущие значения ошибок:

Xt = ръх, х +

П= , +5Еу, ,. (7.16)

(7.15)

[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [ 107 ] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [166] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]