назад Оглавление вперед


[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [ 166 ] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]


166

данные из уравнения (11.1), приведенного выше. Затем, чтобы лучше понять этот материал, мы рассмотрим пример портфеля из четырех активов с использованием реальных данных, и в конце мы рассмотрим, как эта методика может использоваться для определения риска облигации.

Гипотетический пример с двумя активами

Использование АГК позволяет нам извлекать из дисперсионно-ковариационной матрицы число линейных комбинаций дисперсий и ковариации активов, которое объясняет ковариационность активов, причем, каждая комбинация не зависит от других комбинаций. Это возможно благодаря тому, что симметричная структура дисперсионно-ковариационной матрицы позволяет это сделать при помощи процесса диагонализации. Диагонализация - это процесс, при помощи которого мы определяем линейные комбинации переменных, дисперсий и ковариации, в данном случае независимых от других линейных комбинаций. Процесс включает три стадии:

1. нахождение собственных векторов и соответствующих собственных значений;

2. построение трех матриц Q, D и Q~l;

3. определение линейных комбинаций из собственных векторов, ранжирование комбинаций в порядке убывания собственных значений.

Первая стаппя: нахождение собственных векторов п собственных значений

Первая стадия - это нахождение собственных векторов и соответствующих собственных значений дисперсионно-ковариационной матрицы С. Мы должны найти собственные векторы, потому что они дают нам линейно независимые комбинации переменных - главные компоненты, которые влияют на совокупную дисперсию. Мы должны найти собственные значения, потому что они показывают, за какую долю совокупного риска отвечает каждая главная компонента.

Математически собственные векторы - это векторы Х„ каждый из которых обладает соответствующим скалярным зна-

I "7 v ...... -



чением Xj - собственным значением, таким, что когда диспери-онно-ковариационная матрица С умножается на вектор Xt, то это равно умножению вектора на скалярную величину X, т.е. СХ{ = XXj. Симметричность матрицы С означает, что существует и таких векторов (при условии, что С - это не единичная матрица, т.е. обладает обратной матрицей) и что они ортогональны (перпендекулярны друг другу).

Пример приведен ниже. Матрица 2 х 2 в левой части - это дисперсионно-ковариационная матрица, использованная ранее. Если эта матрица может быть помножена на вектор, так, что произведение будет равно произведению собственного вектора на скалярную величину, например:

"0,00015 0,00005" 0,00005 0,00025

"Г т

является собственным вектором, то X - это соответствующее собственное значение.

Раскрыв скобки, мы получаем:

0,00015 + 0,00005m = X;

0,00005 + 0,00025m = Хт. (11.4)

Отсюда, умножая оба уравнения на т и сокращая X, мы получаем:

0,00015т + 0,00005/я2 = 0,00005 + 0,00025/и 0,00005/я2 - 0,00010т - 0,00005 = 0 5т2 - Ют - 5 = 0 т2 - 2т - 1 = 0

+ 2 ± V4 + 4 2± V8 гг

т =---= --- = 1 ± V2 .

Таким образом, собственные векторы равны:

1 +>/2

(П.5)

Теперь мы должны нормализировать векторы так, чтобы длина их стала равна единице. Это значит, что каждая компо-



нента собственного вектора умножается на квадратный корень суммы квадратов каждой компоненты. Полученные нормализированные векторы являются собственными векторами

0,383 0,924

0,924 - 0,383

Запомним, что существует столько же собственных векторов, сколько переменных в дисперсионно-ковариационной матрице. Таким образом, в матрице 2x2 будут два собственных вектора, а в матрице п х п - п собственных векторов.

Мы можем доказать, что полученные векторы являются собственными векторами, потому что собственные векторы - это векторы, которые при умножении на матрицу С равны произведению вектора на скалярную величину. Например

0,00015 0,000050,383 0,00005 0,00025j[0,924

Здесь мы умножим матрицу С на вектор, чтобы получить новый вектор. Такой же вектор мы получим при умножении 0,000271 на первоначальный вектор. Таким образом, мы видим, что вектор в левой части - это собственный вектор, и скаляр 0,000271 - это собственное значение.

Точно такая же процедура применяется и к вектору в правой части, и в результате видим, что этот вектор также является собственным вектором

"0,000104"

"0,383"

= 0,000271

0,000250

0,924

0,00015 0,00005]" 0,924 0,00005 0,00025}- 0,383

0,000119" 0,000050

0,000129

здесь собственное значение равно 0,000129.

0,924 - 0,383

Вторая стадия: построение матрии О. D и О-1

Следующий шаг - это построение трех матриц Q, D и Qrx. Матрицу Q строим из собственных векторов, записывая их как колонки матрицы в порядке убывания соответствующих им соб-

[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] [76] [77] [78] [79] [80] [81] [82] [83] [84] [85] [86] [87] [88] [89] [90] [91] [92] [93] [94] [95] [96] [97] [98] [99] [100] [101] [102] [103] [104] [105] [106] [107] [108] [109] [110] [111] [112] [113] [114] [115] [116] [117] [118] [119] [120] [121] [122] [123] [124] [125] [126] [127] [128] [129] [130] [131] [132] [133] [134] [135] [136] [137] [138] [139] [140] [141] [142] [143] [144] [145] [146] [147] [148] [149] [150] [151] [152] [153] [154] [155] [156] [157] [158] [159] [160] [161] [162] [163] [164] [165] [ 166 ] [167] [168] [169] [170] [171] [172] [173] [174] [175] [176]