назад Оглавление вперед


[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [ 14 ] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42]


14

эффициент для р,,; приблизительно равен единице, мы не можем отвергнуть гипотезу случайного блуждания, в соответствии с которой ожидаемое значение для р, равно p, i. 1

Ряд для цены с учетом обоих эффектов

Ряд, полученный только с учетом обратной связи

Рис. 3.8. Искусственно смоделированные ряды, описывающие информированных и неинформированных инвесторов

Коэффициенты

Стандартная ошибка

t статистика

Р-значение

Нижние 95%

Верхние 95%

Сдвиг

р1-1

0.035425 0.924581

0.020927 0.040076

1.692821 23.07093

0.093666 2.16Е-41

-0.00611 0.845042

0.076959 1.00412

Таблица 3.1. Регрессия последовательных значений цены

На рис. 3.9 представлена зависимость p от pt i для ряда с полным учетом доходов. Как видно из рисунка, линия регрессии и квадратичная обратная связь вносят свой вклад в изменения цен. На этой точечной диаграмме трудно заметить нелинейную связь, потому что включенный во временной ряд случайный шум намного интенсивнее исходной детерминированной структуры.

Этот пример является хорошей проверкой способности нейронной сети выявлять исходную структуру. Здесь мы опять использовали полносвязную 1-2-1 сеть без непосредственных связей входа с выходом, которая обучалась с помощью входных значений p, i и целевых значений р,. Для обработки сетью многократно подавались наборы из 100 пар значений цен. Как и в первом эксперименте, коэффициент обучения был взят равным 0.9. Во время обучения сети по окончании очередной эпохи (т.е. каждые 100 циклов) вычислялась среднеквадратичная ошибка (MSE). С самого начала этот показатель плавно уменьшался с каждой новой эпохой. Мы продолжали обучение до тех пор, пока MSE не установилась на своем минимальном

значении. Это произошло примерно через 4000 эпох. Затем с помощью обученной сети мы сделали прогноз величины р по 100 новым тестовым значениям р . Результаты представлены на рис. 3.10. 1

Рис. 3.9. Диаграмма для пар последовательных значений цены, птученная по смоделированному ряду

1 г-

Истинные значения Регрессия Выход сети

0.3 0.4

1

А ю

1 1

>.

1

0.6 0.7

Рис. 3.10. Прогноз методом линейной регрессии и с помощью нейронной сети

Наиболее критическим является участок относительно низких цен, где механизм обратной связи наиболее силен. На диаграмме в числе прочего показаны выход нейронной сети и прогноз но регрессии для таких критических значений p, i. Очевидно, что сеть вполне удовлетворительно распознает исходную нелинейную взаимосвязь. Интересно при этом, что RMSE (квадратный корень из средней квад-



Эксперименты в двумерной задаче 69

Рис. 3.11. Странный аттрактор отображения Хенона

Чтобы получить исходный материал для последующих экспериментов с нейронными сетями, мы сначала выполнили линейную регрессию на первых 153 членах временного ряда. Результаты регрессии для х, представлены в табл. 3.2, Коэффициенты регрессии, в том числе сдвиг, существенно отличны от нуля на 95-процентном уровне. Уточненный равен 0.11.

Коэффициенты s

Стандартная ошибка

t-статистика

Р-значение

Нижний Верхний 95%-й уровень 95%-й уровень

Сдвиг Уы

0.645396204 -0.267477915 0.18113141

0.083048726 0.080662827 0.089324561

7.771295652 -3.315999752 2.027789531

I.08I43E-12 0.001142148 0.044328614

0,48129985 0.809492557 -0.426859961 -0.10809587 0.004634605 0.357628214

Таблица 3.2. Регрессия для отображения Хенона

Для проверки регрессионной модели мы сформировали прогноз для последних 153 записей в нашей базе данньгх. Квадратный корень из среднеквадратичной ошибки прогноза регрессионной модели был равен 0.2112. После этого мы обучили 2-2-1 MBPN-сеть на первых 153 совокупностях двух входных и целевой переменных, а вторые 153 записи использовали как подтверждающее множество. Коэффициент обучения, по-прежнему, брался равным 0.9. Обучение прекращалось, если в течение 100 эпох подряд среднеквадратичная ошибка оставалась очень низкой. После этого прогноз был сделан также для 153 образцов.

На рис. 3.12 показаны диаграммы распределения значений х (фазовый портрет) по отношению к значениям у на предыдущем шаге для истинного отображения Хенона, линейной регрессии и MBPN-сети. Квадратный корень среднеквадратичной ошибки нейронной

ратичной ошибки) прогноза нейронной сети (0.0635) всего на 5% лучше, чем у регрессии. Основной вклад в это улучшение вносит именно повышенная точность в области низких цен, где наиболее силен эффект обратной связи. На финансовых рынках время от времени случаются неожиданные события, например, девальвации валют, и здесь кроются наибольшие возможности для извлечения прибыли.

СЕТЕВАЯ ОЦЕНКА В ДВУМЕРНОЙ ЗАДАЧЕ (ОТОБРАЖЕНИЕ ХЕНОНА)

До сих пор в наших экспериментах рассматривались только задачи с одним входным переменным p, i. Теперь мы обратимся к проблеме, которая аналогична только что рассмотренному одномерному логистическому отображению, но, в отличие от него, имеет двумерный вход. Впервые эта модель была рассмотрена Хеноном [139] и получила название отображения Хенона. Уравнения модели таковы:

х,=1 + Уг.1-ах1„(5)

Уг = Ьх, 1.(6)

Как Х(, так и зависят от предыдущих значений и y, i, и это делает систему динамической. Из-за квадратичного члена в первом уравнении система является нелинейной. Если мы возьмем произвольные начальные значения и сгенерируем по этим уравнениям ряд значений для и у,, то окажется, что их значения беспорядочно и внешне случайно располагаются, соответственно, в интервалах от -0.4 до 0.4 и от -1.4 до 1.4. Так же, как и в рассмотренном ранее случае логистического отображения рис. 3.4, эти значения не сходятся к какому-либо положению равновесия и не совершают периодических колебаний. Таким образом, мы имеем дело с системой, обладающей странным аттрактором. Понятно, что с помощью традиционных статистических методов нам вряд ли удастся выявить структуру модели, поскольку и х, и у ведут себя беспорядочно (см. [214, с. 152]).

Целью эксперимента должен быть прогноз значения х по х и у, 1. Сначала давайте сделаем вид, что мы вообще ничего не знаем о существовании какой-то модели, описывающей ряд х,, а знаем только (со слов «эксперта»), что здесь играет роль предыдущее значение Xj ,, а также.еще некоторый показатель y,i. Естественно начать с линейной регрессии. Чтобы в дальнейшем было удобнее сравнивать регрессию и сеть, промасштабируем значения х и у так, чтобы они лежали на отрезке [0,1]. Полученный в результате ряд для показан на рис. 3.11.



0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 О

Реальное значение X, О Регрессия □ Нейронная сеть

7 а °

0<ХОо оо <>*?л<Х1«>

0.7 0.8 0.9

0.4 0.5

Рис. 3.12. Диаграмма распределения двух последовательных значений ряда Хе-

).5 -1 -1.5 -2

R предсказанное

Рис. 3.13. Реальные и прогнозируемые сдвиги по отображению Хенона

Близкое прилегание к прямой, идущей под углом 45°, - очень хороший результат. Для крайних низких и высоких значений сохраняется расхождение, но за счет более длительного обучения и более тщательного выбора архитектуры и параметров сети можно добиться более точной аппроксимации сигмоидальной формы незашум-леппого процесса (обратите внимание, что «крайних» положительных значений больше). Веса обученной сети показаны на рис. 3.14.

Выход

-6.60147

-5.56129

Входной слой

Рис. 3.14. Весо сети с алгоритмом спуска после обучения на отображении Хенона

Левый нижний входной узел соответствует х, а правый нижний - у. Отдельно указаны веса двух скрытых и выходного элемента.

Последний эксперимент с сетью, который мы опишем в этой главе, относится к ряду Хенона с шумом. Мы видоизменили модель следующим образом:

=l + y,-1.4x,li, у, =0.15x, i+0.5e,.

Случайная составляющая бралась равномерно распределенной на интервале от -0.1 до 0.1. Таким образом, изменение цены у, наполовину определяется величиной 0.3x, i, отражающей связь с предыдущим моментом, а наполовину - случайной величиной. Исходя из произвольно взятых начальных значений х, , и , мы вычислили 306 последовательных значений. Все значения неременных были неремасштабированы так, чтобы они лежали в интервале от О до 1. Первые 153 набора использовались для оценки по регрессионной

сети на образцах, не входивших в обучающее множество, составил 0.0281, что существенно ниже, чем соответствующая ошибка регрессии 0.2112. Представляется, что, в отличие от регрессии, сеть довольно хорошо уловила сложную структуру фазового портрета. Это отчетливо видно на рис. 3.12. Хорошие показатели сети станут еще виднее, если мы вычислим истинное и прогнозируемое сетью относительные изменения (R) величины у за один шаг. На рис. 3.13 изображено совместное распределение этих двух величин.

[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [ 14 ] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42]