назад Оглавление вперед


[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [ 67 ] [68] [69] [70] [71]


67

Текущий градиент -> Предыдущий градиент

Лингвистические переменные Темп Обучения и Градиент принимают в иллюстрируемом таблицей нечетком правиле адаптации следующие значения: NB - большой отрицательный; NS - малый отрицательный; Z - близок к нулю; PS - малый положительный; РВ - большой положительный.

Наконец, в современных гибридных нейронных нечетких системах нейронные сети и нечеткие модели комбинируются в единую гомогенную архитектуру. Такие системы могут

Системы, использующие нейронные сети для определения параметров нечетких моделей, называются нейронными нечеткими системами. Важнейшим свойством этих систем является их интерпретируемость в терминах нечетких правил if-then.

£У Подобные системы именуются также кооперативны.ми нейронными нечеткими системами и противопоставляются конкурентны.м нейронным нечетким системам, в которых нейронные сети и нечеткие системы работают вместе над решением одной и той же задачи, не взаимодействуя друг с другом. При этом нейронная сеть обычно используется для предобработки входов или же для постобработки выходов нечеткой системы.

Кроме них имеются также нечеткие нейронные системы. Так называются нейронные сети, использующие методы нечеткости для ускорения обучения и улучшения своих характеристик. Это может достигаться, например, использованием нечетких правил для изменения темпа обучения или же рассмотрением нейронных сетей с нечеткими значениями входов.

Суш;ествует два основных подхода к управлению темпом обучения персептрона методом обратного распространения ошибки. При первом этот темп одновременно и равномерно уменьшается для всех нейронов сети в зависимости от одного глобального критерия -достигнутой среднеквадратичной погрешности на выходном слое. При этом сеть быстро учится на начальном этапе обучения и избегает осцилляции ошибки на позднем. Во втором случае оцениваются изменения отдельных межнейронных связей. Если на двух последующих шагах обучения инкременты связей имеют противоположный знак, то разумно уменьшить соответствующий локальный темп - впротивном случае его следует увеличить. Использование нечетких правил может обеспечить более аккуратное управление локальными темпами модификации связей. В частности это может быть достигнуто, если в качестве входных параметров этих правил использовать последовательные значения градиентов ошибки. Таблица соответствующих правил может иметь, например следующий вид:

Таблица 4. Нечеткое правило адаптации темпа обучения нейронной сети



Элементы нечеткой логики

Центральным понятием нечеткой логики является понятие лингвистической переменной. Согласно Лотфи Заде лингвистической называется переменная, значениями которой являются слова или предложения естественного или искусственного языка. Примером лингвистической переменной является, например, падение производства, если она принимает не числовые, а лингвистические значения, такие как, например, незначительное, заметное, существенное, и катастрофическое. Очевидно, что лингвистические значения нечетко характеризуют имеющуюся ситуацию. Например, падение производства на 3% можно рассматривать и как в какой-то мере незначительное, и как в какой-то мере заметное. Интуитивно ясно, что мера того, что данное падение является катастрофическим должна быть весьма мала.

Смысл лингвистического значения X и характеризуется выбранной мерой - так называемой функций принадлежности {membership function) ju: U [0,1], которая каждому элементу и

универсального множества U ставит в соответствие значение совместимости этого элемента с X. В нашем случае универсальным множеством является множество всех возможных величин падения производства (от О до 100%).

катастрофическое

10 20 30 40 50

падение производства , %

Рисунок 2. Функции принадлежности лингвистической переменной Падение производства.

(Нечеткое правило связывает значения лингвистических переменных. Примером такого правила может быть, например, следующее.

Если (падение производства - катастрофическое), то энергоресурсов - значительные).

(доходы от экспорта

интерпретироваться либо как нейронные сети с нечеткими параметрами, либо как параллельные распределенные нечеткие системы.



Нечеткие нейроны

Преобразование, осуществляемое типичным нейроном с двумя входами, имеет вид

У = f(\\ +2X2), где /(•) - сигмоидная функция. Для того, чтобы обобщить его, нужно

представить себе, что вес нейрона не обязательно должен умножаться на значение соответственного входа, а здесь может быть применена какая-либо другая операция. Далее, суммирование воздействий также может быть заменено неким другим действием. Наконец, вместо сигмоидной функции потенциал нейрона может быть преобразован каким-либо новым способом. В нечеткой логике операция умножения заменяется для булевых переменных операцией И, а для числовых - операцией взятия минимума (min). Операция суммирования заменяется соответственно операциями ИЛИ и взятием максимума (max).

Если осуществить соответствующие замены в преобразовании, осуществляемом знакомым нам нейроном, и положить в нем f(z = z (линейный выход), то мы получим так называемый нечеткий ИЛИ-нейрон:

у = max{mm(Wj,Xj),min(w2-2)}

Для нечетких нейронов полагается, что значения входов и весов заключены в интервале [О, 1], поэтому и выход нейрона ИЛИ будет принадлежать этому же интервалу.

Используя противоположную подстановку (умножение-> max), (сложение-> min ) получим преобразование, характерное для нечеткого И-нейрона:

у = min{max(Wj, Xj), max(w2, Х2)}

Извлечение правил if-then

В главе, посвященной извлечению знаний, мы уже познакомились с нейросетевыми методами извлечения правил из данных. Настало время узнать, как можно извлечь с их помощью нечеткие правила.

Рассмотрим набор нечетких правил

Бел их есть Д, то у есть 6/, i-l,...,n.

Каждое из них может интерпретироваться как обучающая пара для многослойного персептрона. При этом, условие (х есть Д) определяет значение входа, а следствие (у есть 6,) - значение выхода сети. Полное обучающее множество имеет вид),...,Заметим, что

Нечеткое подмножество универсального множества U характеризуется функцией принадлежности ju/.U ->[0,1], которая ставит в соответствие каждому элементу и eU число /(м)из интервала [О, 1], характеризующее степень принадлежности элемента и подмножеству

Носителем множества А называется множество таких точек в U, для которых величина ju (и) положительна.

[Старт] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51] [52] [53] [54] [55] [56] [57] [58] [59] [60] [61] [62] [63] [64] [65] [66] [ 67 ] [68] [69] [70] [71]