каждому лингвистическому значению At, Д соответствует своя функция принадлежности, так что каждое нечеткое правило определяет связь двух функций.
Если же правила имеют более сложный вид, типа "два входа - один выход": Еслихестьг иу есть Д, то zecTb С,, / =
то обучающая выборка принимает форму {А., В.), С, , / = 1,..., л.
Существует два основных подхода к реализации нечетких правил типа if-then с помощью многослойных персептронов.
В методе Умано и Изавы нечеткое множество представляется конечным числом значений совместимости. Пусть [«j,«2] включает носители всех Д , входящих в обучающую выборку а
также носители всех А, которые могут быть входами в сети. Предположим также, что [Д, Д ]
включает носители всех Bj, входящих в обучающую выборку, а также носители всех В,
которые могут быть входами в сети. Положим
X, = «1 + и --a,)/(N-1), j = l,...,N; N>1, У=А+ (i - Ш - Д) / (М -1), / = 1,..., М; М>\,
Дискретный аналог обучающего множества правил (заменяющее функциональное) имеет вид: {(4(x,),...,4(x„)),(5,(j,),...,5,(j ))},/ = !,...,л.
Если теперь ввести обозначения а. = А. (х ), = В. (у ) , то можно представить нечеткую нейронную сеть с входными и М выходными нейронами (Рисунок 3).

Рисунок 3. Нечеткая нейронная сеть и треугольные функции принадлежности входных и выходных переменных
Пример 1. Предположим, что обучающая выборка включает три правила: Ш J: Если город мал, то доход от продажи бриллиантов отрицателен,
Ш : Если город средний, то доход от продажи бриллиантов близок к нулю, Ш 3: Если город велик, то доход от продажи бриллиантов положителен. Функции принадлежности определим как
/„алый (и) =
1-:7;;;;:,0и<50000 50000
О, и> 50000
/ДОХОД<0 () ~
- м, -1 < м < О 0,м>0
/средний
(и) =
50000 300000-м
,0<м<50000
250000
,50000<м< 300000 ju,o.o„M = О, м> 300000
1-2\и\, \и\<05 0,м>0.5
/большой ()
о, м<50000 м-50 ООО
,50000<г/< 300000 /,о,„,>о(") =
250000
1, м> 300000
и, 0<и<1 О, и<0
Адаптация функций принадлежности
В главе, посвященной извлечению знаний из обученных нейронных сетей, мы познакомились с методами интерпретации отображения сетью входной информации в выходную с помощью правил типа неравенств, правил m-of-n и других. В теория нечетких множеств соответствующие нечеткие правила уже изначально имеют наглядный смьюл. Например,
если разрыв между бедными и богатыми вьюок, то уровень преступности повышен.
Конечно заманчиво иметь возможность получения не только качественного, но и количественного правила, связывающего уровень разрыва в доходах с преступностью. Мы знаем, что нейронные сети типа персептрона являются универсальными аппроксиматорами и могут реализовать любое количественное отображение. Хорошо бы поэтому построить нейронную сеть так, чтобы она, во-первых, воспроизводила указанное нечеткое качественное правило (чтобы изначально знать интерпретацию работы сети) и, во-вторых, давала хорошие количественные предсказания для соответствующего параметра (уровня преступности). Очевидно, что добиться этого можно подбором соответствующих функций принадлежности. А именно, задача состоит в том, чтобы так определить понятия "вьюокий разрыв в доходах" и "повышенный уровень преступности", чтобы выполнялись и качественные и количественные соотношения. Нужно, чтобы и сами эти определения не оказалось дикими - иначе придется усомниться в используемом нами нечетком правиле. Если такая задача успешно решается, то это означает успешный симбиоз теории нечетких множеств и нейронных сетей, в которых "играюУ наглядность первых и универсальность последних.
& Заметим, что использованные нами ранее функции принадлежности носили достаточно специфический характер (так называемую треугольную форму). Успех же сочетания нечетких моделей существенно зависит от разумного нечеткого разбиения пространств входов и выходов. Вследствие этого, задача адаптации функций принадлежности может быть поставлена как задача оптимизации, для решения которой и могут использоваться нейронные сети. Наиболее простой путь для этого заключается в выборе некоторого вида функции принадлежности, форма которой управляется рядом параметров, точное значение которых находится при обучении нейронной сети.
Рассмотрим соответствующую методику на следующем примере.Обозначим
(Здесь предполагается, что доход не превышает 100% или 1.0 в относительных величинах) Тогда обучающая выборка принимает форму
{(малый, отрицательный), (средний, близок к нулю), (большой, положительный)}
Если носитель множества входов [О, 10 ООО ООО], то для покрытия множества населения городов равномерной сеткой, захватывающей и малые города, понадобится несколько сот точек. Поэтому, ограничимся городами с населением 1 ООО ООО человек. Тогда можно выбрать Л = 50-100. Носитель множества выходов [-1,1] может быть описан набором из М = 5 -10. Таким образом, в рассматриваемом случае сеть будет иметь умеренные размеры (например 50 -... - 5) и 3 пары в обучающем наборе.
В методе Уехары и Фуджицы вместо разбиения равномерной сеткой области, покрывающей носители всех функций принадлежности, равномерно разбивается область изменения этих функций [0,1]. Здесь видна явная аналогия с переходом от интегрирования по Риману к интегралу Лебега. Остальные действия аналогичны уже описанным.