n+1a

Рисунок 6. Восстановление пропущенных значения с помощью главных
компонент. Пунктир - возможные значения исходного вектора с А: = 1 неизвестными координатами. Наиболее вероятное его значение - на
пересечении с N = {d - k = 7. - \ = \ первыми главными компонентами
Понижение размерности входов с помощью нейросетей
Для более глубокой предобработки входов можно использовать все богатство алгоритмов самообучающихся нейросетей, о которых шла речь ранее. В частности, для оптимального понижения размерности входов можно воспользоваться методом нелинейных главных компонент (см. Рисунок 7).


Рисунок 7. Понижение размерности входов методом нелинейных главных компонент
Такие сети с узким горлом также можно использовать для восстановления пропущенных значений - с помощью итерационной процедуры, обобщающей линейный вариант метода главных компонент (см. Рисунок 8).

Рисунок 8. Восстановление пропущенных компонент данных с помощью нелинейных главных компонент
Однако, такую глубокую "предобработку" уже можно считать самостоятельной нейросетевой задачей. И мы не будем дале углубляться в этот вопрос.
Квактование входов
Более распространенный вид нейросетевой предобработки данных - квантование входов, использующее слой соревновательных нейронов (см. Рисунок 9).


Рисунок 9. Понижение разнообразия входов методом квантования (кластеризации)
Нейрон-победитель является прототипом ближайших к нему входных векторов. Квантование входов обычно не сокращает, а наоборот, существенно увеличивает число входных переменных. Поэтому его используют в сочетании с простейшим линейным дискриминатором -однослойным персептороном. Получающаяся в итоге гибридная нейросеть, предложенная Нехт-Нильсеном в 1987 году, обучается послойно: сначала соревновательный слой кластеризует входы, затем выходным весам присваиваются значения выходной функции, соответствующие данному кластеру. Такие сети позволяют относительно быстро получать грубое - кусочно-постоянное - приближение аппроксимируемой функции (см. Рисунок 10).

Рисунок 10. Гибридная сеть с соревновательным слоем, дающая кусочно-постоянное приближение функций
Особенно полезны кластеризующие сети для восстановления пропусков в массиве обучающих данных. Поскольку работа соревновательного слоя основана на сравнении расстояний между
данными и прототипами, осутствие у входного вектора некоторых компонент не препятствует нахождению прототипа-победителя: сравнение ведется по оставшимся компонентам i К:
Х" -W,