Сеть RBF [4] не содержит рекурсии и
предназначена для аппроксимации функций, которые заданы в неявном виде набором
шаблонов (обучающих образов). Она характеризуется такими особенностями: имеет
единственный скрытый шар, только нейроны скрытого шара имеют нелинейную
активационную функцию, синаптические веса всех нейронов скрытого шара
равняются единицы. Рассмотрим следующие обозначения (см. рис.1):
Х1
Y1
Х2
.............
Y2
Х3
Рис.1.
Классическая RBF – сеть
-
- вектор координат
центра активационной функции нейрона скрытого шара;
-
- ширина окна
активационной функции - го нейрона скрытого шара;
-
-
радиально-симметричная активационная функция нейрона скрытого шара (рис.2);
-
- вес связи между -м нейроном исходного шара и -м нейроном скрытого пласта.
Алгоритм обучение сети RBF
1.
Выбрать размер скрытого шара равным количеству
тренировочных шаблонов . Синаптические веса нейронов скрытого шара принять равными
1.
2.
Разместить центры активационных
функций нейронов скрытого шара в точках пространства входных сигналов сети,
которые входят в набор тренировочных шаблонов .
3.
Выбрать ширины окон
активационных функций нейронов скрытого шара , достаточно большими,
но так, чтобы они не накладывались одна на другую в пространстве входных
сигналов сети.
4.
Определить весы нейронов
исходного шара сети . Для этого предъявить сети весь набор тренировочных
шаблонов. Выход -го нейрона исходного шара для -го шаблона будет равный:
.
Расписав это уравнение для
всех выходов сети и всех шаблонов, получим следующее уравнение в матричной
форме:
,
где - интерполяционная
матрица, ;
- матрица исходных
синаптических весов;
- матрица исходных
шаблонов.
Решение
дает нам искомые
значения исходных синаптических весов, что обеспечивает прохождения
интерполяционной поверхности через тренировочные шаблоны в пространстве входных
образов.
Замечания
Сеть RBF очень
чувствительна к величине ширины окон активационной функции . Двухмерный аналог активационной функции изображен на рис.
2. Для адекватного обучения и использования обученной сети RBF необходимо провести некоторые подготовительные
операции. Во-первых, максимизировать совместную энтропию исходных образов, например,
с помощью известных методов главных компонент или "выбеливания" (о
нем в будущих выпусках). Преобразованные данные обеспечат качественное и быстрое
обучение на множестве данных минимальной
Рис.2. Активационная функция мощности. Поскольку указанные ме-
тоды достаточно
трудоемкие, можно выбрать из всего множества входных образов те, которые дадут
максимальное эвклидово расстояние. Следующим шагом должно стать
нормирование. Далее, во избежания паралича
сети (см. рис.2) и больших ошибок аппроксимации, будем требовать выполнения
следующего условия: (выбор 2 достаточно
произволен, но его рациональность подтверждена экспериментами), или,
ограничившись выбором положительного : . Учитывая, что после нормирования , получим: для всех начальных
образов. Тогда . Но при возрастании уменьшается эксцесс и
растут "хвосты" графика функции, что опять-таки приводит к параличу
сети. Хорошие результаты были получены в реальных задачах при .
Процесс
функционирование сети RBF имеет очень много
особенностей, когда-нибудь я еще буду об этом писать. Но одно обязательно
упомянуть: такая сеть лучше всего решает задачи интерполяции (прогнозирования
внутри пространства исследования).
|