Аппроксимация с помощью центральных функций
При аппроксимации при помощи центральных функций независимо от числа N образцов обучающей последовательности выбирается число k центров или K скрытых нейронов. Для этого в частности можно использовать соответствующее подмножество образов обучающей последовательности или другие опорные точки, предварительно определенные тем или иным способом. В силу этого эти центры теперь обозначаются не через… Читать ещё >
Аппроксимация с помощью центральных функций (реферат, курсовая, диплом, контрольная)
При аппроксимации при помощи центральных функций независимо от числа N образцов обучающей последовательности выбирается число k центров или K скрытых нейронов. Для этого в частности можно использовать соответствующее подмножество образов обучающей последовательности или другие опорные точки, предварительно определенные тем или иным способом. В силу этого эти центры теперь обозначаются не через Xj, а иначе. Часто используются векторы tj (от teacher). В [1] обозначаются через Wj. Объяснение для этого в том, что координаты опорных точек почти во всех реализациях запоминаются в виде весов Wij нейросети. В этом случае в частности лучше проявляется сходство с другими алгоритмами обучения.
Рис. 4. Структура обобщенной RBF-сети, содержащей один скрытый слой с фиксированным числом K нейронов.
Структура обобщенной RBF-сети, содержащей один скрытый слой с фиксированным числом K нейронов представлена на рис. 4. Данные опорных точек запоминаются обычно в виде весов wij скрытых нейронов.
Для K различных центров аппроксимирующая функция f принимает следующий вид:
K.
f (X) = cj hj(|| X — Wj ||) (17).
j=1.
Для определения K коэффициентов c1, c2, …, cK имеется N уравнений. При этом можно использовать условия интерполяции.
K.
cj hj(|| Xi — Wj ||) = yi (18).
j=1.
для всех образов обучающей последовательности i = 1, 2, …, N.
Обозначим.
h1 (|| X1 — W1 ||) … hK (|| X1 — WK ||).
H = … | (19).
h1 (|| XN — W1 ||) … hK (|| XN — WK ||) ,.
тогда проблему интерполяции можно представить так:
H*C = Y (20).
В случае N > K эта система уравнений переопределена и не имеет точного решения (интерполяция). Путем аппроксимации можно минимизировать сумму квадратов ошибок по всем образам обучающей последовательности. Это приводит к решению [ ]:
C = H+ * Y, (21).
где H+ — псевдоинверсная матрица Мура — Пенроза (Moore — Penrose Pseudoinverse) относительно матрицы H:
H+ = (HT H)-1 HT (22).
В соответствии с теоремой Микчелли (Micchelli) инверсная матрица существует в тех случаях, когда производная h центральной функции монотонна, и в качестве центров Wj используется подмножество образов Xj обучающей последовательности.