Заказать курсовые, контрольные, рефераты...
Образовательные работы на заказ. Недорого!

Аппроксимация с помощью центральных функций

РефератПомощь в написанииУзнать стоимостьмоей работы

При аппроксимации при помощи центральных функций независимо от числа N образцов обучающей последовательности выбирается число k центров или K скрытых нейронов. Для этого в частности можно использовать соответствующее подмножество образов обучающей последовательности или другие опорные точки, предварительно определенные тем или иным способом. В силу этого эти центры теперь обозначаются не через… Читать ещё >

Аппроксимация с помощью центральных функций (реферат, курсовая, диплом, контрольная)

При аппроксимации при помощи центральных функций независимо от числа N образцов обучающей последовательности выбирается число k центров или K скрытых нейронов. Для этого в частности можно использовать соответствующее подмножество образов обучающей последовательности или другие опорные точки, предварительно определенные тем или иным способом. В силу этого эти центры теперь обозначаются не через Xj, а иначе. Часто используются векторы tj (от teacher). В [1] обозначаются через Wj. Объяснение для этого в том, что координаты опорных точек почти во всех реализациях запоминаются в виде весов Wij нейросети. В этом случае в частности лучше проявляется сходство с другими алгоритмами обучения.

Структура обобщенной RBF-сети, содержащей один скрытый слой с фиксированным числом K нейронов.

Рис. 4. Структура обобщенной RBF-сети, содержащей один скрытый слой с фиксированным числом K нейронов.

Структура обобщенной RBF-сети, содержащей один скрытый слой с фиксированным числом K нейронов представлена на рис. 4. Данные опорных точек запоминаются обычно в виде весов wij скрытых нейронов.

Для K различных центров аппроксимирующая функция f принимает следующий вид:

K.

f (X) = cj hj(|| X — Wj ||) (17).

j=1.

Для определения K коэффициентов c1, c2, …, cK имеется N уравнений. При этом можно использовать условия интерполяции.

K.

cj hj(|| Xi — Wj ||) = yi (18).

j=1.

для всех образов обучающей последовательности i = 1, 2, …, N.

Обозначим.

h1 (|| X1 — W1 ||) … hK (|| X1 — WK ||).

H = … | (19).

h1 (|| XN — W1 ||) … hK (|| XN — WK ||) ,.

тогда проблему интерполяции можно представить так:

H*C = Y (20).

В случае N > K эта система уравнений переопределена и не имеет точного решения (интерполяция). Путем аппроксимации можно минимизировать сумму квадратов ошибок по всем образам обучающей последовательности. Это приводит к решению [ ]:

C = H+ * Y, (21).

где H+ — псевдоинверсная матрица Мура — Пенроза (Moore — Penrose Pseudoinverse) относительно матрицы H:

H+ = (HT H)-1 HT (22).

В соответствии с теоремой Микчелли (Micchelli) инверсная матрица существует в тех случаях, когда производная h центральной функции монотонна, и в качестве центров Wj используется подмножество образов Xj обучающей последовательности.

Показать весь текст
Заполнить форму текущей работой