Documente online.
Zona de administrare documente. Fisierele tale
Am uitat parola x Creaza cont nou
 HomeExploreaza
upload
Upload




Алгоритмы обучения

Rusa


Искусственные нейронные сети обучаются самыми разноо 19419s1823t 73;разными методами. К счастью, большинство методов обучения исходят из общих предпосылок и имеет много идентичных характеристик. Целью данного приложения является обзор некоторых фундаментальных алгоритмов, как с точки зрения их текущей применимости, так и с точки зрения их исторической важности. После ознакомления с этими фундаментальными алгоритмами другие, основанные на них, алгоритмы будут достаточно легки для понимания и новые разработки также могут быть лучше поняты и развиты.



wij(t+1) = wij(t) + NETi NETj,

wij(t) - сила синапса от нейрона i j t; NETi NETj -

NET

NETj NET j OUTi - i;wij i j

wij(t+1) = wij(t) + OUTi OUTj

wij(t) - сила синапса от нейрона i к нейрону j t; OUTi F(NETi); OUTj - F(NET).

wij(t+1) = wij(t) + [OUTi(t) - OUTi(t-1)][ OUTj(t) - OUTj(t-1)],



wij(t) - сила синапса от нейрона i к нейрону j t; OUTi(t) - выходной уровень пресинаптического нейрона в момент времени t; OUTj(t) t

Много общих идей, используемых в искусственных нейронных сетях, прослеживаются в работах Гроссберга; в качестве примера можно указать конфигурации входных и выходных звезд [I], используемые во многих сетевых парадигмах. Входная звезда, как показано на рис. Б.1, состоит из нейрона, на который подается группа входов через синапсические веса. Выходная звезда, показанная на рис. Б.2, является нейроном, управляющим группой весов. Входные и выходные звезды могут быть взаимно соединены в сети любой сложности; Гроссберг рассматривает их как модель определенных биологических функций. Вид звезды определяет ее название, однако звезды обычно изображаются в сети иначе.

wi(t+1) = wi(t) + a[xi - wi(t)],

wi i i - i-й вход; a

a

wi(t+1) = wi(t) + b[yi - wi(t)],

b



NET

.

NET

OUTj = 1, NETj j

OUTj =

j j

errorj = targetj - OUTj.

Каждый вес модифицируется следующим образом:

Wij(t+1) = wij(t) +axierrorj.

NET OUT.

errorj = targetj - NETj.



n n-

Dj n- Wj

i i входного вектора X, wij i j

Нейрон, который имеет весовой вектор, самый близкий к X, объявляется победителем. Этот весовой вектор, называемый Wc, становится основным в группе весовых векторов, которые лежат в пределах расстояния D от Wc

Wj(t+l) = Wj(t) + a[X - Wj(t)]

для всех весовых векторов в пределах расстояния D от Wc

В процессе обучения нейронной сети значения D и a a , в то время как D может в начале обучения равняться максимальному расстоянию между весовыми векторами и в конце обучения стать настолько маленьким, что будет обучаться только один нейрон.

Grossberg S. 1974. Classical and instrumental learning by neural networks. Progress in theoretical biology, vol. 3, pp. 51-141. New York: Academic Press.

Hebb D. O. 1949. Organization of behavior. New York: Science Editions.

Kohonen T. 1984. Self-organization and associative memory. Series in Information Sciences, vol. 8. Berlin: Springer verlag.

Rosenblatt R. 1959. Principles of neurodynamics. New York: Spartan Books.

Widrow B. 1959 Adaptive sampled-data systems, a statistical theory of adaptation. 1959. IRE WESCON Convention Record, part 4. New York: Institute of Radio Engineers.

Widrow В., Hoff M. 1960. Adaptive switching circuits. I960. IRE WESCON Convention Record. New York: Institute of Radio Engineers.




Document Info


Accesari: 6001
Apreciat: hand-up

Comenteaza documentul:

Nu esti inregistrat
Trebuie sa fii utilizator inregistrat pentru a putea comenta


Creaza cont nou

A fost util?

Daca documentul a fost util si crezi ca merita
sa adaugi un link catre el la tine in site


in pagina web a site-ului tau.




eCoduri.com - coduri postale, contabile, CAEN sau bancare

Politica de confidentialitate | Termenii si conditii de utilizare




Copyright © Contact (SCRIGROUP Int. 2025 )