ALTE DOCUMENTE
|
|||||
Искусственные нейронные сети обучаются самыми разноо 19419s1823t 73;разными методами. К счастью, большинство методов обучения исходят из общих предпосылок и имеет много идентичных характеристик. Целью данного приложения является обзор некоторых фундаментальных алгоритмов, как с точки зрения их текущей применимости, так и с точки зрения их исторической важности. После ознакомления с этими фундаментальными алгоритмами другие, основанные на них, алгоритмы будут достаточно легки для понимания и новые разработки также могут быть лучше поняты и развиты.
wij(t+1) = wij(t) + NETi NETj,
wij(t) - сила синапса от нейрона i j t; NETi NETj -
NET
![]()
NETj NET j OUTi - i;wij i j
![]()
wij(t+1) = wij(t) + OUTi OUTj
wij(t) - сила синапса от нейрона i к нейрону j t; OUTi F(NETi); OUTj - F(NET).
wij(t+1) = wij(t) + [OUTi(t) - OUTi(t-1)][ OUTj(t) - OUTj(t-1)],
wij(t) - сила синапса от нейрона i к нейрону j t; OUTi(t) - выходной уровень пресинаптического нейрона в момент времени t; OUTj(t) t

Много общих идей, используемых в искусственных нейронных сетях, прослеживаются в работах Гроссберга; в качестве примера можно указать конфигурации входных и выходных звезд [I], используемые во многих сетевых парадигмах. Входная звезда, как показано на рис. Б.1, состоит из нейрона, на который подается группа входов через синапсические веса. Выходная звезда, показанная на рис. Б.2, является нейроном, управляющим группой весов. Входные и выходные звезды могут быть взаимно соединены в сети любой сложности; Гроссберг рассматривает их как модель определенных биологических функций. Вид звезды определяет ее название, однако звезды обычно изображаются в сети иначе.

wi(t+1) = wi(t) + a[xi - wi(t)],
wi i i - i-й вход; a
a
wi(t+1) = wi(t) + b[yi - wi(t)],
b

NET
.
NET
OUTj = 1, NETj j
OUTj =
j j
errorj = targetj - OUTj.
Каждый вес модифицируется следующим образом:
Wij(t+1) = wij(t) +axierrorj.
NET OUT.
errorj = targetj - NETj.
n n-
Dj n- Wj
i i входного вектора X, wij i j
Нейрон, который имеет весовой вектор, самый близкий к X, объявляется победителем. Этот весовой вектор, называемый Wc, становится основным в группе весовых векторов, которые лежат в пределах расстояния D от Wc
Wj(t+l) = Wj(t) + a[X - Wj(t)]
для всех весовых векторов в пределах расстояния D от Wc
В процессе обучения нейронной сети значения D и a a , в то время как D может в начале обучения равняться максимальному расстоянию между весовыми векторами и в конце обучения стать настолько маленьким, что будет обучаться только один нейрон.
Grossberg S.
1974. Classical and instrumental learning by neural networks. Progress in
theoretical biology, vol. 3, pp. 51-141.
Hebb D. O.
1949. Organization of behavior.
Kohonen T.
1984. Self-organization and associative memory. Series in Information Sciences,
vol. 8.
Rosenblatt R.
1959. Principles of neurodynamics.
Widrow B.
1959 Adaptive sampled-data systems, a statistical theory of adaptation. 1959. IRE
WESCON Convention Record, part 4.
Widrow В.,
Hoff M. 1960. Adaptive switching circuits. I960. IRE WESCON Convention
Record.
|