Вход
Регистрация

алгоритм обратного распространения

Здравствуйте,
я тут на досуге написал простую многослойную сеть, обучающуюся по методу обратного распространения ошибки. в качестве литературы использовал книгу "Нейронные сети" Саймона Хайкина, Вильямс издание 2006.

на странице 243 есть 2 формулы.

в формуле 4.46 ошибка, ни да и ладна, там сразу видно что опечатка.

а вот в следующей я например не понимаю что, то ли это так нужно, то ли действительно опечатка, кто подскажет?

собственно сама формула обновления весов в обратном проходе с уже вычисленными локальными градиентами (формат записи нтдексов буква_верхнийИнд_нижнийИндекс):

w_l_ji(n+1) =
w_l_ji(n) +
alpha*w_l_ji(n-1) +
eta*d_l_j(n)*y_l-1_j(n)

где n в скобках это время, например w_l_ji(n+1) значит вес на следующем шаге

а верхний индекс l - это слой

y_l_j(n) - выход нейрона j слоя l на шаге n

так вот меня смущает почему в конце формулы стоит y_l-1_j(n), а точнее l-1, т.е. выход нейрона j на шаге n ПРЕДЫДУЩЕГО слоя.

правильно ли я понимаю что нужно использовать выход текущего слоя, т.е. y_l_j(n)