Здравствуйте,
я тут на досуге написал простую многослойную сеть, обучающуюся по методу обратного распространения ошибки. в качестве литературы использовал книгу "Нейронные сети" Саймона Хайкина, Вильямс издание 2006.
на странице 243 есть 2 формулы.
в формуле 4.46 ошибка, ни да и ладна, там сразу видно что опечатка.
а вот в следующей я например не понимаю что, то ли это так нужно, то ли действительно опечатка, кто подскажет?
собственно сама формула обновления весов в обратном проходе с уже вычисленными локальными градиентами (формат записи нтдексов буква_верхнийИнд_нижнийИндекс):
w_l_ji(n+1) =
w_l_ji(n) +
alpha*w_l_ji(n-1) +
eta*d_l_j(n)*y_l-1_j(n)
где n в скобках это время, например w_l_ji(n+1) значит вес на следующем шаге
а верхний индекс l - это слой
y_l_j(n) - выход нейрона j слоя l на шаге n
так вот меня смущает почему в конце формулы стоит y_l-1_j(n), а точнее l-1, т.е. выход нейрона j на шаге n ПРЕДЫДУЩЕГО слоя.
правильно ли я понимаю что нужно использовать выход текущего слоя, т.е. y_l_j(n)