Вход
Регистрация

Вопрос про алгоритм обратного распространения ошибки

Здраствуйте.
Есть несколько нюансов, связанных с методом обратного распространения ошибки.
Например сеть с 1им скрытым слоем.
Правильно ли я понял алгоритм:
1) Подаем входной образ в сеть (входнойвектор+желаемый отклик)
2) получаем выход сети, и находим ошибку с помощью желаемого отклика
3) Корректируем веса между скрытым слоем и выходным слоем
4) Корректируем веса между входным слоем и скрытым

5) Вот здесь вопрос:Мы должны корректировать веса для данного образца из обучающего множества до тех пор, пока ошибка для данного примера не станет приемлимой?

ИЛИ

5) Мы 1 раз поменяли веса для примера из входного множества, переходим на другой пример, и так далее, пока не пройдем по всей обучающей выборке.
А когда предъявили сети все примеры, то считаем ошибку = ошибка для каждого примера, разделенная на количество примеров обучающего множества?