Вход
Регистрация

Сеть Back Propagation

Итак, есть вопрос. Использую сеть обратного распространения для обучения таблицы умножения. На вход подаются 2 вектора от 0 до 1 с шагом 0,1 (т.е 0,1*0,1=0,01; 0,1*0,2=0,02 итд итп). То есть, обучающих кортежей - 100 штук.

Увы, обучаемость у сети как у трудного подростка. Если на входе подать 0*1, то выходит 0,10 и тому подобные баги. Внятные результаты только ближе к 1 (т.е. 0,85*0,85 итд итп). Поэтому такой вопрос - есть ли какая-то связь (формулой) между
а) кол-вом обучающих кортежей
б) кол-вом обучающих эпох
в) кол-вом слоев

Использовались след. параметры - 10000 эпох, альфа=1, 3 слоя нейронов - 2,2,1

Заранее спасибо!