Вход
Регистрация

Конфигурация сети и параметры обучения

Доброго дня.
Обучаю многослойный персептрон с одним скрытым слоем, размер 74x111x7. Число нейронов в скрытом уровне подбирал по принципу, что оно должно быть в 1.5-2 раза больше числа нейронов на входе. Может ли быть действенна такая конфигурация, или слишком большая разница в количестве нейронов на среднем и выходном уровнях?
Объем обучающей выборки 70 тыс., обучаю методом обратного распространения ошибки, со скоростью 0.1 и с коэфициентом импульса 0.8. Пока прогнал 8 эпох, и во всех эпохах среднеквадратичная ошибка постоянно осциллирует между 0.065 и 0.095. Есть ли смысл продолжать обучение дальше с теми же параметрами и ждать, что на дальнейших эпохах ошибка начнет падать, или нужно исправить параметры обучения? Если исправить, то каким образом?