Обучил нейросеть back propagation. При тестировании обнаружилась следующая особенность - сеть хорошо распознает значения, лежащие в середине интервала нормализации [0,1] и очень плохо на границах. В чем может быть проблема?
Все дело в особенностях сигмоидной функции активации. Она стремится к 0 и к 1, но только при бесконечных значениях аргумента. Поэтому при практическом применении этой технологии имеет смысл нормализовывать выходные значение не в интервал [0,1] а, скажем, в интервал [0.1,0.9]. При этом обычно получается лучший результат.