Доброго времени!
Делаю аппроксимацию табличных данных (значений функции одной переменной y=y(x)) с помощью НС в Матлабе.
Всё нормально работает, аппроксимацию строит, но мне нужно получить её в виде функции с коэффициентами, записанной на бумажке. Не получается :(
Стал копать глубже. Дело дошло до смешного: если взять сеть Feed-Forward backprop, состоящую из одного нейрона purelin, у которого вес w=0 и смещение b=0, то на выходе у него должно быть: y=w*x+b=0*х+0=0 при любом х, а получается 14.5 (!) И такая же ерунда с функциями tansig и logsig! Мозг уже сломал, помогите пожалуйста :)
Матлаб может невидимо от Вас делать масштабирование исходных данных в удобный для нейросети интервал, и ответ сети потом тоже масштабировать в исходный интервал прогнозируемых значений. В общем, разберитесь с предобработкой данных в матлабе.
Ну и функция тансиг, как мне показалось из общения на другом форуме, отличается от стандартного tanh (из-за использования аппроксимаций вместо точных вычислений - для скорости обучения нейросети в матлабе это плюс, но вот для переноса обученной сетки из матлаба наружу может быть минус). Логсиг, скорее всего, тоже будет отличаться от собранного на базе стандартной (для других языков программирования) функции exp().
Да, кажется дело действительно в предварительной обработке. Спасибо! :)