Занимаюсь аппроксимацией рельефа местности с использованием нейронных сетей. С помощью NNW моделировал НС с двумя скрытыми слоями. Вход сети - координаты точек (узлов сетки с определенным дискретом), выход - высоты рельефа в этих точках (узлах). Средняя ошибка восстановления рельефа порядка 20-30 метров. При этом max ошибки могуд достигать 60-70 метров. Можно ли свести ошибку до долей метра? Есть ли зависимость между величиной выборки и количеством нейронов в сети кроме той, что количестро элементов обучающей выборки должно быть больше числа нейронов в сети? Буду рад любой информации.aklyuch1@yandex.ru
Я тоже занимаюсь аппроксимацией с нейроными сетями пользовал MATLAB, потом сделал свою библиотеку, которая тренерует по Левенбергу-Маркуату (или как там по-русски правильно). А кто такой NNW? Хорош ли он?
Хорош, мне понравился. В МАТЛАБ конечно инструментов больше и сетей всяких, а Neural Netwrk Wizard (NNW) реализует backpropagation ,то плюст что на сайте есть еще исходники к нму, т.е. можно самому ехе-шники создавать. Но єто для любителей Дельфи
Кол-во элементов обучающей выборки вообще не обязательно должно быть больше числа нейронов сети.
Но кол-во самих обучающих выборок должно быть больше
числа нейронов слоя, а не сети, чтобы не было возможности запомнить обучающие выборки! Раза в два. Если сеть на обучающих выборках показывает хороший результат, а на левых не очень, то советую сделать так:
проводить обучение с добавлением к обучающим выборкам
шум (в книжках написано до 10% - не знаю точно), а в конце опять на чистых обучалках! Возможно поможет.