Нейронные сети, я в них чайник.
Есть учебник И. В. Заенцев
"Нейронные сети: основные модели"
https://www.dropbox.com/s/z50qgbvtwyz5946/neuro.pdf
(в моем дропбоксе)
1. Меня интересует интерпретация страницы 36 - "Трехслойный перцептрон".
Насколько понимаю, здесь дан перцептрон с двумя слоями "А-нейронов" и одним R-нейроном в выходном слое? Этот раздел нам говорит, что данный перцептрон способен решать задачи в многомерном пространстве, строить любые многогранники.
Зачем "обьединять эти подобласти единственным нейроном в выходном слое по закону ... " ? Как это интерпретировать(или просто понять)?
Обьясните этот раздел. Насколько хорошо я правильно понял?
2. И еще вопрос: из размышлений я пришел к выводу, что двуслойный перцептрон, по-моему, решает любую задачу классификации(число входный нейронов - количество параметров во входном векторе, далее во внутреннем "А -слое" строим количество граней в многомерном пространстве с "запасом" и ... кол-во выходных нейронов =(равно) кол-ву классов на которые надо классифицировать.
Правильно или нет?
Ребят, срочно.