Вход
Регистрация

Метод сопряжённых градиентов.

Не подскажет ли кто где можно популярно, доходчиво почитать про метод сопряжённых направлений?

В Википедии глянул (статья «Метод сопряжённых градиентов»). Сначала, вроде, было понятно. А потом стал недоумевать по поводу того, как выбирается направление градиента. Понятно, что из условия минимума. Но по ссылкам, которые мне попадались читаю, что это одномерная задача (т.е. многомерная задача, как понял, сводится к одномерной). С другой стороны не понимаю как определение направления из условия минимума может быть одномерной задачей если там много переменных.
По одной ссылке http://www.basegroup.ru/library/analysis/neural/conjugate/ прочитал, что для вычисления направлений градиентов в методе сопряжённых градиентов метод Ньютона–Рафсона относительно хорош. Начал капать что это за метод и, вроде бы, это отдельный метод, альтернативный методы сопряженных направлений. Хотя в приведенной ссылке говорится, что он лишь может применяться в методе сопряжённых градиентов.
В голове какая-то каша получилась. Не знаю чему и верить и глаза разбегаются. Хотелось бы увидеть что-то простое, без излишних математических усложнений, касающихся вывода формул и чтобы там была исчерпывающая информация относительно того как построить алгоритм. Попытался найти такое в сети и чем больше искал – тем больше путаница в голове возникала.
Помогите, пожалуйста, разобраться.

Мне показалось, что метод сопряжённых градиентов – наиболее быстрый. Но, может, есть что-то побыстрее? Я в этом вопросе – чайник. Мне нужно – для задачи параметризации экспериментальных данных (около 200 точек, 4 и более параметров, параметризующая функция состоит из логарифмов и косинусов). Может есть какие-то более эффективные методы? Не подскажет ли кто где можно популярно, доходчиво почитать про разные методы, чтобы было ориентировочно понятно какой метод наиболее окажется подходящ?