Comments 11
Уже много лет как нейронные сети не обучаются методом обратного распространения ошибки. Этот метод — примерно как пузырьковая сортировка по сравнению с quick sort.
-3
1) Автор указывал, что это сделано в образовательных целях.
2) Пузырьковая сортировка имеет право на жизнь, ибо на малых N у нее сложность ниже быстрой сортировки.
2) Пузырьковая сортировка имеет право на жизнь, ибо на малых N у нее сложность ниже быстрой сортировки.
+5
поведуйте тогда как же они обучаются?
+2
С помощью алгоритма Левенберга-Марквардта, например. Куда быстрее и точнее, чем методом обратного распространения.
-2
а давно уже в нейросетях отказались от всех остальных целевых функция за исключением L2 нормы?
+3
Вот кто бы написал на Хабр статью про Левенберга-Марквардта? Буквально вчера понадобилось. А на википедии одни формулы, в них тяжело разобраться.
0
Метод обратного распространения — это вычислительно эффективный способ получения производных, только и всего. Им можно вычислять как градиенты, так и якобианы, гессианы и их аппроксимации, причем для самых разных целевых функций, первого и второго порядка.
В упомянутом вами алгоритме Левенберга-Марквардта, а равно и в других популярных градиентных алгоритмах обучения нейронных сетей производные по весам вычисляются именно с помощью backpropagation! Поэтому его описание не может отклонить читателей от движения по направлению к новому и светлому. )
В упомянутом вами алгоритме Левенберга-Марквардта, а равно и в других популярных градиентных алгоритмах обучения нейронных сетей производные по весам вычисляются именно с помощью backpropagation! Поэтому его описание не может отклонить читателей от движения по направлению к новому и светлому. )
+1
Классная статья, не бузите! Побольше бы таких — наглядных и написанных руками!
0
Спасибо за статью!
0
Only those users with full accounts are able to leave comments. Log in, please.
Что нам стоит сеть построить