По-идее, алгоритм обучения на качестве никак особо не может сказаться. Точнее, сеть либо будет обучена, либо не будет.
А вот на «толстых» задачах с входными векторами больших размерностей и со сложной топологией сети смена алгоритма может дать ощутимый прирост в скорости обучения.
Это если говорить про перцептроны, конечно. В других моделях свои нюансы.
Вы — большой молодец. Разложили по полочкам.
Кстати, вам не попадались статьи со сравнением скорости работы различных алгоритмов обучения? Хотя бы применительно к какой-то конкретной задаче. Было бы интересно сравнить.
Сердце кровью обливается, когда я вижу стоящий в таком положении ноут. Достаточно неудачно взять чашку с полки, и…
А сам стол классный. Экономия пространства действительно неплохая.
Из той статьи — поиск попадает только под третий пункт, и частично под четвертый.
Но я себе очень слабо представляю реальные сценарии, в которых пользователи смогут упереться на это ограничение.
Да, все весьма относительно в плане обученности сети :)
А вот на «толстых» задачах с входными векторами больших размерностей и со сложной топологией сети смена алгоритма может дать ощутимый прирост в скорости обучения.
Это если говорить про перцептроны, конечно. В других моделях свои нюансы.
Кстати, вам не попадались статьи со сравнением скорости работы различных алгоритмов обучения? Хотя бы применительно к какой-то конкретной задаче. Было бы интересно сравнить.
А сам стол классный. Экономия пространства действительно неплохая.
Извините.
Но я себе очень слабо представляю реальные сценарии, в которых пользователи смогут упереться на это ограничение.
Click, click, scroll, scroll.
,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,