Комментарии 6
Нейросети могут оказаться проще, чем принято считать
забавная двусмысленность
0
Почему большое количество параметров ведет к переобучению?
+1
У сети начинает хватать «памяти» чтобы «запомнить» все примеры в обучающей выборке.
+10
Скорее всего, имеется ввиду "большое количество параметров влечёт за собой увеличение количества нейронов и связей между ними, что может привести к переобучению сети"
0
Пока умные учёные что-то делают умное вы пока дайте нам денег)
Про ядерные обучение можете посоветовать где прочитать?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Нейросети могут оказаться проще, чем принято считать