Comments 6
Нейросети могут оказаться проще, чем принято считать
забавная двусмысленность
Почему большое количество параметров ведет к переобучению?
У сети начинает хватать «памяти» чтобы «запомнить» все примеры в обучающей выборке.
Скорее всего, имеется ввиду "большое количество параметров влечёт за собой увеличение количества нейронов и связей между ними, что может привести к переобучению сети"
Пока умные учёные что-то делают умное вы пока дайте нам денег)
Про ядерные обучение можете посоветовать где прочитать?
Sign up to leave a comment.
Нейросети могут оказаться проще, чем принято считать