Pull to refresh

Comments 6

Нейросети могут оказаться проще, чем принято считать

забавная двусмысленность

Почему большое количество параметров ведет к переобучению?

У сети начинает хватать «памяти» чтобы «запомнить» все примеры в обучающей выборке.

Скорее всего, имеется ввиду "большое количество параметров влечёт за собой увеличение количества нейронов и связей между ними, что может привести к переобучению сети"

Параметрами это и называется (связи , веса , итд) правильно мне кажется сказано в предыдущем комментарии. То что эти параметры начинают использоваться как "ячейки памяти".

Пока умные учёные что-то делают умное вы пока дайте нам денег)

Про ядерные обучение можете посоветовать где прочитать?

Sign up to leave a comment.