Обновить

Ученые выяснили, как стабилизируется обучение нейросетей при увеличении объема данных

Уровень сложностиСредний
Время на прочтение5 мин
Охват и читатели9K
Всего голосов 6: ↑5 и ↓1+4
Комментарии2

Комментарии 2

Ландшафт может зависеть от способа определения ошибки. А может быть, и сходимость.

Сходимость бывает для вещественных чисел, а нейронки учатся на float, где в малом масштабе всё устроено совсем иначе. Так что практические следствия предельного перехода, возможно, имело бы смысл уточнить.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации