Как стать автором
Обновить

Комментарии 4

Про глубину ResNet не совсем верно, 152 — не максимальная глубина, есть и ResNet-1001. Ну и по-моему стоило бы рассказать про Inception (фактически — дальнейшее развитие GoogleNet), DenseNet, ENet (тут скорее упор в оптимальный размер модели). Пусть даже и не шибко подробно.

Спасибо за комментарий! Насчет глубины ResNet — я опирался на статью, в которой максимальная глубина — 152, но добавить о том, что позднее появились модификации — действительно стоило. Про Inception и другие сети — согласен с Вами, стоило рассказать.
>проблема взрывающегося градиента
>Решение очевидно — ограничить значение градиента, в противном случае — уменьшить его значение (нормировать). Такая техника называется «clipping».
Вот только это очень плохое решение… Особенно для ничем не ограниченного ReLU.
Batchnorm намного лучше справляется. (И ещё придумали SELU и другие self-normalizing units.)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории