Pull to refresh

Comments 5

Почему в полносвязном слое именно 128 нейронов? Откуда взялось это число?
Таких вопросов много будет по ходу курса и ответов конкретных на них не дают. Вся суть — в последнем блоке и выводах. Просто экспериментируйте с количеством нейронов — получите точность выше / ниже, то можно поздравить / огорчиться!

Это не совсем так. Ширину слоев как и глубину сети в случае обычной полносвязной сетки можно тюнить более эффективно, исходя из bias-variance tradeoff.

Интересно, благодарю! Буду обращать на это внимание, если упоминания этой методики будут в курсе.
На базовом уровне это описывает Ын в специализации deeplearning.ai
Sign up to leave a comment.

Articles