Комментарии 6
Может быть лучше изучать fastai сначала?: https://share.google/aimode/mujk1zduzGWfiDghG
И еще немножко моих и AI галлюцинаций: https://share.google/aimode/RgAoVgVyoRuPoTYpx
Очепятка - "Gradient Discent" (после пояснения, что производная по смещению равна 1)
Спасибо, интересно!
Поделюсь, что еще очень понравился по теме плейлист "Нейронные сети. PyTorch", канал SelfEdu. И про численные методы в основе, и про торч "под капотом", и про ясность изложенного материала.
Все тут я перестал понимать.
Хотя может просто нужно несколько раз перечитать.
Я математику сдал еще в универе, совсем сдал.
Нужен цикл статей для "пацанчиков".
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

От MNIST к Transformer. Часть 4. Gradient Descent. Обучаем нашу модель