Comments 5
Может быть лучше изучать fastai сначала?: https://share.google/aimode/mujk1zduzGWfiDghG
И еще немножко моих и AI галлюцинаций: https://share.google/aimode/RgAoVgVyoRuPoTYpx
Очепятка - "Gradient Discent" (после пояснения, что производная по смещению равна 1)
Спасибо, интересно!
Поделюсь, что еще очень понравился по теме плейлист "Нейронные сети. PyTorch", канал SelfEdu. И про численные методы в основе, и про торч "под капотом", и про ясность изложенного материала.
Sign up to leave a comment.
От MNIST к Transformer. Часть 4. Gradient Descent. Обучаем нашу модель