Обновить

Комментарии 6

Можно почему бы и нет, тут все зависит от цели и потребностей. Цель статей - показать как это все работает под капотом, так сказать низкоуровневая база. Ну и собрать все с нуля для понимания основ.

Очепятка - "Gradient Discent" (после пояснения, что производная по смещению равна 1)

Спасибо, поправил

Спасибо, интересно!

Поделюсь, что еще очень понравился по теме плейлист "Нейронные сети. PyTorch", канал SelfEdu. И про численные методы в основе, и про торч "под капотом", и про ясность изложенного материала.

Все тут я перестал понимать.
Хотя может просто нужно несколько раз перечитать.
Я математику сдал еще в универе, совсем сдал.
Нужен цикл статей для "пацанчиков".

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации