Комментарии 6
В оригинале много формул и подробностей, а телеграмм не позволяет это писать в адекватном виде...
Спутали божий дар с хабром.
Ничего не понятно, для кого статья?
Здравствуйте, для людей интересующихся машинным обучением.
Предполагается, что об алгоритме оптимизации Adam и методе обучения глубоких сетей - "back-propogation" слышал каждый в этой сфере.
Методы возможно не столь подробно прописаны со стороны объяснения их работоспособности, но лишь чтобы не повторять это в миллионный раз на просторах интернета. Цель - сфокусироваться на том что ещё есть в оригинальных статьях и о чём, почему-то, не говорит никто.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Никто не читает старые статьи… базу, так сказать, основу…