Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!

m\[i\] \= beta1 \* m\[i\] \+ (1 \- beta1) \* p.grad v\[i\] \= beta2 \* v\[i\] \+ (1 \- beta2) \* p.grad \*\* 2 m\_hat \= m\[i\] / (1 \- beta1 \*\* (step \+ 1)) \# Bias correction v\_hat \= v\[i\] / (1 \- beta2 \*\* (step \+ 1))p.data\-= learning\_rate \* m\_hat / (v\_hat \*\* 0.5 \+ eps\_adam)
То есть вы даже сами не читали вам ИИ при переводе вывалил? Там вместо и так посредственной читаемости кода какой то полнейший брейнфак с обратными слешами.
Не говоря про то что и оригинал то тоже нейрослоп.
Мда, чем умнее ИИ тем тупее люди.
у вас ус отклеился форматирование кода поехало
Это уже минимум третья статья про это код от Андрея Карпати.
Шо, опять?
Полноценный GPT в 243 строках Python от Andrej Karpathy