Pull to refresh

Comments 8

Заголовок стати «Основы нейросетей в 100 строках кода». Строчек кода в статье 0.

Написано конечно класно, но заголовок не соотвестувет содержанию.
Вы кстати правы. Это название всего цикла статей, добавили «часть 1» в заголовок.
Эта фраза вводит в заблуждение:
Это всё. Теперь, если мы объединим все эти вычисления, мы получим полную формулу нашей сети: Yh = A2 = Sigmoid(W2 ⋅ ReLU ⋅ (W1 ⋅ X+ b1) + b2)

Разве на входе нейрона не сумма входных значений? Конечно, в начале было сказано что
W — веса слоев сети (сумма весов каждой связи).

но это еще сильнее вводит в заблуждение.
Нет, на входе нейрона взвешенная сумма нейронов предыдущего слоя.
Новое значение каждого нейрона в текущем слое равно сумме результатов умножения значения каждого предыдущего нейрона на вес связи между предыдущим нейроном и текущим нейроном.
Z1 = W1⋅X + b1

Далее мы определяем функцию активации и она обрабатывает выход предыдущего слоя, прежде чем он поступит на следующий слой.
Значит, вычисления, которые мы производим на скрытом слое, примут вид:
A1 = ReLU(Z1)
и Z1=W1⋅X + b1

А вычисления на выходном слое примут вид:
A2 = Sigmoid(Z2)
и Z2=W2⋅A1 + b2
датасетом о раке в Висконсине


Здесь надо было дать ссылку в виде примечания переводчика, что имеется в виду речной рак :)
UFO just landed and posted this here
Интересная тема! Буду ждать продолжения.
Sign up to leave a comment.