Комментарии 8
Заголовок стати «Основы нейросетей в 100 строках кода». Строчек кода в статье 0.
Написано конечно класно, но заголовок не соотвестувет содержанию.
Написано конечно класно, но заголовок не соотвестувет содержанию.
+5
Эта фраза вводит в заблуждение:
Разве на входе нейрона не сумма входных значений? Конечно, в начале было сказано что
но это еще сильнее вводит в заблуждение.
Это всё. Теперь, если мы объединим все эти вычисления, мы получим полную формулу нашей сети: Yh = A2 = Sigmoid(W2 ⋅ ReLU ⋅ (W1 ⋅ X+ b1) + b2)
Разве на входе нейрона не сумма входных значений? Конечно, в начале было сказано что
W — веса слоев сети (сумма весов каждой связи).
но это еще сильнее вводит в заблуждение.
0
Нет, на входе нейрона взвешенная сумма нейронов предыдущего слоя.
Далее мы определяем функцию активации и она обрабатывает выход предыдущего слоя, прежде чем он поступит на следующий слой.
Новое значение каждого нейрона в текущем слое равно сумме результатов умножения значения каждого предыдущего нейрона на вес связи между предыдущим нейроном и текущим нейроном.
Z1 = W1⋅X + b1
Далее мы определяем функцию активации и она обрабатывает выход предыдущего слоя, прежде чем он поступит на следующий слой.
Значит, вычисления, которые мы производим на скрытом слое, примут вид:
A1 = ReLU(Z1)
и Z1=W1⋅X + b1
А вычисления на выходном слое примут вид:
A2 = Sigmoid(Z2)
и Z2=W2⋅A1 + b2
0
датасетом о раке в Висконсине
Здесь надо было дать ссылку в виде примечания переводчика, что имеется в виду речной рак :)
0
НЛО прилетело и опубликовало эту надпись здесь
Интересная тема! Буду ждать продолжения.
+1
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Основы нейросетей в 100 строках кода (часть 1)