Pull to refresh

Comments 7

А почему статья озаглавлена «Роль обратного распределения в построении нейросети»?
Еще из статьи я понял, что Вы очень любите списки :)

В данной статье как раз показано, как повлияло использование обратного распределения на улучшение итогового результата.

А что такое обратное распределение? Этот термин встречается у вас дважды: один раз в заголовке, один раз "Размышление, которые привели меня к использованию алгоритма обратного распределения:..." Определение нигде не даётся. Далее описывается процедура обратного распространения ошибки. Ничего не понял, простите.

Обратное распределение — это способ обучения нейронной сети. Его цели: отрегулировать каждый вес пропорционально тому, насколько он способствует общей ошибке. Основная его задача итеративно уменьшать ошибку каждого веса, в конце концов у нас будет ряд весов, которые дают хорошие прогнозы.

Цитирую второй абзац:

"Обратное распространение — это способ обучения нейронной сети. Цели обратного распространения просты: отрегулировать каждый вес пропорционально тому, насколько он способствует общей ошибке." - один в один то, что вы только что написали про обратное распределение.

По вашему, разницы между терминами "распространение" и "распределение" нет? Если же вы хотите ввести новое понятие, то в чем разница тогда?

В статье Вы либо не даёте определения, либо определения ничего не разъясняют:
Каждый узел в нейронной сети представляет собой нейрон, поэтому мы можем сказать, что нейронная сеть — это цепь нейронов.

Что Вы подразумеваете под нейроном? «Нейронная сеть (...) — это цепь нейронов» не поясняет ничего.

Если статья расчитана на новичков, то нужно пояснять зачем всё. Зачем Вы инициализируете случайные веса? Какую проблему Вы пытаетесь предотвратить? Если на продвинутых, то статья не имеет смысла. Распространение ошибки обычно изучают в самом начале.

Советую ознакомится с работой «Learning internal representation by error propagation» by D.E.Rumelhart, G.E. Hinton and R.J.Williams. В работе предлагается обобщеное правило высчитывания ошибки и показывается много примеров применения этого правила. Так же много примеров небольших ассоциативных сетей (с и без скрытых элементов), которые решают простые проблемы, например XOR, которые не решаются без скрытых элементов или дополнительного входного элемента (input unit).

Спасибо за ваши замечания, постараемся учесть указанные пункты в дальнейшем.

Sign up to leave a comment.

Articles