Как стать автором
Обновить

Комментарии 19

А есть то же самое, но для Раста?

Я вообще проходимец, но как заметил это реализация формулы автора тупо на питоне,
чтобы реализовать такое на расте, полагаю, надо уметь пользоваться математическими функциями в этом языке.

Немного странно использовать квадратичную функцию потерь в связке с sigmoid активацией на выходном слое. Тут уж либо мы решаем задачу классификации, либо регрессии

  • задача классификации: sigmoid activation + cross-entropy loss

  • или задача регрессии: linear (no) activation + quadratic loss

У меня вот есть такая интерактивная иллюстрация работы ма-а-а-аленькой сеточки, которая играет в змейку: https://shashkovs.ru/ai/

ReLU + чем толще линия — тем больше слагаемое
ReLU + чем толще линия — тем больше слагаемое

Очень интересно что такое казалось бы сложное задание, нейросеть может выполнить на таком маленьком количестве нейронов.

НЛО прилетело и опубликовало эту надпись здесь

Ну игры даже сегодняшние развивают мозг, различные механики к которым нужно найти подход, различные логические задачи в играх все так же встреачаются опять же. Да условный cookie clicker мало что разовьет, как и змейка, но все же это уже лучше чем смотреть в стену)

Там есть вариант, когда оно играет в змейку вообще без промежуточного слоя: 4 входных и 3 выходных, то есть всё управление — это 15 весов.

НЛО прилетело и опубликовало эту надпись здесь

Для змейки всегда есть положение «вперёд». Во входе «яблоко» угол от положения «вперёд» в радианах.

А, ну и конкретно про 3.14. Для вычисления угла используется atan2, а для приближения справа Math.atan2(0, -1) = 3.1415...

НЛО прилетело и опубликовало эту надпись здесь

Не, асимметрия ненамеренная. Угол вычисляется через atan2, которая так работает... Но вообще действительно есть гипотеза, что это портит обучаемость. Нужно бы как-то это поправить и попробовать переобучить заново.

Покажите как используется ваш класс в итоге и что является результатом работы. Покажите код, который делает это "Давайте обучим нейронную сеть на 1500 итерации". Спасибо.

А почему именно сигмоид? Почему не relu, например?

Просто насколько мне известно, от сигмоида отказываются из-за того, что при обучении он любит уходить намертво в 1 или 0. Ну а если не уходит, то по сути мы получаем ± градиент как при relu

Думаю, автор просто прочитал только первую главу учебника по ML, а там было написано про перцептрон с активацией на сигмоиде. Ну и вот

С удовольствием прочитал бы ваши статьи и пообсуждал их, но увы их 0)

Круто
Но код на гите был бы не лишним)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории