Как стать автором
Обновить

Как объяснить функции активации вашему коту: простое руководство

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров16K
Всего голосов 31: ↑30 и ↓1+32
Комментарии11

Комментарии 11

Очень хорошая статья, большое спасибо. Если можно такую же про обучение нейросети, чтоб на пальцах и масштабируемо до практического применения - было бы совсем прекрасно.

Спасибо! Такая статья обязательно будет

Сначала маме, потом коту. Кому же будет дальше?

Это просто промт для ChatGPT

Спасибо за статью!

Не совсем понял про гиперболический тангенс. Вы пишете:

Выходные значения сигмоида, с другой стороны, не центрированы относительно нуля (диапазон от 0 до 1), что может привести к так называемой проблеме «исчезающих градиентов» (см. раздел ReLU для объяснения). Из-за этих свойств (быстрый градиентный спуск, отсутствие исчезающих градиентов)

По описанию похоже, что проблема исчезающих градиентов для этой функции характерно - тогда почему в преимуществах указано их отсутствие?

проблема исчезающих градиентов характерно для сигмоида, не очень понятно написанно, согласен

Все таки затухание градиента происходит не из за того что сигмоида в единицу упирается, а из за того что у неё максимальное значение производной 0.25. а так для новичков самое то

Вроде опечатка в последнем абзаце

Смещение добавляется к сумме входных выходных

Блин, я думал это будет статья по дрессировке котиков.

мой кот понял, а для меня это было сложно(

Зарегистрируйтесь на Хабре, чтобы оставить комментарий