Как стать автором
Обновить

Выбор слоя активации в нейронных сетях: как правильно выбрать для вашей задачи

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров35K
Всего голосов 7: ↑6 и ↓1+6
Комментарии6

Комментарии 6

Для рекуррентных нейронных сетей, обычно используются функции активации, такие как Tanh или LSTM.

Машинный перевод?

Я на всякий случай погуглил, нет такой функции активации, как LSTM. Это тип рекуррентных нейросетей

Нейронка пишет мемуары...

Спасибо за замечание.
В данном случае, имелось ввиду вот это Слой LSTM (keras.io). Но, думаю и вправду, будет логичнее убрать это)

Для рекуррентных нейронных сетей спокойно можно использовать не только tanh, но и обычную сигмоиду. Ведь они похожи, что прямо указано в описании первой

По сравнению со сигмоидальной функцией, гиперболический тангенс имеет более пологую кривую, что позволяет сети лучше распознавать сложные зависимости в данных

Они полностью взаимозаменяемы, т.к. th(x)=2σ(2x)-1, т.е. разница будет только в значениях весов (включая bias). Разницы в скорости вычисления градиента тоже нет: σ(1-σ) в одном случае и th2(x)-1 в другом.

Не совсем верно, почитайте про затухание градиента. Есть ньюансы, особенно в сетях более чем с 10-11 слоями. Tanh лучше сигмоиды, ReLU лучше tanh-а. Если конечно учить градиентным спуском. Для генетического алгоритма - без разницы, но безумно долго.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории