Pull to refresh

Comments 4

1) А не дороговато ли прогнозировать уровень энергопотребления нейросетями? )

Тем более необходимо иметь много данных, а нагрузки на сеть растут, характер потребителей меняется, а 100 МВт в час это более 33 млн в час по деньгам.

2) А зачем подбирать активирующую функцию если данные об энергопотреблении - дай бог 20 мегабайт? ) И все обучается на домашнем ПК за минуты.

3) Почему не кластеризация и полиноминальная регрессия? (более адекватная к изменениям модель)

Из общих соображений, решение с такими функциями активации будет хуже обучаться, чем с ReLU. Да и диффиренцируемость в численной схеме - требование странное (это раньше нужно было, когда всё аналитически считали), обычно непрерывности и дифференцируемости почти везде в нейронных сетях достаточно (ReLU такая).

Как сравнивали эффективность этой функции и ReLU? Достоинства ReLU и ее недостатки известны. Правая часть ректифайера практически идеальна, ее трогать - нужны очень серьезные основания, как мне кажется. Потому в современных сетях и столько подобных ректифайеру функций - от LeakyReLU до SWISH.

Прошу прощения, хотел автору ответить...

Sign up to leave a comment.

Articles