Comments 4
персептронная...
1) А не дороговато ли прогнозировать уровень энергопотребления нейросетями? )
Тем более необходимо иметь много данных, а нагрузки на сеть растут, характер потребителей меняется, а 100 МВт в час это более 33 млн в час по деньгам.
2) А зачем подбирать активирующую функцию если данные об энергопотреблении - дай бог 20 мегабайт? ) И все обучается на домашнем ПК за минуты.
3) Почему не кластеризация и полиноминальная регрессия? (более адекватная к изменениям модель)
Из общих соображений, решение с такими функциями активации будет хуже обучаться, чем с ReLU. Да и диффиренцируемость в численной схеме - требование странное (это раньше нужно было, когда всё аналитически считали), обычно непрерывности и дифференцируемости почти везде в нейронных сетях достаточно (ReLU такая).
Как сравнивали эффективность этой функции и ReLU? Достоинства ReLU и ее недостатки известны. Правая часть ректифайера практически идеальна, ее трогать - нужны очень серьезные основания, как мне кажется. Потому в современных сетях и столько подобных ректифайеру функций - от LeakyReLU до SWISH.
Прошу прощения, хотел автору ответить...
Активационные функции нейросетей для решения задач прогнозирования энергетических нагрузок