Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
… например, если она вычисляется многократно, в двойном или тройном цикле. Пример такой задачи: численное решение задачи аэродинамики на сетке...Неявно таким образом работает вообще любая сверточная сеть.
без существенных потерь в качествеДелать такой вывод на основе сети из 3х8 нейронов мягко говоря сомнительно.
Можно попробовать немного пожертвовать качеством за счет выигрыша в скорости, приближенно заменив расчет классической активационной функции на расчет более простой функции, которая (на имеющихся входных данных) дает примерно те же результаты. Это, вообще говоря, классическая задача интерполяции: имеем набор значений, вычисленных исходной функцией A(s), и подбираем более простую функцию, которая дает очень похожие значения.
Но вроде как методологически вернее просто брать простую функцию уже на этапе обучения, как например уже писали про ReLU
Что меня смущает в подходе с ReLU, так это то, что нейросетевая функция, вообще говоря, превращается, если не ошибаюсь, в обычный полином от множества переменных.
Со всеми недостатками чисто полиномиальной интерполяции, например, с не очень качественным приближением заранее неизвестных точек
Нейросеть на ReLU не может превратиться в полином хотя бы потому, что ReLU — недифференцируемая функция
Зачем же было тогда от сигмоид возвращаться обратно к полиномам (пусть и с отрицательными степенями, степенями кратности 1/2)
если вы обучали и тестировали нейросеть на одних и тех же данных
мне потребовалось написать собственный код символического упрощения выражений
Как можно упростить и ускорить вычисление нейронной сети прямого распространения