Про количество слоёв написал в статье. Оптимально получилось 2 скрытых слоя.
ReLU, как и dropout слой не пробовал. Делал Encog версии 3.3, а ReLU и dropout появилась в 3.4.
Если под «нормальзацией градиента» Вы имеете ввиду «Stochastic Gradient Descent (SGD)», то не использовал. По той же причине.
Задумался, может обновиться и погонять тесты…
лет 10 назад был у меня ТВ-тюнер, в софте которого была возможность выреза рекламы. очень классная штука. гасила звук и затеняла экран.
алгоритм был простой и основан на том, что во время рекламы лого канала прячется.
в базе была куча разных лого + возможность подпихнуть свой.
а потом каналы лого начали делать полупрозрачными и перестали прятать…
Information
Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
тоже N-граммы пришли на ум, пока читал стать. опередили с предложением)
мне в своё время весьма помогло словарь сделать покороче.
но у меня была другая предметная область
https://habr.com/ru/company/dataline/blog/512142/
Прогнал ReLU на тестовом наборе — не попала совсем.
dropout c ActivationSigmoid тоже не дал выигрыша. Сходится стало медленней и точность немного упала.
ReLU, как и dropout слой не пробовал. Делал Encog версии 3.3, а ReLU и dropout появилась в 3.4.
Если под «нормальзацией градиента» Вы имеете ввиду «Stochastic Gradient Descent (SGD)», то не использовал. По той же причине.
Задумался, может обновиться и погонять тесты…
Да, точность около 80% получается
алгоритм был простой и основан на том, что во время рекламы лого канала прячется.
в базе была куча разных лого + возможность подпихнуть свой.
а потом каналы лого начали делать полупрозрачными и перестали прятать…