Комментарии 18
K — это нормировочный коэффициент. А b_k показывает насколько важен k-й признак для классификации.
И, кстати, а почему берется именно f(0.99), а не f(0.98) или f(0.995)?
Да было проведено несколько тестов, вообще-то до сих пор тестирую. Вариант с корреляцией был проверен, вот ссылка на него https://vk.com/ai_2016?w=wall-64012508_204.
Я изменил на f(0.999). Вообще этот коэффициент пока подбирается экспериментально. По логике он должен стремиться к +inf. Но на практике, я получил хорошие результаты когда подставил вместо f(x) 25.
А насчет коэффициента, повышающего веса — интуитивно кажется, что чем он больше, тем выше будет качество модели, и тем проще переобучиться. Не зря же во всяких L1,2 и иже с ними штрафуют слишком большие коэффициенты.
Я имею право так делать, т.к. стоит задача классификации, а не регрессии. И имеется ф-я с насыщением, которая "сгладит" все неточности.
Точный ответ для задачи классификации это 1 или 0, 1 если принадлежит выбранному классу, 0 в обратном случае. И эта формула дает такой ответ. Было проверено 4 различных формулы, у каждой есть свои плюсы и минусы, но в качестве основной была выбрана, та что используется в статье.
Вчера записал видео теста(пред. обработка БПФ):
Без пред. обработки, рабочее отношение шум/сигнал так же до 6-ти:
Единственное, теперь точность зависит еще и от фазы.
Но метод полностью справляется со своей задачей, для регрессии я бы использовал корреляцию, но зачем тратить лишние ресурсы.
Безытеративное обучение однослойного персептрона. Задача классификации