Можно, но паять придется, а так распознаешь "Товарищ Майор", и посылаешь на место микрофонной матрицы "Алиса", достаточно иметь АЦП, сигнальный процессор(для частотно-временного преобразования), МК(там нейронка или SVM для распознавания, да хоть просто корреляторы) и ЦАП. Можно отпаять матрицу, присоединить к этому устройству и дальше эмулировать ее. Придется повозиться(и сильно), но сделать можно все :)
Критерий Неймана-Пирсона, при заданном уровне ложной тревоги 1e-4, максимизировал вероятность верного обнаружения. А далее просто смотрел какой обнаружитель быстрее сработает, тому и засчитывал бал.
Не совсем понятно зачем так реализовывать нейросеть??
Смотрите, у Вас есть матрица весов W, вектор-функция активации F(n), вектор входа X, вектор смещения B, тогда прохождение одного слоя записывается как Y = F(WX+B)
Ниже есть видео, там двухслойная сеть, но пока в том выражении по генерации архитектуры слишком много параметров, которые неоднозначно подбираются. Поэтому про этот метод я писать не готов, тестирую с разными параметрами. Собираю статистику. Потом планирую обобщить на любое кол-во слоев.
Точный ответ для задачи классификации это 1 или 0, 1 если принадлежит выбранному классу, 0 в обратном случае. И эта формула дает такой ответ. Было проверено 4 различных формулы, у каждой есть свои плюсы и минусы, но в качестве основной была выбрана, та что используется в статье.
Вчера записал видео теста(пред. обработка БПФ):
Без пред. обработки, рабочее отношение шум/сигнал так же до 6-ти:
Единственное, теперь точность зависит еще и от фазы.
Но метод полностью справляется со своей задачей, для регрессии я бы использовал корреляцию, но зачем тратить лишние ресурсы.
Да было проведено несколько тестов, вообще-то до сих пор тестирую. Вариант с корреляцией был проверен, вот ссылка на него https://vk.com/ai_2016?w=wall-64012508_204.
Я изменил на f(0.999). Вообще этот коэффициент пока подбирается экспериментально. По логике он должен стремиться к +inf. Но на практике, я получил хорошие результаты когда подставил вместо f(x) 25.
Я не собирался решать СЛАУ, просто показал на простом примере откуда взялся вектор B и матрица A, что будет использовано в дальнейшем. Про использование вектора B я написал тут: https://habrahabr.ru/post/333382
Ну мне хватает))
Цифры назвать не могу.
Вообще хочу открыть свое дело на своих разработках, но это не реально сложно, вряд ли получится, но надо по пробовать. Вот мой основной проект, если интересно. Возможно и о нем напишу. Как закончу с НС.
Можно, но паять придется, а так распознаешь "Товарищ Майор", и посылаешь на место микрофонной матрицы "Алиса", достаточно иметь АЦП, сигнальный процессор(для частотно-временного преобразования), МК(там нейронка или SVM для распознавания, да хоть просто корреляторы) и ЦАП. Можно отпаять матрицу, присоединить к этому устройству и дальше эмулировать ее. Придется повозиться(и сильно), но сделать можно все :)
Критерий Неймана-Пирсона, при заданном уровне ложной тревоги 1e-4, максимизировал вероятность верного обнаружения. А далее просто смотрел какой обнаружитель быстрее сработает, тому и засчитывал бал.
Не совсем понятно зачем так реализовывать нейросеть??
Смотрите, у Вас есть матрица весов W, вектор-функция активации F(n), вектор входа X, вектор смещения B, тогда прохождение одного слоя записывается как Y = F(WX+B)
По теореме Арнольда-Колмогорова Nh = 2Ni+1; т.е. у нас 2 входа, т.е. Nh = 2*2+1 = 5. Т.е. достаточно 5-ти нейронов)
Выше, в статье есть.
На MNIST плохой результат, 63%. Сейчас дорабатываю метод обучения скрытого слоя.
Ну что тут сказать, тестирую! На MNIST`е буду сегодня завтра гонять.
Ниже есть видео, там двухслойная сеть, но пока в том выражении по генерации архитектуры слишком много параметров, которые неоднозначно подбираются. Поэтому про этот метод я писать не готов, тестирую с разными параметрами. Собираю статистику. Потом планирую обобщить на любое кол-во слоев.
Точный ответ для задачи классификации это 1 или 0, 1 если принадлежит выбранному классу, 0 в обратном случае. И эта формула дает такой ответ. Было проверено 4 различных формулы, у каждой есть свои плюсы и минусы, но в качестве основной была выбрана, та что используется в статье.
Вчера записал видео теста(пред. обработка БПФ):
Без пред. обработки, рабочее отношение шум/сигнал так же до 6-ти:
Единственное, теперь точность зависит еще и от фазы.
Но метод полностью справляется со своей задачей, для регрессии я бы использовал корреляцию, но зачем тратить лишние ресурсы.
Да было проведено несколько тестов, вообще-то до сих пор тестирую. Вариант с корреляцией был проверен, вот ссылка на него https://vk.com/ai_2016?w=wall-64012508_204.
Я изменил на f(0.999). Вообще этот коэффициент пока подбирается экспериментально. По логике он должен стремиться к +inf. Но на практике, я получил хорошие результаты когда подставил вместо f(x) 25.
Я имею право так делать, т.к. стоит задача классификации, а не регрессии. И имеется ф-я с насыщением, которая "сгладит" все неточности.
K — это нормировочный коэффициент. А b_k показывает насколько важен k-й признак для классификации.
Я не собирался решать СЛАУ, просто показал на простом примере откуда взялся вектор B и матрица A, что будет использовано в дальнейшем. Про использование вектора B я написал тут: https://habrahabr.ru/post/333382
https://habrahabr.ru/post/333382 — новая статья.
https://habrahabr.ru/post/333382 — следующая статья.
Ну мне хватает))
Цифры назвать не могу.
Вообще хочу открыть свое дело на своих разработках, но это не реально сложно, вряд ли получится, но надо по пробовать. Вот мой основной проект, если интересно. Возможно и о нем напишу. Как закончу с НС.
Спасибо! Интересная статья, решили они по другому, но смысл тот же.
Если ф-я ограничена сверху и снизу, то 0 производной будет как в минимуме, так и в максимуме.
Спасибо за дополнение! Тут проблема в другом нужно доказать, что производная равна нулю в минимуме.(это я про нелинейные ф-и)
Да, понял, про что Вы. Я там писал k, потом видно, когда перепроверял изменил на j.