Комментарии 12
if ( w1*x1+w2*x2+w3*x3+w4*x4 > threshold )
then func=1
else func=0.
Что если изображение {x1,x2,x3,x4} представляет собой очень бледную копию искомого изображения? Тогда из-за того, что значения малы, то выражение не преодолеет порог.
Второй вопрос, как из функции w1*x1+w2*x2+w3*x3+w4*x4 получить функцию вида y=wx+b.
Третий. Что если изображения вообще нет: {0,0,0,0}, тогда y=0+b и оно всегда больше нуля, то есть образ обнаружен. Как же так?
Такой странный вопрос
Смотря какие веса и какой порог. В целом мне кажется разумным, что на почти белой картинке скорее нарисована картина "Война в Крыму, всё в дыму, ничего не видно", чем "Лесенка".
Второй вопрос
Записать "векторно". Между w и x скалярное произведение спряталось (подразумевается в этой записи). А b — это бывший threshold, его просто в левую часть перенесли.
Третий
Смотря чему равно b, оно может быть и отрицательным, тем более что его только что из правой части перенесли.
А вот как Вы коэффициенты выбрали? Не понятно.
По идее, максимум будет у автокорреляционной функции, но похоже коэффициенты w выбраны каким-то иным (не описанным в статье) способом. Тем более, что якобы «лестница» у вас определяется и в перевернутом виде.
В примере в самом начале не сказано откуда взялись коэффициенты, просто сказали: "давайте для примера рассмотрим такие-то коэффициенты".
А потом объясняется, что коэффициенты можно считать, например, методом градиентного спуска, минимизируя ошибку на выборке.
Тем более, что якобы «лестница» у вас определяется и в перевернутом виде.
Ась?
P.S. Я тут ни при чём и никакие коэффициенты не выбирал, просто мимо проходил.
Вроде бы лучший обнаружитель — это корреляционная функция с эталонным сигналом который обнаруживаешь на фоне помех. А тут получается сигналы, которые ищешь — могут быть разные и при этом еще зеркальные. Получается нужно бы иметь два эталонных сигнала для двух корреляционных функций.
Нуу эээ даа, первая часть статьи разжёвывает тот факт, что линейным классификатором нельзя выклассифицировать лесенку. Хотя бы потому, что побитное среднее арифметическое двух опознаваемых картинок было бы в этом случае такой же опознаваемой картинкой. А среднее арифметическое двух зеркальных лесенок — это невнятный градиент из чёрного в серое.
Поэтому навешивают активационную функцию, например сигмоиду, после чего начинает иметь какой-то смысл композиция классификаторов (а то композиция линейных функций — это линейная функция, не интересно), после чего городят композицию классификаторов.
Поясните, пожалуйста шаг 6 и 7 подробнее. Что значит «насколько меняются текущие потери относительно небольших изменений каждого из весов». Что такое «текущие потери»? Почему появляется градиент L? Ведь был изначально скаляр.
IF (x1<x2 and x1x4 and x3<x4 )
or (x2<x1 and x2<x4 and x1<x3 and x4<x3)
THEN stairs
Небольшое замечение. Глубокие перцептроны на практике особо и не встретишь, так как для сколько-нибудь сложной задачи число параметров станет просто астрономическим. И хоть в теории такой перцептрон и будет хорошо решать нашу задачу, вряд ли мы дождёмся окончания его обучения. В глубоком обучении правят бал свёртки и их друзья (например, Res-блоки).
Введение в нейросети