Pull to refresh

Comments 79

Статья очень наглядная и легко читается, спасибо.

Полагаю, нужен еще пороговый коэффициент, меньше которого считаем, что число не распознано вообще.
Иначе бывают казусы

Наверно у меня просто очень плохой подчерк.

image

А за статью спасибо, крайне наглядно и информативно.
так-то я бы тоже ответил что это 3 :D
:) Я уже подумывал о том чтоб загрузить в обучающую выборку все 60 000 примеров + 10 000 тестовых картинок.
С шестерками проблемы еще больше
Распознает одну из пяти моих шестерок
image
Да так и есть, иногда путает 1 и 7-ку. Надо увеличивать обучающую выборку. В идеале прогнать через сеть все 60 000 примеров + ваши с правильным ответом. У меня на это не хватило терпения. :)
Для демонстрации того что есть достаточно, а на усложнение этого кода у меня нету времени.

Вы можете клонировать код на гитхаб и предложить свою реализацию, давайте вместе делать код лучше!

Прицелился это сделать. Займусь, когда у меня будут задачи. Если выйдет что-то достойное выкладки (а я очень самокритичен) — выложу.

У него явно проблемы с девятками
image
А почему повторное определение цифры изменяет исходник и в последующих попытках приводит к самым непредсказуемым результатам?
Уточните суть проблемы, там могут быть проблемы с выделением памяти, т.к. загружается код размером 11M. Оновная часть кода сериализированная натренированная модель.
просто нарисуйте цифру и несколько раз понажимайте «распознать» — поймете, о чем я.
Исходная нарисованная цифра ниачинает видоизменяться, причем сильно. Соотв. и распознавание другое…
Как то так…
Я Вас понял, сегодня вечером пофикшу этот баг, повторно распознавать нету никакого смысла.

Дело видимо в том, что распознаётся не та картинка, которую вы рисуете не холсте, а та, что находится справа-внизу и содержит уменьшенную копию нарисованного вами изображения. По нажатию на кнопку «распознать» картинка с большого холста копируется на маленький, соответственно, она уменьшается, но затем зачем-то эта уменьшенная версия копируется обратно на большой холст. В итоге, после нескольких итераций картинка изменяется до неузнаваемости.

Я понял — это баг. Уже пофиксил.

После определения показывается отмасштабированная картинка приведенного исходника ( 28х28 пикселей).
Каждое новое определение снова меняет масштаб, отсюда и разница.

В Firefox 47.0 не работает ввод (не рисуется символ). В хроме все цифры распознает правильно, ошибок не заметил.
У меня тоже 47-й (стоит Adblock+стандартный набор дополнений), и всё работает. Очевидно проблема на вашей стороне.

А мне не понравилось, описываете известные факты, а самое интересное заменяете библиотекой. Я думал будет статья по подобию вот этой, где автор вместе с читателем строит сеть на js сам

От примерно того же автора (Карпатого) есть вот этот интересный материал: http://cs231n.github.io/
Этот курс дописан, в отличии от ссылки.

Также достаточно интересен tutorial от создателей theano: http://deeplearning.net/tutorial/
Это статья для начинающих. Упор на простоту. В идеале читатель загружает код и пробует у себя на компе тренировать сеть самомтоятельно. То о чем пишете вы — это усложнение задачи. Но идея интересная.
Это не статья для начинающих. JS и нейросети это как автобус из буханки, на мой взгляд. Для начинающих — это какой-нибудь pybrain, и то он жутко медленный.

Тэги: JavaScript*, Big Data*
Ну да.
JS таки заметно быстрее чем py.
>JS таки заметно быстрее чем py
Есть ли под JS либы с jit-компиляцией? Обычно используют theano+[lasagne|keras] либо torch, caffe, tensorflow. Чем определен выбор JS?

Ладно, на самом деле в статье обычный пример обучения. Просто самого содержания статьи нету. Нейронные сети — это не про программирование, это про машинное обучение и deep learning. Это про то, что скрывается за net.train(). А тут в статье даже слова градиент нету.

>Код будет понятен даже тем программистам, которые не имели дело с нейронными сетями ранее.
Последовательность действий будет понятна даже тем программистам, которые никогда не занимались пайкой ранее.

>В качестве функции f(x) чаще всего используется сигмоидная или пороговая функции
Пороговая функция в качестве функции активации использоваться не может, потому что, внезапно, ее производная не равна нулю на множестве меры 0. Тут скорее надо упомянуть тангенциальную функцию, rectifier, leaky rectifier.
>JS таки заметно быстрее чем py
Есть ли под JS либы с jit-компиляцией? Обычно используют theano+[lasagne|keras] либо torch, caffe, tensorflow. Чем определен выбор JS?


Если этот вопрос ко мне, то мне просто нравиться JavaScript.

Ладно, на самом деле в статье обычный пример обучения. Просто самого содержания статьи нету. Нейронные сети — это не про программирование, это про машинное обучение и deep learning. Это про то, что скрывается за net.train(). А тут в статье даже слова градиент нету.


Да, нету. Нейронные сети это инструмент для решения некоторого класса задач и не всегда разработчику JavaScript нужно хорошо разбираться в том как реализован net.train(), достаточно знать что ему подавать на входы и что будем иметь на выходе.

Следуя вашей логике каждый JavaScript программист должен знать C, чтоб понимать как работает функция сортировки.

>Код будет понятен даже тем программистам, которые не имели дело с нейронными сетями ранее.
Последовательность действий будет понятна даже тем программистам, которые никогда не занимались пайкой ранее.


Очень оригинально.

>В качестве функции f(x) чаще всего используется сигмоидная или пороговая функции
Пороговая функция в качестве функции активации использоваться не может, потому что, внезапно, ее производная не равна нулю на множестве меры 0. Тут скорее надо упомянуть тангенциальную функцию, rectifier, leaky rectifier.


Вы начали искать изъяны в теории? У вас минусовая карма, так вы троль, что ли?
Да, нету. Нейронные сети это инструмент для решения некоторого класса задач и не всегда разработчику JavaScript нужно хорошо разбираться в том как реализован net.train(), достаточно знать что ему подавать на входы и что будем иметь на выходе.

А смысл в подобных знаниях на обезьяньем уровне? Ну т.е. на MNIST'е оно работает, а на более сложных задачах почти наверняка возникает масса проблем при тренировке, которые даже продиагностировать нельзя без понимания того, что находится под капотом у tran'а...

А смысл в подобных знаниях на обезьяньем уровне? Ну т.е. на MNIST'е оно работает, а на более сложных задачах почти наверняка возникает масса проблем при тренировке, которые даже продиагностировать нельзя без понимания того, что находится под капотом у tran'а...

В статье достаточно информации для того чтоб заинтересовать человека, который никогда с этим не сталкивался. Ну Вам не угодил, — бывает.

Да не сочтут за троллинг, но вы путаетесь в показаниях: сначала вы говорите, что JS-разработчик может использовать ML как черный ящик, а сейчас уже говорита о том, что статья вроде как должна заинтересовать к дальнейшему изучению темы, т.е. лезть внутрь train'а :-)

>Вы начали искать изъяны в теории?
Ну это, а что, нельзя что ли? Вы фигню написали, уже нельзя и вам на это указать?

>У вас минусовая карма, так вы троль, что ли?
Я не знаю какая у меня карма. Это второй пост, который я комментирую, второй пост который берет меня за живое, потому что автор постит что-то странное, и я пишу об этом.
Скоро всё будет. Это не тот язык, который ожидали, но именно он дотянет человечество до сингулярности. Недавно его стало возможно компилировать в native код. Исполнение из коробки на любом тостере. Чувствую грядущую бурю.
И чем же JS лучше остальной кучи языков c компиляцией в native?
Скорее наоборот — скоро выкатят WA, и множество языков хлынут в браузер — во многих сообществах держат руку на пульсе, готовят и тестируют соответствующий инструментарий.
Пример очень наглядный, спасибо. Но сигмоида была «самой популярной» довольно давно, я бы сказал, что сейчас актуельнее ReLU

А можно подробней, где эти "многие места" можно посмотреть?
Если посмотреть на распознавание изображений, то там мейнстрим как-раз ReLU (причем самое тупое, с нулем в отрицательной области). Во всяких GoogLeNet, ResNet etc. именно такая активация используется.

Maxout это более общий случай ReLU и Leaky ReLU.

Сама статья о maxout с теорией и сравнениями:
http://jmlr.csail.mit.edu/proceedings/papers/v28/goodfellow13.pdf

Распознавание лиц с maxout слоями (вернее с его производным — Max-Feature-Map), топовый результат для embedded systems:
http://arxiv.org/pdf/1511.02683v1.pdf

p.s. GoogLeNet это 2014 год и уже не показатель инноваций.
Maxout это более общий случай ReLU и Leaky ReLU.

Да, я в курсе что это такое. Просто в каких-то достаточно знаковых статьях я не встречал чего-то отличного от ReLU при a = 0...


p.s. GoogLeNet это 2014 год и уже не показатель инноваций.

Эмм...GoogLeNet — это уже не одна сетка, а целое семейство и последние версии Inception'а опубликованы уже в 2016 году (та версия, которая с Residual связями).

Да, вы правы, я добавил в теоретическую часть Вашу ссылку
Да, это хороший пример. Стоит отметить что в этом примере модель обучалась с помощью Matlab (это указано автором в коментариях). Это уже не чистый JavaScript.

Интересно, что размер модели меньше более чем в 10 раз при лучшем качестве :)

Под размером вы подразумеваете размер файла обученной сети, или количество обучаемых параметров (весов) сети?

Размер файла. У вас 10 мегабайт, а там 600 килобайт всего. Не знаю правда сколько нейронов там используется на выходе.

ну тут все зависит от способа упаковки данных. Размер сети лучше смотреть когда она загружена в оперативную память. Хотя тоже не показатель.
p.s. «У вас » — не у меня, я просто мимо проходил :)
Да вот такие они загадочные эти нейронные сети. Если нейронов мало — сеть «тупая», если нейронов много — сеть «зубрилка». Там автор в скрытом слое указал 200 нейронов c одинарной точностью (движок brain.js создал 392 нейрона с двойной точностью ). Для понятности и красоты модели используется JSON.stingify с отступами. Ну и формат серилизации у brain.js попрожористее.

Точность распознавания визуально оценивать сложно. Измерить можно на выборке для тестирования из базы MNIST. Там 10000 тестовых примеров. Я таких замеров не проделывал, т.к. для демонстации работы сети, того что я сделал — достаточно.
согласен


P.S. Кстати оба варианта в черном квадрате распознают восьмерку. Стабильно и без ошибок.
На восьмёрку больше всего «чернил» уходит, поэтому представляется логичным, что картинка, которая вообще вся чёрная, и распознаётся как восьмёрка.
UFO just landed and posted this here

Я не проганял, после выходных отпишу.

Я еще раз потренировал модель на полной 60 000 выборке, прогнал тестовую выборку (10 000 записей) и получил 1,77% погрешность. Это средний показатель, если смотреть таблицу на сайте MNIST.

в любой непонятной ситуации — беги. Справляются оба.



P.S. Не ругайтесь это ж пятница )) Смысл жизни 42, это факт.
UFO just landed and posted this here
мы взяли библиотеку, написанную умными людьми,

А вы что в машинных кодах модели тренируете, или калькулятор предпочитаете? Я рассказал о хорошем инструменте для JavaScript.


подключили и решили игрушечную задачу.

Отличная задача для начинающих, простая и наглядная.

UFO just landed and posted this here
На js нейронные сети — это не слабо. Автору респект.
Автору спасибо. В качестве пожеланий к следующей серии, если таковая будет — классификатор изображений, тоже на JS. Отличие котиков от некотиков, причём с подробностями: как сделать нормализацию сигнала, как обрабатывать произвольные изображения и т. д.

Не уверен что это задача для JavaScript. При распознавании изображений во входном слое будет очень много нейронов, а nodejs и др. реализации js однопоточные. (Это означает что в один момент времени будет задействовано только одно ядро). Но натренированную модель для классификации фото загрузить в js реально.

Не уверен что это задача для JavaScript.

Ну какже? С одной стороны баррикад желающие распознавать капчу прямо в броузере (например на фантоме), с другой стороны — желающие определять ботов по отличию в поведении от человека (выделения текста, поведение курсора — в общем паттерны поведения), и это идеальная задача для нейросетей, а решение ее прямо в броузере — бизнесом востребовано.


А опыт Америки в второй мировой показывает что торговать оружием с обеими сторонами — выгодно )

Вообще, круто было бы если хотя бы пример с xor'ом был описан как работает. Про библиотеку интересно, но как-то получается, что сначала общая схема перцептрона, а потом сразу распознавание с помощью библиотеки в две строчки. Без этого теория вначале как-то лишней выглядит.
Прошу прощения за дилетантский вопрос, снейросетями не работал до этого:
почему на выходе 10 нейронов по числу вариантов ответа, а не 4 по количеству фактической информации?
Каждый выходной нейрон голосует за свою цифру. Какой нейрон выдал бОльший сигнал — та цифра и является правильной. Что за фактическая информация, которой здесь 4 штуки?
А, понял. 4 — это вообще из другого примера — реализация XOR через нейронную сеть. Не имеет отношения к распознаванию цифр вообще.
Я не уверен, что Вы правильно меня поняли, поэтому опишу свой вопрос подробнее.

В первом примере с XOR написано:
У нас 2 входящих нейрона и один нейрон на выходе

Один нейрон «голосует» за результат XOR-а, т.е. за 0 или 1, и возвращаемое значение из интервала [0,1] мы интерпретируем как 0 или 1 в зависимости от того, к какому краю интервала ближе, а отклонение — как меру возможной ошибки. Скажем, чем ближе к 0.5, тем сложнее коррекно интерпретировать результат. Верно?

Во входном слое нам необходимо 28x28=784 нейрона, на выходе 10 нейронов

В задаче с цифрами есть 10 различных вариантов, то есть мы хотим получить чуть больше 3 битов информации.
Если делать по аналогии с тем, что написал выше, то должно быть 4 выхода по числу бит, которые мы хотим получить.
Если же мы говорим, что каждому варианту должен соответствовать свой выход и нейросеть голосует за каждый вариант отдельно, то в задаче с XOR должно быть 2 выхода.
Если мы говорим, что в задаче с XOR достаточно одного выхода, потому что «голос за 0» = 1 — «голос за 1» и нечего подавать на выход избыточную информацию, то в задаче с цифрами должно быть 9 выходов.

В общем, не получается у меня согласовать два примера, отсюда и вопрос.
Вообще, нейросеть не особо налагает ограничений на то, как интерпретировать выходной слой. Однако, обычно (более правильный вариант) — по одному нейрону на один возможный вариант ответа. В противном случае натренировать нейросеть (да ещё и получать стабильные результаты) становится сильно сложнее.
Вот то, что ф-ия обучения справилась с таким вот сложным случаем — XOR на сети с одним выходом — нередко показывают в качестве демонстрации крутости алгоритма обучения (эдакий канонический пример). В реальных задачах так делать не нужно.
UFO just landed and posted this here
Как-то слишком просто… От этого непонятно. Можете рассказать, как именно алгоритм обрабатывает изображения? Хочется понять, как просчитывает все эти чёрточки, кружочки и т.д.
Sign up to leave a comment.

Articles