Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Пока не будет решена проблема однопоточности вычислительных систем, о самообучающихся нейронных сетях можно только мечтать.
Так же не стоит исключать то, что человеческий мозг, в отличии от машины многопоточный. Мы управляем своей тушкой сознательно, но бессознательно мы получаем еще уйму информации о состоянии «системы» и окружающей среды
You have to realize that our theoretical tools are very weak. Sometimes, we have good mathematical intuitions for why a particular technique should work. Sometimes our intuition ends up being wrong.
Every reasonable ML technique has some sort of mathematical guarantee. For example, neural nets have a finite VC dimension, hence they are consistent and have generalization bounds. Now, these bounds are terrible, and cannot be used for any practical purpose. But every single bound is terrible and useless in practice (including SVM bounds).
_/ — никакого особенного мат. обоснования тут нет, просто вычислять это быстрее, и работает не хуже на практике (а часто лучше).Скажите, а на вход вашей библиотеки надо строку передавать — или можно поток байт кинуть, а кодировку она сама определит?
Minh Lê 2 июня 2014 г.:
Regarding driverless cars: this finding should not be a problem to them because they examine many samples per second and it is unlikely that «adversarial examples» occur in majority.
Christian Szegedy 2 июня 2014 г.
Agreeing with Minh.
For all the networks we studied (MNIST, QuocNet [10], AlexNet [9]), for each sample, we always manage to generate very close, visually indistinguishable, adversarial examples that are misclassified by the original network
A relatively large fraction of examples will be misclassified by networks trained from scratch with different hyper-parameters (number of layers, regularization or initial weights)
A relatively large fraction of examples will be misclassified by networks trained from scratch trained on a disjoint training set
Некоторые особенно пессимистичные выводы попросту неверны.
Если их между собой смешать вы получите птичку, которая сдвинута выше, а полосатые зоны на крыльях подсвечены. Но новым признаком это явно не является.

Веса, влияющие на какой-то один определенный выходной нейрон могут быть распределены среди произвольного количества нейронов предыдущего слоя — главное чтобы в сумме они достигали его порога.
Что скрывают нейронные сети?