Комментарии 13
Интересное чтиво. Пробовал оригинал прочитать, но не осилил. Спасибо за перевод
0
Хорошая книга для начального ознакомления. По структуре напоминает чем-то курс udacity.
0
Тема хорошая, но ввиду взлета популярности ML и огромного количества доступного материала на эту тему, все-таки ждешь чего-то более интересного и свежего, чем сухая теория из середины прошлого века. Плюсом, здесь же, на Хабре, уже имеется немало всего по нейросетям, от Яндекса, например.
+1
Выходной слой имеет один нейрон, который содержит выходное значение, если оно больше, чем 0.5, то на изображении «9», иначе нет.
Вот это место совсем непонятно.
0
Скорее всего автор имел в виду то, что на выходном значении нейронам мы имеем вероятность принадлежности к классу, если вероятность больше чем 50%, то скорее всего данный объект принадлежит к классу «9», то есть простыми словами, входе мы получили изображение девятки с вероятностью больше 50%.
«This can be useful, for example, if we want to use the output value to represent the average intensity of the pixels in an image input to a neural network. But sometimes it can be a nuisance. Suppose we want the output from the network to indicate either „the input image is a 9“ or „the input image is not a 9“. Obviously, it'd be easiest to do this if the output was a 0 or a 1, as in a perceptron. But in practice we can set up a convention to deal with this, for example, by deciding to interpret any output of at least 0.5 as indicating a „9“, and any output less than 0.5 as indicating „not a 9“. I'll always explicitly state when we're using such a convention, so it shouldn't cause any confusion.»
«This can be useful, for example, if we want to use the output value to represent the average intensity of the pixels in an image input to a neural network. But sometimes it can be a nuisance. Suppose we want the output from the network to indicate either „the input image is a 9“ or „the input image is not a 9“. Obviously, it'd be easiest to do this if the output was a 0 or a 1, as in a perceptron. But in practice we can set up a convention to deal with this, for example, by deciding to interpret any output of at least 0.5 as indicating a „9“, and any output less than 0.5 as indicating „not a 9“. I'll always explicitly state when we're using such a convention, so it shouldn't cause any confusion.»
0
Я правильно понимаю что предполагается суета вида «а не единица ли это? А не двойка ли это? Ну а может тройка это?»
И так перебор принадлежности ко всем имеющимся классам.
И так перебор принадлежности ко всем имеющимся классам.
0
Думаю, что так и есть, как нейросеть оперирует цифрами и перемножениями в точности неизвестно, но она формирует массив вероятностей принадлежности к каждому классу и берет максимальную вероятность и соотвествующий ей класс. Как то так
0
Так и есть. Если нейросеть занимается задачей классификации, то количество выходных нейронов = количеству классов.
0
Ну если по простому, то тренировка нейронной сети — это просто попытка подобрать такие веса у всех нейронов в сети при которых, на максимальном количестве обучающих изображений, результат на выходе был бы как можно ближе к 1 для тех изображений где есть «9» и максимально близок к 0 для тех изображений где её нет. Соответственно, когда мы скармливаем новое изображение нейронной сети с подобранными весами мы оцениваем выход, если он больше 0.5 — значит то что скормили похоже на 9.
0
Почему то все статьи про нейронные сети описывают одно и то же
Прочитал одну считай прочитал все
Прочитал одну считай прочитал все
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Использование нейронных сетей для распознавания рукописных цифр Часть 1