Comments 16
Оригинал на английском (pdf, 270 КБ)
Что такое искусственные нейронные сети, смею полагать, очень многие, если не большинство здесь, уже так или иначе знают. А вот увидеть относительно обстоятельные и относительно простые для понимания статьи о конкретных типах сетей (и, желательно, не о хрестоматийных «персептронах» и их обучении «обратным распространением ошибки», а о более экзотических типа той же RBM) было бы занимательно. Тем не менее в любом случае спасибо за статью — тема интересна и внятные интры в Сети лишними не бывают.
UFO just landed and posted this here
Не соглашусь, с тем, что статья для новичков, а также не соглашусь с тем, что статья для профессионалов: данная статья предназначена для тех у кого есть какие-то начальные знания в области нейронных сетей, однако эти знания разрознены. Данная статья поможет систематизировать все имеющиеся начальные знания )
Хотел бы отметить работы Неймарка Юрия Исааковича — преподавателя Нижегородского Государственного Университета.
Мне посчастливилось у него учиться в свое время.
К сожалению умер в этом году, но его научные работы по нейронным сетям и их применениям остались навечно.
Мне посчастливилось у него учиться в свое время.
К сожалению умер в этом году, но его научные работы по нейронным сетям и их применениям остались навечно.
По-моему обычно говорят сигмоидальная функция активации, а не сигмовидная. Сигмовидная это кишка. Но могу ошибаться. В общем я зачет сегодня по нейронным сетям сдавал..)
Если общий вход выше пороговой величины, то выход блока равен единице, в противном случае – нулю. Таким образом, выход изменяется от 0 до 1, когда общая «взвешенная» сумма входов равна пороговой величине
Предложения не согласуются. По первому предложению выход не изменяется от нуля до единицы, а принимает значение 0 или 1.
Предложения не согласуются. По первому предложению выход не изменяется от нуля до единицы, а принимает значение 0 или 1.
в конце статьи опечатка выхвана
Что-то круто напутано с обратным распространением ошибки. Когда «весы (по-русски, кстати, правильно „веса“) и пороги меняются каждый раз, когда предоставляется новый пример» — это нормальная адаптация. Обратное распространение ошибки же связано с вычислением производной, а значит с выяснением того, какой вклад в ошибку вносит каждый слой. Непонятно, откуда взялась эта путаница.
«Позже, Минский и Паперт доказали, что простые пресептоны могут решать только очень узкий класс линейно сепарабельных задач»
Классическая ошибка, они этого не доказывали. Перцептрон Розенблатта может решать такие же задачи как и MLP от Румельхарда
Классическая ошибка, они этого не доказывали. Перцептрон Розенблатта может решать такие же задачи как и MLP от Румельхарда
Гуглпереводчиком что ли переводили? В некоторых местах причинноследственные связи в предожении перепутаны на столько, что смысл теряется. Целесообразнее было выложить текст в оригинале ИМХО.
Sign up to leave a comment.
Что такое искусственные нейронные сети?