Pull to refresh

Comments 16

Что такое искусственные нейронные сети, смею полагать, очень многие, если не большинство здесь, уже так или иначе знают. А вот увидеть относительно обстоятельные и относительно простые для понимания статьи о конкретных типах сетей (и, желательно, не о хрестоматийных «персептронах» и их обучении «обратным распространением ошибки», а о более экзотических типа той же RBM) было бы занимательно. Тем не менее в любом случае спасибо за статью — тема интересна и внятные интры в Сети лишними не бывают.
Все же классический вариант перевода — «обратное распространение ошибки». Присоединяюсь к предыдущему комментатору — на порядок интересней было бы узнать об экзотических, не хрестоматийных случаях.
UFO just landed and posted this here
Не соглашусь, с тем, что статья для новичков, а также не соглашусь с тем, что статья для профессионалов: данная статья предназначена для тех у кого есть какие-то начальные знания в области нейронных сетей, однако эти знания разрознены. Данная статья поможет систематизировать все имеющиеся начальные знания )
UFO just landed and posted this here
Прошу прощения, оговорился. Имел в виду «соглашусь с тем, что статья не для профессионалов» )
Хотел бы отметить работы Неймарка Юрия Исааковича — преподавателя Нижегородского Государственного Университета.

Мне посчастливилось у него учиться в свое время.

К сожалению умер в этом году, но его научные работы по нейронным сетям и их применениям остались навечно.

Предлагаю Вам сделать обзор его работ. Лично мне приведенная фамилия, увы, не знакома
По-моему обычно говорят сигмоидальная функция активации, а не сигмовидная. Сигмовидная это кишка. Но могу ошибаться. В общем я зачет сегодня по нейронным сетям сдавал..)
Спасибо, сейчас исправим. )
Если общий вход выше пороговой величины, то выход блока равен единице, в противном случае – нулю. Таким образом, выход изменяется от 0 до 1, когда общая «взвешенная» сумма входов равна пороговой величине
Предложения не согласуются. По первому предложению выход не изменяется от нуля до единицы, а принимает значение 0 или 1.
Что-то круто напутано с обратным распространением ошибки. Когда «весы (по-русски, кстати, правильно „веса“) и пороги меняются каждый раз, когда предоставляется новый пример» — это нормальная адаптация. Обратное распространение ошибки же связано с вычислением производной, а значит с выяснением того, какой вклад в ошибку вносит каждый слой. Непонятно, откуда взялась эта путаница.
«Позже, Минский и Паперт доказали, что простые пресептоны могут решать только очень узкий класс линейно сепарабельных задач»

Классическая ошибка, они этого не доказывали. Перцептрон Розенблатта может решать такие же задачи как и MLP от Румельхарда
Гуглпереводчиком что ли переводили? В некоторых местах причинноследственные связи в предожении перепутаны на столько, что смысл теряется. Целесообразнее было выложить текст в оригинале ИМХО.
Only those users with full accounts are able to leave comments. Log in, please.