Как стать автором
Обновить

Комментарии 22

релизовывал такую в универе в качестве курсовой по нейросетям на 4-м курсе на делфи
делал по книге Осовского
у вас на графике ошибка, которая, кстати, видна в коде — у сети нет входа, сеть пережёвывает собственный выхлоп, куда и надо положить исходные данные. Вы не закладываете ей на вход данные — вы его укладываете в выход и делаете итерацию
у Осовского правильный график, но в книге довольно туманное описание. На то, чтобы допереть до этого, мне понадобилось 2 дня
хм… какой график?
Код ровно соответветствует мат.постановке задачи: S(0) — входной образ, + есть определение S(t+1) = f(S(t)). S(t+1) == S(t) — условие окончания.
Архитектура сети изображена на рис. 2.
на рисунке есть вход
у нейросети хопфилда нет входа, даже твоё мат описание тому подтверждение
Это вопрос терминологии, что называть «входом». В статье входом называется начальное состояние сети S(0), ровно то, о чем Вы говорите «у сети нет входа, сеть пережёвывает собственный выхлоп». И да, вход можно представить как S(0) = f(S(-1)), т.е. «вы его укладываете в выход и делаете итерацию»
нет, это очень важно! мы тут не детские рисунки обсуждаем, а вполне серьёзную математическую модель
две большие разницы — сеть со входом и сеть без входа
вот правильный график моделиimage
Это не входы, а стрелки, обозначающие текущее состояние S(t). Но, возможно, Вы правы, и во избежание недопонимания следует это поправить.
Статья хорошая, но как-то не совсем на пальцах. Я и в универе не понял эти нейронные сети, и сколько уже статей прочитал, которые «на пальцах» их объясняют, но так и не понял, как оно обучается, и как распознает. Вот картинка, вот формула, смотрите — все работает. Ни в коем случае не говорю, что статья плохая, дело, конечно, во мне, просто хочется найти, наконец, статью, в которой действительно на пальцах, без трехэтажных формул, на аналогиях и примерах это все объясняется. Вот это было бы «на пальцах». Другой вопрос, возможно ли эту тему объяснить без формул — не знаю.
Если интересно, в книге Малинецкого (в ссылках к статье) есть математическое доказательство, почему образ распознается. Основная мысль, в том, что там вводится некоторый потенциал, характеризующий сеть и сеть стремится к минимизации этого потенциала. А минимумы потенциала — как раз образы, на которых обучали. Т.е. сеть движется в потенциальную яму, которая и есть обученный образ. Основная проблема в сети Хопфилда, что кроме обученных минимумов появляются еще дополнительные «фантомные» локальные минимумы.
Но да, соглашусь, не факт, что можно ввести и объяснить динамику сети совсем без формул.
Спасибо, посмотрю.
предупреждаю сразу, математики и трехэтажных формул там сильно больше :-)
Могу представить )
Надо же хотя бы к 28 годам эту тему осилить, это же и ИИ, и распознавание образов, а когда ты занимаешься играми — такие вещи знать не помешает )
Очень рекомендую Вам попытаться осилить хотя бы половину известного курса www.coursera.org/learn/machine-learning#syllabus от Эндрю Ына (кстати 30-я мая старт новой сессии). Почти во всей литературе по теме к нейронкам приходят из анатомии строения мозга, Эндрю же «на пальцах» сначала объяснил регрессию, а потом из нее пришел к нейронкам. Формул немного и на них акцент он не делает.
karpathy.github.io/neuralnets — вот самое лучшее объяснение на пальцах, без трёхэтажных формул (есть двухэтажные, но они разжёваны до уровня школьной арифметики), прямо с основ, с примерами из реальности и с кодом. Требуется знание арифметики и понимание JS, ну или любого C-подобного кода, просто примеры на JS. Ничего лучше не читал по теме, жаль, что автор не написал книгу в таком стиле, я бы купил.
Очень прошу не использовать биологические аналогии. Пока неизвестно, как работает мозг, но не так :) Вообще, очень раздражает, когда физики и математики, обрастя премиями и забронзовев, лезут в нейрофизиологию, и за счёт своего авторитета в несмежной области вводят идиотские понятия и концепции.
«Услыхали физики про митоз,
И решили физики — наш вопрос!
Не пойти ли нам, друзья, в биологию?..»
Стих целиком: http://wwwinfo.jinr.ru/drrr/Timofeeff/auto/blumenfeld.html
Очень бы хотелось с вами согласиться, но на простейших организмах мы уже вполне тренируемся давать мелкие точечные заряды, реорганизуя «память» этих самых простейших.
Извините, а кто «мы», в профиле не нашёл. И ссылку на статью киньте, пожалуйста.
НЛО прилетело и опубликовало эту надпись здесь
тем не менее на такой частоте в процессоре переключается достаточно много транзисторов. т.е. регистр состоит из значительного числа сначала логических элементов, которые состоят, в свою очередь, из транзисторов.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Статья хорошая, вот только о тестировании сети маловато. Получается, что делали, делали, изучали разные формулы, писали код, а до практики не особо дотянули. Интересно было бы посмотреть процент верных ответов или практически установить зависимость между количеством нейронов и возможным количеством запоминаемых образов.
~ N/2logN
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории