Как стать автором
Обновить

Комментарии 17

Пахнет светлым Азимовско-Хофштадтерским будущим!
У меня у одного картинки схем не грузятся?
НЛО прилетело и опубликовало эту надпись здесь
Просто автор радостно пытается сделать ссылки по https на гугл =\
Автор, залей на habrastorage! Он для того и создан.
НЛО прилетело и опубликовало эту надпись здесь
Вы наверное имели ввиду какую-то конкретную область применения нейросети? Потому что как обычный классификатор нейросети уже вполне хорошо себя зарекомендовали.
Нейросетевой аппроксиматор можно по таблице обучить, например, в Deductor, а затем использовать в своих программах/железе, без переобучения. Например, можно так получить регуляторы для системы АБС или впрыска топлива в двигатель.
Буквально на днях хотел заняться серией статей про SOM/GNG/SOINN, но Вы меня опередили этой темой)
советую заняться, ибо в этой пока информации минимум, я бы почитал про алгоритмы обуения, глянул бы эксперименты, думаю не только мне интересно
Хорошее описание SOINN на русском.
У меня стойкое ощущение, что это очень похоже на Neural Gas…
Базовая двуслойная версия SOINN похожа. Но дальнейшие модификации этой технологии уже похожи только одним, нет ограничений по размеру сети и данные постоянно пополняются.
Было бы интересно посмотреть на карту данной сети, хотя бы принципиальную. На сколько я понял, это что-то вроде двух соединенных между собой сетей Кохонена.
Сеть Кохонена(надо полагать вы имеете в виду Самоорганизующиеся карты Кохонена) предполагает отображение исходного пространства в пространство меньшей размерности предполагая, что топологические свойства искомых множеств при этом не сильно пострадают. А тут сеть строится в пространстве исходной размерности, что позволяет избежать артефактов при понижении размерностей.
Кроме того в SOM топология сети фиксированная, а в SOINN она зависит от топлогии подаваемых на вход множеств.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации