Комментарии 13

Без формул, ага, ну как же)
Блин, чувак, я реально вижу впервые такое простое представление перцептрона.
Подожди-ка, то-есть каждый нейрон обрабатывает результат предыдущих нейронов? ПередЦепьТрон?
И возврат также устроен?
Ну и должно же быть ещё сужение или расширение канала, то есть не может быть последовательности нейронов слоëв по одному, там должен же быть какой-то шахматный порядок количества нейронов по слоям, что и достигается "суммированием",- иначе работать это всë не будет.
Спасибо )
Отвечу просто .... Возврат устроен также.
Здесь рассматриваться пример полносвязной сети (когда каждый нейрон на предыдущем слое передает результат во ВСЕ нейроны следующего слоя).
Варианта передачи, по сути, может быть ТОЛЬКО ДВА. Они показаны на 2х последних рисунках.
Что касается "сужения/расширения канала" при обратном распространении. Если я правильно понял.... то это отдельные оптимизации. Можно рандомно "выключить" часть нейронных связей между слоями. В представленном коде "фреймворка" этих фич нет.
Давайте тогда скажем не сужение или расширение канала, а централизация или децентрализация, -так будет складываться более верное представление.
Также, кстати, нейросеть в некотором смысле это шифрование и дешифрование.
Слово "перцептрон" вроде как не русское. Оно скорее образовано в английском языке на основе слова perception (восприятие) или других подобных слов. А потом представлено в русском языке просто русскими буквами.
А знаете почему не всë интуитивно понятно в устройстве нейросети? Может потому-что графическое представление еë не верно, просто слои может нужно рисовать как окружность в окружности, и каждую такую окружность ещё по градусу симметрично делить на количество нейронов.
Ну и можно было-бы ещё на пальцах, то есть графический этот алгоритм показать, или пожирнее выделить:
К примеру, то что значение h1 это не просто h1, а целая цепочка вес такой-то и такой-то...
Обратное распространение ошибки… на пальцах… без формул