Комментарии 9
Большое человеческое спасибо!
0
Напоминает шпаргалки для сдачи экзаменов.
+3
НЛО прилетело и опубликовало эту надпись здесь
Отличная сборка, спасибо!
0
Если честно, то я бы убрал первую картинку, т.к. она откровенно вредная. Мало того, что она толком ничего не объясняет — одной топологии недостаточно чтобы объяснить чем отличается один тип нейронной сети от другой, так еще и топология местами нарисована с ошибками.
К примеру
— Что такое kernel в сверточной сети (deep convolutional network), и почему он идет перед первыми свертками?
— Чем отличаются feed forward и radial basis network?
— Почему у SVM несколько скрытых слоев? Если речь идет о нелинейных SVM, то возможно стоило влепить kernel сюда? Что за хитрые скрытые слои, которые принимают по одному входу? Ну и строго говоря причислять SVM к Neural Networks это несколько грубо.
— Почему в GAN дважды встречается Match input output Cell? Что такое Match input output Cell в принципе? Если это просто штука которая сравнивает поэлементно входы-выходы, то в GAN такого в чистом виде не происходит.
— Почему skip connections в Deep Residual Network связывают только часть нейронов? Строго говоря, не совсем корректно показывать skip connections так же как и обычные соединения. В DRN skip connections это всегда сложение, более сложные случаи уже не называют residual (Dense connections, например).
К примеру
— Что такое kernel в сверточной сети (deep convolutional network), и почему он идет перед первыми свертками?
— Чем отличаются feed forward и radial basis network?
— Почему у SVM несколько скрытых слоев? Если речь идет о нелинейных SVM, то возможно стоило влепить kernel сюда? Что за хитрые скрытые слои, которые принимают по одному входу? Ну и строго говоря причислять SVM к Neural Networks это несколько грубо.
— Почему в GAN дважды встречается Match input output Cell? Что такое Match input output Cell в принципе? Если это просто штука которая сравнивает поэлементно входы-выходы, то в GAN такого в чистом виде не происходит.
— Почему skip connections в Deep Residual Network связывают только часть нейронов? Строго говоря, не совсем корректно показывать skip connections так же как и обычные соединения. В DRN skip connections это всегда сложение, более сложные случаи уже не называют residual (Dense connections, например).
+4
Наоборот, тем кто далек от этого это визуальное представление, что есть что то кроме простого перцептрона и 2х уровневой сетки. А дальше можно самому искать информацию по каждому типу. Много раз видел поддержку сетей в opencv, но не так интересен просто список, сколько визуальное представление.
ps работа не связана с нейронными сетями, просто интерес
ps работа не связана с нейронными сетями, просто интерес
0
Только у меня некоторые картинки слишком мелкие, чтобы прочитать часть текста? «Открыть картинку в новой вкладке» не помогает, надо идти по ссылке в конце статьи.
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Памятки по искусственному интеллекту, машинному обучению, глубокому обучению и большим данным