Как стать автором
Обновить

Комментарии 12

Зачем очередная статья про то, как писать нейронные сети с нуля?

Затем, что нет ни одной нормальной статьи про это.
В итоге мы имеем еще одно руководство из разряда «как рисовать сову».
Извините, но не могу не спросить, а какие темы должны, по вашему мнению, раскрываться в подобной статье? Мне действительно интересно.
Чтобы научиться рисовать сову, надо рисовать сову
самое лучшее, что читал — это книга Тарика Рашида. Вот где реально на пальцах, шаг за шагом и с нуля строят нейронку.
Да, отличная книга. Еще очень неплохой вводный курс
Зачем очередная статья про то, как писать нейронные сети с нуля?

Действительно, зачем? Предыдущая была меньше недели назад. Я читаю этот хаб четвертый год, и вижу, что подобные статьи выходят с завидной регулярностью.

Увы, я не смог найти статьи, где были бы описаны теория и код с нуля до полностью работающей модели. Сразу предупреждаю, что тут будет много математики.

Вы плохо искали.
Ну или сработало когнитивное искажение — автор долго разбирался с нейросетями, статьи не помогали, а когда автор таки разобрался, ему показалось, что теперь-то он может описать лучше.

Но, если статьи действительно не помогали, то автор сможет быстрее научить других, подобных себе. Как минимум.

Простите, а при чём здесь когнитивное искажение автора?
Уверен, Амос Тверски и Даниэль Канеман с Вами бы не согласились, обратив внимание на принадлежность именно Вашего суждения к обозначенному Вами же понятию. Впрочем, Герд Гигеренцер сказал бы, что в этом нет никакого изъяна.


Я читаю хаб с 2006 года, и вижу, что статьи выходят с завидной регулярностью. И это хорошо, потому что всегда есть, что почитать.


Вы плохо искали.

Утверждение будет иметь ценность, только если Вы сами укажете ссылки на статьи,


где были бы описаны теория и код с нуля до полностью работающей модели.

Не сочтите, пожалуйста, за труд — поделитесь полезной информацией.


Считаю, что подобные статьи не несут в себе ничего плохого.
Спасибо.

Простите, а при чём здесь когнитивное искажение автора?

Когнитивное искажение здесь, на мой взгляд, в том, что материал, который автор ещё не изучил вдоль и поперек, в чужих статьях кажется сложным, но когда автор сам разобрался в этом материале, ему кажется, что подать этот материал понятным образом легко.

Я читаю хаб с 2006 года, и вижу, что статьи выходят с завидной регулярностью. И это хорошо, потому что всегда есть, что почитать.

Забавно, потому что в контексте нейросетей я говорил про хаб «Машинное обучение», который добавили примерно в 2014.

Утверждение будет иметь ценность, только если Вы сами укажете ссылки на статьи. Не сочтите, пожалуйста, за труд — поделитесь полезной информацией.

Первые попавшиеся статьи из десятков постов такого плана:
habr.com/ru/post/459822
habr.com/ru/post/456738
habr.com/ru/post/440190
habr.com/ru/post/322438
habr.com/ru/post/417063

Обзор материалов про «нейросети с нуля», в котором есть ссылки ещё на кучу таких статей:
habr.com/ru/post/417209

Понятно, что здесь статьи самого разного качества, и некоторые из них могут быть хуже данной, но мой тезис в том, что постов по основам нейросетей и по тому, как их написать «с нуля», на хабре полно.
Есть и строгие математические определения, и разборы «на пальцах».

Если кому-то понадобится разобраться в этой теме, на хабре уже есть все необходимые материалы для этого, и контент типа этой статьи не несёт ничего оригинального и нового, просто пересказывая другим языком то, что было обговорено уже сотню раз. Так в чем же его полезность?
Так в чем же его полезность?



Считаю, что подобные статьи не несут в себе ничего плохого.



Большое спасибо за ссылки по теме!


TL;DR

Остальное, простите — вода, не имеющая к теме никакого отношения.
Когда идёт обсуждение тех или иных персональных качеств авторов статей, это угнетает не только авторов статей, но и читателей. А хотелось бы конкретных замечаний по теме статьи. Какие ошибки допустил автор, какие имеются пути для оптимизации, для масштабирования, какое прикладное решение в той или иной области можно найти, отталкиваясь конкретно от этой (или иной) статьи, примеры кода… То есть всё то, чем так и славен этот ресурс. И без навешивания ярлыков.
Я читаю хаб с 2006 года. Но темой «Машинное обучение» начал интересоваться только в 2019 году. Поэтому, в первую очередь (и это логично) читаю самые свежие статьи на эту тему, особенно те, где показываются рабочие примеры современного программирования. Теория хорошо. Но интерес многих читателей лежит в области современного практического применения. Вот именно это и есть то важное, что делает подобные статьи полезными, раз Вы об этом спросили. Если аргументировать обобщённо, все физические процессы — это процессы во времени. Не исключение и языки программирования, которые со временем развиваются и меняются. И порой на столько, что примеры из кучи уже имеющихся по той или иной тематике статей становятся или устаревшими или уже не рабочими.
По этой причине, считаю приток «свежей крови» — делом полезным во всех отношениях.


Простите. Ничего личного. Это замечание касается всех нас (и меня в том числе).

Алгебра при описании нейронных сетей, это ложное усложнение. Чтобы написать нейронную сеть с нуля достаточно арифметики. Вот пример который я пытаюсь допилить (https://github.com/JanHarmoshka/intellection/blob/master/readme.pdf).
Точность низкая, это да. Но ведь работает. И кто скажет что это не нейронная сеть?
Когда-то я был тоже в какой-то степени «очарован» нейросетями…
Но сейчас я остаюсь приверженцем точных математических методов и довольно косо смотрю на сети. Да, нейросети неплохо работают с картинками (пожалуй, это наиболее популярный метод работы с ними). Во всех остальных направлениях они работают «косо и криво».
А по «двадцать пятому» разу распознавать MNIST как это делает Рашид и прочие авторы книжек «просто и в одном направлении» — это не комильфо.
Ну да, можно ещё податься в Big Data одев мантию и колпак со звёздами и играться хоть до опупения, только вот стоит ли оно потраченного времени. Каждый решает сам.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации