Comments 8
в стосороктысячмиллионный раз я вижу такую статью на хабре, да хватит уже, все это знают.
Продолжить изучение Machine Learning и Data Science вы сможете на наших курсах.
Вводных статей по теме нейронных сетей куча. В том числе с использованием только
numpy
. Ваша статья (хоть и является переводом) отличается сравнительно малым количеством информации.Хорошая реклама курса — это не когда вы переводите какую-нибудь главу из книги по нейронным сетям (что может сделать почти любой тех. специалист), а когда вы сами на основе своего опыта можете сделать что-то гораздо большее, чем обучить персептрон на XOR. В статье вы показали только то, что можете перевести главу из книги.
Я вас понимаю. Но замечу, что именно эта статья в первоисточнике набрала 44000 хлопков. Это относительная редкость. Причина — доходчивость материала. Именно она пару лет назад была ответом на вопрос о том, что такое нейросеть в Google, в самых верхних результатах. Понимать и объяснять доступно, понятно для большой массы людей — это очень разные таланты.
Также обратите внимание, что у статьи 46 закладок на 4600 просмотров. Другими словами, примерно каждый сотый просмотревший статью человек решил отложить её, чтобы прочитать. Один процент — это много, если вдуматься и сравнить. Тема по-прежнему актуальна.
Когда я переводил свою первую статью на Хабр, несколько лет назад, я очень волновался: "Да кому она здесь нужна, где каждый первый сам читает на английском?". Но очень хотелось поделиться и с теми, кому комфортнее читать на русском языке. За пару десятков лет существования Хабр стал очень массовым и состоит не только из тех. специалистов. Посмотрите на количество аккаунтов Read-Only: оно огромное. А ещё добавьте тех, кто читает Хабр без регистрации. Интересуется, размышляет, творит.
Почему школа, самая основная задача которой — научить, рассказать и показать так, чтобы было понятно, не может перевести материал, вызвавший у людей огромный отклик, понравившийся по самым разным причинам? Посмотрите статью ниже об интерфейсах на Python. Её также подбирал я. Мы не возьмём в работу "первое попавшееся". Но да, конечно, когда человек — уже специалист и ищет специфичную информацию, а натыкается на десятки и десятки объяснений основ, это сначала раздражает, а затем удручает. Поэтому я понимаю и вас, и комментарий выше.
Интересно как сохранять результат обучения, чтобы следующий запуск давал последующее обучение?! И сколько на это потребуется ресурсов?!
Сохраняются веса, то, что мы обучаем. При дообучении можно их восстанавливать, тем самым продолжая предыдущую попытку.
Ресурсы в зависимости от сложности сети, количества слоев и связей между ними, общего количества параметров. От нескольких байт, как в этом примере, до гигабайтов.
модуль pickle вам в помощь
Вот так выглядит нейросеть без фреймворков