Это так, но только если сравнивать программу снаружи — действительно, всего 12 видео по 10-12 минут, разве это сравнится с программой технического вуза в 90 вопросов или с учебником Фихтенгольца в 300 страниц первого семестра?
На самом деле эти видео не направлены на формальное строгое изложение всей программы, они направлены на объяснение ключевых моментов. И объяснения в них качественно другие. Пусть и не всегда строгие, но направленные именно на понимание, что здесь происходит.
И кто лучше знает анализ — средний студент вуза, вызубривший, но не понимающий формулу Тейлора (а студенты через полгода-год обучения в среднем именно такие), или же посмотревший эти видео человек, который может объяснить, почему аппроксимирующий многочлен аппроксимирует функцию, нарисовать его график, и вывести эту самую формулу сам?
P.S. не очень хочу спорить про качественность учебников, особенно таких классических, но в том же Фихтенгольце график аппроксимирующего многочлена даётся впервые через обоже 14 страниц выкладок. Нельзя так. Вчерашнему школьнику по формуле ряда косинуса абсолютно не очевидно, что он в некотором приближении похож на косинус.
Не меньше, а то и больше. Есть серии Essence of linear algebra и Essence of calculus, которые запросто могут заменить курс линейной алгебры и анализа, соответственно (причём смотреть на порядок интереснее и понятнее, чем обычный курс университета).
Мы их сейчас переводим, кстати. Можно поучаствовать — в телеграм @pieceofchaos, ну или в личку в вк.
Нет, на входе нейрона взвешенная сумма нейронов предыдущего слоя.
Новое значение каждого нейрона в текущем слое равно сумме результатов умножения значения каждого предыдущего нейрона на вес связи между предыдущим нейроном и текущим нейроном.
Z1 = W1⋅X + b1
Далее мы определяем функцию активации и она обрабатывает выход предыдущего слоя, прежде чем он поступит на следующий слой.
Значит, вычисления, которые мы производим на скрытом слое, примут вид: A1 = ReLU(Z1) и Z1=W1⋅X + b1
А вычисления на выходном слое примут вид: A2 = Sigmoid(Z2) и Z2=W2⋅A1 + b2
На самом деле эти видео не направлены на формальное строгое изложение всей программы, они направлены на объяснение ключевых моментов. И объяснения в них качественно другие. Пусть и не всегда строгие, но направленные именно на понимание, что здесь происходит.
И кто лучше знает анализ — средний студент вуза, вызубривший, но не понимающий формулу Тейлора (а студенты через полгода-год обучения в среднем именно такие), или же посмотревший эти видео человек, который может объяснить, почему аппроксимирующий многочлен аппроксимирует функцию, нарисовать его график, и вывести эту самую формулу сам?
P.S. не очень хочу спорить про качественность учебников, особенно таких классических, но в том же Фихтенгольце график аппроксимирующего многочлена даётся впервые через обоже 14 страниц выкладок. Нельзя так. Вчерашнему школьнику по формуле ряда косинуса абсолютно не очевидно, что он в некотором приближении похож на косинус.
Мы их сейчас переводим, кстати. Можно поучаствовать — в телеграм @pieceofchaos, ну или в личку в вк.
Далее мы определяем функцию активации и она обрабатывает выход предыдущего слоя, прежде чем он поступит на следующий слой.
Пережитки времён, когда нативного не было.
Каким именем вас упомянуть в титрах?