Pull to refresh
22
0
Sciberia @Sciberia

Сообщество

Send message
Это так, но только если сравнивать программу снаружи — действительно, всего 12 видео по 10-12 минут, разве это сравнится с программой технического вуза в 90 вопросов или с учебником Фихтенгольца в 300 страниц первого семестра?

На самом деле эти видео не направлены на формальное строгое изложение всей программы, они направлены на объяснение ключевых моментов. И объяснения в них качественно другие. Пусть и не всегда строгие, но направленные именно на понимание, что здесь происходит.

И кто лучше знает анализ — средний студент вуза, вызубривший, но не понимающий формулу Тейлора (а студенты через полгода-год обучения в среднем именно такие), или же посмотревший эти видео человек, который может объяснить, почему аппроксимирующий многочлен аппроксимирует функцию, нарисовать его график, и вывести эту самую формулу сам?

P.S. не очень хочу спорить про качественность учебников, особенно таких классических, но в том же Фихтенгольце график аппроксимирующего многочлена даётся впервые через обоже 14 страниц выкладок. Нельзя так. Вчерашнему школьнику по формуле ряда косинуса абсолютно не очевидно, что он в некотором приближении похож на косинус.
Не меньше, а то и больше. Есть серии Essence of linear algebra и Essence of calculus, которые запросто могут заменить курс линейной алгебры и анализа, соответственно (причём смотреть на порядок интереснее и понятнее, чем обычный курс университета).

Мы их сейчас переводим, кстати. Можно поучаствовать — в телеграм @pieceofchaos, ну или в личку в вк.
Нет, на входе нейрона взвешенная сумма нейронов предыдущего слоя.
Новое значение каждого нейрона в текущем слое равно сумме результатов умножения значения каждого предыдущего нейрона на вес связи между предыдущим нейроном и текущим нейроном.
Z1 = W1⋅X + b1

Далее мы определяем функцию активации и она обрабатывает выход предыдущего слоя, прежде чем он поступит на следующий слой.
Значит, вычисления, которые мы производим на скрытом слое, примут вид:
A1 = ReLU(Z1)
и Z1=W1⋅X + b1

А вычисления на выходном слое примут вид:
A2 = Sigmoid(Z2)
и Z2=W2⋅A1 + b2
Вы кстати правы. Это название всего цикла статей, добавили «часть 1» в заголовок.
Это камень в огород любителей зачем-то городить нативный функционал на js.

Пережитки времён, когда нативного не было.
Мы сделали! :)

Да, это Python. Код на самом деле не важен, он там просто для примера.
Основная проблема в том, что оригинал получился слишком громкий. Исправимся :)
Почему бы и нет, субтитры вполне хорошие, возьмём :)
Каким именем вас упомянуть в титрах?

Information

Rating
Does not participate
Registered
Activity