Comments 13
название библиотеки, очень созвучно с названием рухнувшей финансовой пирамиды ))) Kairos Technologies
удачи вам и хорошего дня )))
удачи вам и хорошего дня )))
-13
>Начиналась разработка, как мы уже говорили, с Theano, но со временем добавился Tensorflow. Сейчас Keras по умолчанию работает именно с ним
А известно, почему перешли с Theano на TF?
Особенно это интересно в контексте:
>Также код Keras работает на Tensorflow пока медленнее, чем на Theano
А известно, почему перешли с Theano на TF?
Особенно это интересно в контексте:
>Также код Keras работает на Tensorflow пока медленнее, чем на Theano
+1
История достаточно простая, кстати, она упомянута в статье — Google (кажется, в лице DeepMind) предложил Франсуа работу — чтобы он на полную ставку занимался развитием Keras. Из этого непосредственно следует переход на TF, как основной бэкенд.
То, что работает медленнее — это особенности реализации Keras API на TF. В новых версиях Keras и TF код будет более согласованным и, как следствие, быстрым.
То, что работает медленнее — это особенности реализации Keras API на TF. В новых версиях Keras и TF код будет более согласованным и, как следствие, быстрым.
+5
О, спасибо
Это несколько забавно в свете того, что у DeepMind есть свой Sonnet (вроде как тоже обертка над TF)
Это несколько забавно в свете того, что у DeepMind есть свой Sonnet (вроде как тоже обертка над TF)
0
Sonnet был открыт только на днях, а Keras уже полтора года существует в open-source.
Также стоит сказать, что Sonnet более удобен для своих задач, например, с рекуррентными сетями.
На мой взгляд Google может себе позволить разрабатывать внутри две конкурирующие библиотеки: больше конкуренции, выше качество. Так что все вокруг в плюсе, а для Google затраты несущественные.
Также стоит сказать, что Sonnet более удобен для своих задач, например, с рекуррентными сетями.
На мой взгляд Google может себе позволить разрабатывать внутри две конкурирующие библиотеки: больше конкуренции, выше качество. Так что все вокруг в плюсе, а для Google затраты несущественные.
+6
Для тех кому интересно более детально почитать на тему развития глубокого обучения (последний график в статьей) в академической среде с точки зрения публикаций рекомендую статью — A Peek at Trends in Machine Learning
0
А как мы в последнем примере получили 2-х мерные вектора если выход последнего слоя сети — 128?
0
Спасибо за статью. Можете пояснить, почему в embeddings лежат двумерные вектора? Это ведь выход Sequential, последний слой которого возвращает вектор размерности 128.
0
Подпись к графику: Там можно посмотреть, например, как менялся loss на валидационной выборке, но сам график показывает val_acc. Разве нет?
0
Sign up to leave a comment.
Библиотеки для глубокого обучения: Keras