Comments 5
codes = encoder.predict(x_test) sns.jointplot(codes[:,1], codes[:,3])```
Так вы рисуете гистограмму апостериорного p(Z|X), а не маргинального p(Z). Для получения последнего нужно взять мат. ожидание первого по x_test.
+1
Спасибо за пост
+1
Тут Andrey Ng поясняет, как делать back-propogation на скрытом слое «кода» с хитрым трюком, если в функции ошибки добавлен штраф на величину активаций скрытого слоя. Правда на примере KL-divergence, то все равно познавательно :-) https://web.stanford.edu/class/cs294a/sparseAutoencoder_2011new.pdf
+1
Sign up to leave a comment.
Автоэнкодеры в Keras, Часть 2: Manifold learning и скрытые (latent) переменные