Comments 8
А есть визуальные "Вах!" примеры "до экондера" и "после энкодера"?
Вах примеров нет 🤔, если все правильно работает, по сути изображение остаётся почти таким же, только несколько теряет в деталях
Ну хотя-бы "так себе" примеры, главное, чтобы не совсем отстойные, чтобы смысл использовать технологию не терялся.
https://www.tensorflow.org/tutorials/generative/autoencoder?hl=ru
В первом приближении картинки до и после можно здесь посмотреть
Авто: означает что процесс является автоматическим
Я, конечно, сильно извиняюсь, но меня учили иначе. Увы, подтверждающих ссылок сходу не нашёл.
А именно: авто- в автоэнкодере следует понимать в совершенно классическом, прямо-таки греческом смысле, т.е. он "самоэнкодер" или "самокодировщик". И это "само" относится к входному/выходному сигналам (или даже пространствам). Кодировать можно по-разному, можно, например, числа кодировать буквами или наоборот. AE делают не так, и это важное их свойство. Подобный аргумент для меня по крайней мере звучит убедительнее, нежели написанное у Вас.
Зачем писать про регуляризацию в "просто о сложном", тоже не вполне понятно. Про дискретные значения тоже только читателя путаете: чем верхняя картинка отличается от нижней? Если снизу признаки дискретные, то сверху - нет? Как в VAE что ли?.. Или нет? В каком смысле Вы тогда это слово используете в разных случаях?
Я из вашей статьи так и не понял, как внутри устроены вариационные автоэнкодеры и в чём разница. Ожидал что про них ещё пара параграфов будет, статья как-то внезапно закончилась.
Автоэнкодеры простыми словами