
Variational Autoencoder (VAE)
Omni-Space
专注Android, Mobile Security and AI
展开
-
只知道GAN你就OUT了——VAE背后的哲学思想及数学原理
引言 短短三年时间,变分编码器VAE(Variational Auto-encoder)同GAN一样,成为无监督复杂概率分布学习的最流行的方法。VAE之所以流行,是因为它建立在标准函数逼近单元,即神经网络,此外它可以利用随机梯度下降进行优化。本文将解释重点介绍VAE背后的哲学思想和直观认识及其数学原理。VAE的最大特点是模仿自动编码机的学习预测机制,在可测函数之间进行编码、解码。同GAN类似,其最...转载 2017-06-12 16:44:47 · 7330 阅读 · 1 评论 -
Tutorial on Variational AutoEncoders
本文是《Tutorial on Variational AutoEncoders》一文部分翻译的内容。1.介绍generative model,学习高维数据的概率分布P(X)P(X)。学习到不同维度之间的相互依赖关系,比如手写数字的生成模型如果生成了8的左边一半像素,那么剩下的像素也就能够随之确定。latent variable,给予生成模型一些信息用来生成数据。比如一个生转载 2018-01-16 14:15:56 · 1443 阅读 · 0 评论 -
An intuitive understanding of variational autoencoders without any formula
I love the simplicity of autoencoders as a very intuitive unsupervised learning method. They are in the simplest case, a three layer neural network. In the first layer the data comes in, the secon转载 2018-02-06 10:32:05 · 713 阅读 · 0 评论 -
GAUSSIAN MIXTURE VAE: LESSONS IN VARIATIONAL INFERENCE, GENERATIVE MODELS, AND DEEP NETS
Not too long ago, I came across this paper on unsupervised clustering with Gaussian Mixture VAEs. I was quite surprised, especially since I had worked on a very similar (maybe the same?) concept a few...转载 2018-03-12 13:53:33 · 1972 阅读 · 1 评论 -
谷歌大脑Wasserstein自编码器:新一代生成模型算法
白悦、许迪 变分自编码器(VAE)与生成对抗网络(GAN)是复杂分布上无监督学习主流的两类方法。近日,谷歌大脑 Ilya Tolstikhin 等人提出了又一种新思路:Wasserstein 自编码器,其不仅具有 VAE 的一些优点,更结合了 GAN 结构的特性,可以实现更好的性能。该研究的论文《Wasserstein Auto-Encoders》已被即将在 4 月 30 日于温哥华举行的 ICL...转载 2018-04-19 12:12:03 · 4777 阅读 · 0 评论