论文阅读_变分自编码器_VAE

2023-11-14

英文名称: Auto-Encoding Variational Bayes
中文名称: 自编码变分贝叶斯
论文地址: http://arxiv.org/abs/1312.6114
时间: 2013
作者: Diederik P. Kingma, 阿姆斯特丹大学
引用量: 24840

1 读后感

VAE 变分自编码(Variational Autoencoder)是一种生成模型,它结合了自编码器和概率图模型的思想。它的目标是:解决对复杂性高,且量大的数据难以拟合的问题。具体方法是:使用基于变分推理的原理,以变分下界作为目标函数,用梯度方法求取模型参数。

2 通俗理解

听起来非常抽象,简单地说:变分自编码器是自编码器的改进版。

2.1 自编码器

自编码器通常由编码器和解码器两部分组成,其中编码器将原始数据映射到低维表示,解码器则将低维表示映射回原始数据空间。即:原始数据为x,将其输入编码器降维后,变成数据z,再经过编码器还原成数据 x’。它常用于高维数据的低维表示从低维表示中生成高维数据。比如:图像去噪,修复图片,生成高分辨率图片等。

2.2 变分自编码器

变分自编码器在中间加了一层逻辑,它假设中间过程的数据 z 每个维度都是正态分布的,可以使用:均值 μ 和 方差 σ 表示。由此,就变成了变分自编码器:训练编码器和解码器网络,可将图片x分布压缩后再拆分成多个高斯分布的叠加,如上图所示。

3 相关概念

3.1 高斯分布

使用高斯分布的原因是:每张训练图片的内容都不一样,训练过程中产生的潜空间z也是离散的,不能确定它的分布。比如数据有满月和半月,但无法产生2/3月亮。而高斯分布是连续的,如果能把中间的表征z用正态分布描述,它就是平滑的,理论上就可以产生介于两图之间的内容图片,它具有一定的潜在空间的连续性和插值性质。

3.2 高斯混合模型 GMM

可以想见,z的分布相当复杂,不是一个简单的高斯分布可以描述的。图中红色为分布曲线。它可分解为一系列不同频率、不同振幅、不同相位的正弦波。也就是说可以用多个正态分布(高斯分布)的叠加去逼近任意一个分布。可以说 VAE 是对 GMM 方法的改进版。

3.3 KL散度

用于衡量两个分布之间的距离。

3.4 最大似然估计

似然与概率类似,但有如下区别:给定一个函数 P ( x ∣ θ ) P(x|\theta) P(xθ) ,x是样本点, θ \theta θ是参数。
(1)当 θ \theta θ 为常量, x为变量时,称 P 为关于 x 的概率函数;
(2)当 x 为常量, θ \theta θ 为变量时,称 P 为关于 θ \theta θ 的似然函数;
求解最大似然是指:求使得样本点 x 能够以最大概率发生的 θ \theta θ 的取值。

3.5 变分推断

变分 Variational 是通过引入一个简化的参数化分布来近似复杂的后验分布。这个参数化分布被称为变分分布,它属于一种可计算的分布族。通过调整变分分布的参数,使其尽可能接近真实的后验分布,从而实现近似推断。

3.6 变分下界

变分下界(variational lower bound)通常用于衡量变分分布与真实后验分布之间的差异。
E L B O = E [ l o g   p ( x , z ) − l o g   q ( z ) ] ELBO = E[log\ p(x, z) - log\ q(z)] ELBO=E[log p(x,z)log q(z)]
其中,ELBO 代表变分下界(Evidence Lower BOund),x代表观测数据,z代表未知变量,p(x, z)表示真实的联合分布,q(z)表示变分分布。

3.7 代入本文中场景

有一张图 x(后验分布),想把它映射成 z,假设 z 是混合高斯分布(先验分布),各维可能描述颜色,材质……,用函数函数 g() 把 x 分解成高斯分布,它的逆过程是用 f() 根据高斯分布还原原始图 x‘ ,最终恢复的图片 x’=f(g(x)),目标是想让 x’-x 值尽量小,就是说:图 x 转成潜空间 z 再转回原始图 x’,图像最好没变化。
综上所述,无论x是什么,通过变换,产生的x’都与x很像,中间过程的 z 还能用高斯参数表示,求这样的函数f和g的神经网络。

3.8 蒙特卡洛估计

蒙特卡洛估计(Monte Carlo estimation)是一种基于随机抽样的统计估计方法,用于计算复杂问题的数值近似解。其基本思想是通过生成大量的随机样本,利用这些样本的统计特性来估计问题的解。

4 方法

(以下图和公式中的变量含义重新开始定义,不要与上面混淆)

先看一下论文主图,N是数据集,x是真实空间(可观察),z是潜空间(不可观察的连续空间);实线表示生成模型 pθ(z)pθ(x|z),虚线表示p的变分近似 qφ(z|x)(也称识别模型),文中使用的方法是用 qφ(z|x) 模拟难以计算的 pθ(z|x),变分参数 φ 与生成模型参数 θ 一起学习。这里的q可视为编码器,而p视为解码器。

4.1 变分边界

边界似然(Marginal Likelihood)是各观测数据点(每张图片)在给定模型下的概率之和(原图的概率),值越大模型越好,它描述的是图像重建的好不好(重建损失)。
l o g   p θ ( x ( 1 ) , ⋅ ⋅ ⋅ , x ( N ) ) = ∑ i = 1 N l o g   p θ ( x ( i ) ) log\ p_θ(x^{(1)}, · · · , x^{(N)}) = \sum^N_{i=1} log\ p_θ(x^{(i)}) log pθ(x(1),⋅⋅⋅,x(N))=i=1Nlog pθ(x(i))
各数据点的概率:
l o g   p θ ( x ( i ) ) = D K L ( q φ ( z ∣ x ( i ) ) ∣ ∣ p θ ( z ∣ x ( i ) ) ) + L ( θ , φ ; x ( i ) ) log\ p_θ(x(i)) = D_{KL}(q_φ(z|x^{(i)})||p_θ(z|x^{(i))}) + L(θ, φ; x^{(i)}) log pθ(x(i))=DKL(qφ(zx(i))∣∣pθ(zx(i)))+L(θ,φ;x(i))
前半部分 DKL 是z的模拟值和真实后验的 KL 散度,KL 散度一定大于0,后半部分 L 是变分下界(建模的目标):
log ⁡ p θ ( x ( i ) ) ≥ L ( θ , ϕ ; x ( i ) ) = E q ϕ ( z ∣ x ) [ − log ⁡ q ϕ ( z ∣ x ) + log ⁡ p θ ( x , z ) ] \log p_{\boldsymbol{\theta}}\left(\mathbf{x}^{(i)}\right) \geq \mathcal{L}\left(\boldsymbol{\theta}, \boldsymbol{\phi} ; \mathbf{x}^{(i)}\right)=\mathbb{E}_{q_{\boldsymbol{\phi}}(\mathbf{z} \mid \mathbf{x})}\left[-\log q_{\boldsymbol{\phi}}(\mathbf{z} \mid \mathbf{x})+\log p_{\boldsymbol{\theta}}(\mathbf{x}, \mathbf{z})\right] logpθ(x(i))L(θ,ϕ;x(i))=Eqϕ(zx)[logqϕ(zx)+logpθ(x,z)]
这里的E是期望,右测是变分下界 ELBO 的公式。
通过移项得到了变分下界的目标函数,公式如下:
L ( θ , ϕ ; x ( i ) ) = − D K L ( q ϕ ( z ∣ x ( i ) ) ∥ p θ ( z ) ) + E q ϕ ( z ∣ x ( i ) ) [ log ⁡ p θ ( x ( i ) ∣ z ) ] \mathcal{L}\left(\boldsymbol{\theta}, \boldsymbol{\phi} ; \mathbf{x}^{(i)}\right)=-D_{K L}\left(q_{\boldsymbol{\phi}}\left(\mathbf{z} \mid \mathbf{x}^{(i)}\right) \| p_{\boldsymbol{\theta}}(\mathbf{z})\right)+\mathbb{E}_{q_{\boldsymbol{\phi}}\left(\mathbf{z} \mid \mathbf{x}^{(i)}\right)}\left[\log p_{\boldsymbol{\theta}}\left(\mathbf{x}^{(i)} \mid \mathbf{z}\right)\right] L(θ,ϕ;x(i))=DKL(qϕ(zx(i))pθ(z))+Eqϕ(zx(i))[logpθ(x(i)z)]
目标函数是最大化变分下界(Variational Lower Bound):第一项 KL散度(Kullback-Leibler Divergence)衡量了潜在变量的分布与先验分布之间的差异(z的差异:越小越好),第二项 重建损失(Reconstruction Loss)衡量了重建样本与原始样本之间相似度(x为原图的概率:越大越好),所以整体 L 越大越好。

z 对应的多个高斯分布的均值和方差都不是固定的值,它们通过神经网络计算得来,神经网络的参数通过训练得到。

4.2 具体实现

这里引入了噪声变量e作为辅助变量,来实现 q 的功能。
z ~ = g ϕ ( ϵ , x ) \widetilde{z}=g_\phi(\epsilon,x) z =gϕ(ϵ,x)
对某个函数 f(z) 的期望进行蒙特卡洛估计,具体通过采样实现,其minibatch 是从有N个数据点的数据集中,随机抽取M个点:
L ( θ , ϕ ; X ) ≃ L ~ M ( θ , ϕ ; X M ) = N M ∑ i = 1 M L ~ ( θ , ϕ ; x ( i ) ) \mathcal{L}(\boldsymbol{\theta}, \boldsymbol{\phi} ; \mathbf{X}) \simeq \widetilde{\mathcal{L}}^{M}\left(\boldsymbol{\theta}, \boldsymbol{\phi} ; \mathbf{X}^{M}\right)=\frac{N}{M} \sum_{i=1}^{M} \widetilde{\mathcal{L}}\left(\boldsymbol{\theta}, \boldsymbol{\phi} ; \mathbf{x}^{(i)}\right) L(θ,ϕ;X)L M(θ,ϕ;XM)=MNi=1ML (θ,ϕ;x(i))
可以将KL散度看成限制参数φ的正则化项。而重建误差部分:先用函数 gφ(.) 将数据点 x 和随机噪声向量映射到该数据点的近似后验样本z,然后计算 log pθ(x(i)|z(i,l)),等于生成模型下数据点 x(i) 的概率密度,从而计算重建误差。

4.3 变分自编码器

在变分自编码器的场景中,先验是中心各向同性的多元高斯分布:
log ⁡ q ϕ ( z ∣ x ( i ) ) = log ⁡ N ( z ; μ ( i ) , σ 2 ( i ) I ) \log q_{\boldsymbol{\phi}}\left(\mathbf{z} \mid \mathbf{x}^{(i)}\right)=\log \mathcal{N}\left(\mathbf{z} ; \boldsymbol{\mu}^{(i)}, \boldsymbol{\sigma}^{2(i)} \mathbf{I}\right) logqϕ(zx(i))=logN(z;μ(i),σ2(i)I)
其中均值和标准差是编码 MLP 的输出。由于是高斯分布:
z ( i , l ) = g ϕ ( x ( i ) , ϵ ( l ) ) = μ ( i ) + σ ( i ) ⊙ ϵ ( l ) z^{(i,l)} = g_\phi(x^{(i)}, \epsilon^{(l)}) = μ^{(i)} + σ^{(i)} \odot \epsilon^{(l)} z(i,l)=gϕ(x(i),ϵ(l))=μ(i)+σ(i)ϵ(l)
引入高斯分布的KL散度,最终目标函数是:

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

论文阅读_变分自编码器_VAE 的相关文章

随机推荐

  • MySQL redo log及recover过程浅析

    MySQL redo log及recover过程浅析 写在前面 作者水平有限 欢迎不吝赐教 一切以最新源码为准 InnoDB redo log 首先介绍下Innodb redo log是什么 为什么需要记录redo log 以及redo l
  • MATLAB实现滑动平均滤波法的实例(移动平均滤波器)

    原始信号 0 03 1 46 0 26 0 47 1 46 0 06 0 47 1 27 0 15 0 47 1 47 0 01 0 47 1 27 0 17 0 63 1 37 0 15 0 88 1 07 0 25 0 88 1 27
  • 三极管来源,及NPN与PNP区别

    之前给大家分享过晶体管的知识 今天又继续为大家分享相关的内容 一 回顾历史 在分享三极管NPN和PNP之前 先给大家分享一些相关基础知识 1 电子管 在晶体管出现之前 有一种作用和晶体管类似的器件 叫做电子管 1904年 世界上第一只电子二
  • 数据大清洗_Numpy进阶(数组排序)(数组去重与重复)(数组统计分析)

    目录 一 数组排序 二 数组去重与重复 三 数组统计与分析 一 数组排序 sort 函数是最常用的排序方法 arr sort sort 函数也可以指定一个 axis 参数 使得 sort 函数可以沿着指定轴对数据集进行排 序 axis 1
  • Python学习的注意点(内容不全,个人学习使用)

    此笔记只记录一些比较特殊的基础知识点 并不能作为 python 学习的全部内容 数据类型 我们可以通过 type 语句来得到数据的类型 语法 type 被查看类型的数据 标识符 运算符 算术 数学 运算符 赋值运算符 复合赋值运算符 字符串
  • NIO与IO的区别

    NIO与IO的区别 IO是面向流的 而NIO是面向缓冲区的 NIO会把数据读取到一个稍后处理的缓冲区中 需要时可以在缓冲区前后移动 这就增加了处理过程中的灵活性 IO流是阻塞式的 当一个线程在执行read 或write 方法时 线程转为阻塞
  • 关于 Collection 用于 .xml 文件的使用及说明

    一 关于Collection 在 xml中设置 让一对多数据返回成 list 集合形式 首先看使用方式 注 collection 中的 property 类型必须是 SysUser创建对应的哦 Mybatis 会自动将非 SysUser对象
  • HCIA-Big Data华为认证大数据工程师在线课程笔记

    文章目录 一 简介 二 HDFS分布式文件系统 三 MapReduce分布式离线批处理和Yarn资源协调 四 Spark2 x基于内存的分布式计算 五 HBase分布式NoSQL数据库 HBase架构 关键流程和特性 FusionInsig
  • Linxu (Redhat/Centos)开机省略输入用户名、密码直接进GUI

    1 编辑 etc gdm custom conf为如下 GDM configuration storage daemon AutomaticLoginEnable true AutomaticLogin root TimedLoginEna
  • linux kernel5.* kworker+进程cpu持续高占用

    最近平台linux操作系统内核升级至5 版本后出现kworker 进程高占用 内核降至4 时没有问题 通过搜索相关资料规避方案如下 内核启动参数加入 usbcore autosuspend 1 禁用usb设备自动挂起 具体步骤 1 编辑 e
  • ESP32开发板手动更换外置的flash

    ESP32开发板手动更换外置的flash 实物板 风险提示 操作有风险 需谨慎 新手请勿模仿 第一步拿下屏蔽罩 用热风枪 360 吹下来的 第二步 更换flash芯片 ESP32 D0WDQ6芯片下方那个就是flash芯片了型号 25VQ3
  • Docker基本概念

    一 为什么使用容器 1 上线流程繁琐 开发 gt 测试 gt 申请资源 gt 审批 gt 部署 gt 测试等环节 2 资源利用率低 普遍服务器利用率低 造成过多浪费 3 扩容 缩容不及时 业务高峰期扩容流程繁琐 上线不及时 4 服务器环境臃
  • SpringBoot 集成fastJson

    第一步 添加fastjson 依赖
  • Flutter跨平台移动端开发丨封装网络请求框架 dio

    dio 框架介绍 A powerful Http client for Dart which supports Interceptors Global configuration FormData Request Cancellation
  • Windows下Anaconda及Python指令

    日常记录 一 CUDA 1 已安装CUDA版本查看 nvcc version or nvcc V 二 Anaconda 1 查看安装的所有环境 conda env list or conda info env 2 查看该环境下有那些库 co
  • 零基础学Python

    作者主页 编程指南针 作者简介 Java领域优质创作者 CSDN博客专家 CSDN内容合伙人 掘金特邀作者 阿里云博客专家 51CTO特邀作者 多年架构师设计经验 腾讯课堂常驻讲师 主要内容 Java项目 Python项目 前端项目 人工智
  • Faster-RCNN算法详解

    Faster CNN结构图 以下是Faster RCNN的结构图 上图中的目标检测包含了包括region proposal 生成ROI feature extraction 特征提取网络 classification ROI分类 regre
  • 有C++基础如何直接上手QT?

    文章目录 一 QT的发展 二 支持平台 三 QT的版本 四 QT的安装与下载 五 QT的优点 六 创建Qt项目 6 2 手动创建 6 3 pro 文件 七 一个简单的Qt应用程序 一 QT的发展 1991年 Qt最早由奇趣科技开发 1996
  • h5第三方登录—微信登录

    第一步 用户同意授权 获取code 第二步 通过code换取网页授权access token 第三步 刷新access token 如果需要 第四步 拉取用户信息 需scope为 snsapi userinfo 检验授权凭证 access
  • 论文阅读_变分自编码器_VAE

    英文名称 Auto Encoding Variational Bayes 中文名称 自编码变分贝叶斯 论文地址 http arxiv org abs 1312 6114 时间 2013 作者 Diederik P Kingma 阿姆斯特丹大