深度学习⑨GANs

Discriminative and Generative Models

Deep learning中主要两种模型

·  判别模型专注于从输入预测输出,例如分类任务。学习数据点和标签之间的特征

·  生成模型则试图理解数据是如何产生的,能够生成新的数据样本。理解数据分布和是否可以被预测

Quiz time: Discriminative models

Given some input data X and the corresponding labels Y, discriminative models maximize:

A. P(X, Y)

B. P(Y|X)

C. P(Y)

D. P(X|Y)

判别模型的目标是学习给定输入X的情况下,输出Y的条件概率,即x存在情况下,y的概率。这允许模型直接从输入预测输出,这正是判别模型的核心功能。理解这一点对于区分判别模型和生成模型至关重要。

So判别模型通过估计条件概率P(Y|X)来学习类别之间的决策边界。它们可以用于分类任务。

关键点:判别模型专注于区分不同的类别,而不是生成新的数据。

判别模型的主要目标是学习如何区分不同类别的数据。它们直接学习从输入到输出的映射,而不需要理解数据的生成过程。这使得判别模型在分类任务中非常有效。

Discriminative models learn the decision boundary between classes by estimating the conditional probability P(Y|X). They can be used for classification tasks.

图中的决策边界展示了模型如何将输入空间划分为不同的类别区域。这种可视化有助于理解判别模型的工作原理。

卷积神经网络(CNNs)也是判别模型的例子。CNNs在图像分类等任务中表现出色,正是因为它们善于学习区分不同类别的特征。

生成模型通过估计P(X,Y)来学习数据的底层分布(什么样的输入特征(X)和什么样的输出结果(Y)经常一起出现?),并且可以从这个分布中生成新的数据点。可以创建与训练数据相似的新数据样本。

核心目标是理解和模拟数据的生成过程。通过学习数据的联合分布P(X,Y)或边缘分布P(X),这些模型能够生成新的、看起来真实的数据样本。

这种能力使得生成模型在许多应用中非常有用,例如图像生成、数据增强、异常检测等。VAEs、GANs和扩散模型是当前最先进的生成模型,每种模型都有其独特的优势和应用场景。

GANs简介

什么是GANs?

  • 由Ian Goodfellow在2014年引入(NIPS 2014)

这是机器学习历史上的一个重要时刻。GANs的提出引起了广泛的关注,因为它提供了一种新的、创新的方法来生成逼真的数据。自那时起,GANs已经在多个领域产生了重大影响,特别是在图像生成和编辑方面。

具体来说就是一类生成模型,其中两个神经网络(生成器和判别器)在博弈论框架下一起训练。

核心思想是通过两个相互竞争的神经网络来训练生成模型:

  1. 生成器(Generator): 尝试创建看起来真实的假数据。
  2. 判别器(Discriminator): 尝试区分真实数据和生成器创建的假数据。

这两个网络在训练过程中相互对抗,不断改进。这种方法借鉴了博弈论的思想,两个网络就像是在玩一个零和游戏。

GANs如何工作

  1. 生成器的定义: x_j* = g[z_j, θ]         z噪音输入 θ是生成器参数

生成器利用 θ 来将随机噪声转换为尽可能接近真实数据的样本 xj

GANs的基本结构和工作流程:

  1. 生成器(G)接收随机噪声作为输入。
  2. 生成器创建假样本。
  3. 判别器(D)接收真实样本和生成的假样本。
  4. 判别器尝试区分真实样本和假样本。
  5. 系统根据判别器的反馈更新生成器和判别器。

这个过程不断重复,直到生成器能够创建出判别器无法区分真假的样本。

训练GAN

  1. 生成器G接收随机噪声z作为输入。
  2. 生成器创建假样本x*。
  3. 判别器D接收真实样本x和假样本x*。
  4. 判别器输出对每个样本是真实的概率估计。
  5. 系统计算损失函数。
  6. 基于损失函数更新生成器和判别器的参数。

GAN损失函数

最小损失函数,所以要加符号,-(负类+正类)

判别器的二元(真实或生成)交叉熵损失函数: 假设真实样本x的标签y=1,生成的样本x*的标签y=0 这样预测对就是0 错就有损失函数

注意:对θ最大化,因为我们希望生成的样本被错误分类!生成器的目标是最大化判别器错误分类的概率 so生成器的损失函数目标是最小化判别器的损失。

  • θ代表生成器的参数,z_j是输入的随机噪声。

判别器试图最小化这个损失,而生成器试图最大化它,这就创造了对抗性的训练动态。

极小极大博弈和纳什均衡Minimax game and Nash equilibrium

  • GAN训练被描述为极小极大博弈(博弈论)。
  • 解决方案是纳什均衡。
  • 例子:囚徒困境

在博弈论中,当每个玩家的策略对于其他玩家的策略都是最优的时,就达成了纳什均衡。没有玩家可以通过单方面改变策略来获益,而其他玩家的策略保持不变。

解释:

  1. GAN训练被视为一个极小极大博弈,其中生成器试图最大化判别器的错误,而判别器试图最小化自己的错误。
  2. 纳什均衡是这个博弈的理想解决方案,它代表了生成器和判别器达到的一个平衡点。
  3. 囚徒困境是博弈论中的一个经典例子,用来说明纳什均衡的概念。

在这个情况下,纳什均衡是双方都选择背叛对方,因为这能确保双方都不会冒更大风险(虽然合作能获得更好的总体结果,但背叛能避免最差的结果)。因此,双方最终选择背叛,以保证自己只受到较轻的惩罚。

GAN训练的目标是找到一个平衡点,在这个点上,生成器和判别器都无法通过单方面改变策略来改善自己的表现。

测验时间:纳什均衡

场景1纳什均衡是(Y,X),即玩家A选择Y,玩家B选择X。因为就算B去选择Y,也只是1,1,若A改变去选x反而更差

同理场景2纳什均衡是 (Y,X)

GAN收敛

  • GAN收敛时生成器和判别器的特征是什么?

生成器应能产生与真实数据几乎无法区分的样本,而判别器应该无法可靠地区分真实和生成的样本

  • 在什么时候GAN处于生成器达到最大值而判别器达到最小值的情况,并且它们都无法通过更新权重来获得更多收益?

即达到纳什平衡时,生成器和判别器的博弈达到一个平衡点。这个点,生成器试图最大化判别器犯错的概率,而判别器试图最小化这种错误率。最终,生成器无法再通过更新权重获得更多收益,判别器也无法通过调整进一步提高性能。理想的收敛点是当判别器的准确率接近50%时,这意味着它基本上在猜测,无法区分真实和生成的样本

  • 对生成器来说最好的情况是什么?这对判别器意味着什么?

生成判别器完全无法区分的样本。这意味着判别器将完全失效,为所有样本给出0.5的概率。

  1. 生成器的目标是生成遵循真实数据分布p_x的样本。
  2. 当GAN收敛时,判别器对任何输入给出0.5的概率,表示它无法区分真实和生成的样本。

DCGAN: 使用GAN生成图像

使用深度卷积生成对抗网络(DCGAN)生成图像

DCGAN的基本结构:

  1. 生成器接收随机噪声作为输入。
  2. 通过一系列反卷积(转置卷积)层,生成器逐步生成图像。
  3. 判别器接收真实图像和生成的图像作为输入。
  4. 判别器通过一系列卷积层来判断图像的真实性。

DCGAN是GAN在图像生成任务中的一个重要应用。它利用了卷积神经网络在处理图像数据方面的优势,使得GAN能够生成高质量的图像。

DCGAN生成的图像

DCGAN在生成逼真人脸方面的能力还不错。这些图像看起来相当真实,显示了不同的面部特征、表情和角度。

GANs的局限性和解决方案

GANs训练的困难

  • 不稳定和缓慢的训练Instable and slow training
  • 模式丢失/崩溃Mode dropping / collapse
  • 梯度消失Vanishing gradients

解释:

  1. 不稳定训练: GAN的训练过程可能非常不稳定,容易出现振荡或发散。
  2. 缓慢训练: 由于需要同时训练两个网络,GAN的训练可能非常耗时。
  3. 模式丢失/崩溃: 生成器可能只学会生成有限种类的样本,无法捕捉数据的全部多样性。
  4. 梯度消失: 在训练过程中,梯度可能变得非常小,导致学习停滞。

单纯理解就是 log作为损失函数 值越大 梯度越小

GAN的损失函数和Jensen-Shannon散度
  • 判别器的损失函数
  • 生成样本分布和真实样本分布之间的Jensen-Shannon散度(JSD)

  1. 判别器的损失函数是一个二元交叉熵损失,用于衡量判别器区分真实和生成样本的能力。
  2. Jensen-Shannon散度是衡量两个概率分布相似度的一种方法。在GAN中,它用于衡量生成的数据分布与真实数据分布的接近程度。
  3. GAN的训练过程可以被视为最小化生成分布和真实分布之间的JSD。

[图表显示了两个概率分布Pr(x*)和Pr(x)]

JSD有两个主要方面:质量(quality)和覆盖性(coverage)。质量指的是生成样本与真实样本的接近程度,覆盖性指的是生成样本是否能够涵盖真实数据分布的各个模式。

关键点:

  • JSD的一部分不依赖于生成器。
  • 生成器没有动力增加覆盖范围和对抗模式丢失!

解释:

  1. JSD的计算涉及这两个分布,但其中一部分只依赖于真实分布,与生成器无关。
  2. 这导致生成器缺乏直接的激励来增加其生成样本的多样性,可能导致模式崩溃问题。

然而,单靠JSD无法完全衡量生成器的覆盖能力,这意味着模型可能在训练中没有足够动力去生成完整的数据分布,导致模式丢失的现象。
GANs中的梯度消失
  • 真实样本和生成样本通常位于低维空间中。(虽然整体处于高维,但是真实的处于低维流体上)
  • 这些子空间之间几乎没有或根本没有重叠。
  • 真实和生成样本分布不相交也就是生成数据和真实的在低维空间没有重叠的可能性很高。
  • 这就导致生成器无法有效学习

梯度消失问题的原因。

图表显示: (左) 三维空间中的两条线。 (右) 三维空间中的两个曲面。2 line will not Intersect in space

解释:

  1. 高维空间中的低维流形很难有重叠。这意味着真实数据和生成数据可能位于完全分离的子空间中。
  2. 当真实和生成的分布完全分离时,判别器可以轻易地完美区分它们。
  3. 这导致判别器的梯度变得非常小或为零,使得生成器难以从判别器获得有用的反馈来改进其生成。

解释:

  1. 图表展示了当判别器变得越来越好时,其损失函数的梯度如何变小。
  2. 当判别器能够完美区分真实和生成的样本时,梯度接近于零
  3. 这导致生成器无法从判别器获得有用的反馈来改进其生成。

原始GAN的训练困境:

  • 要么:判别器变得太强,导致生成器的梯度消失,从而减慢或停止学习。
  • 或者:生成器过快变强,导致判别器更新不准确和训练结果不佳。
  • 需要找到一个微妙的平衡,这使得原始GAN公式的训练变得困难。

解释:

  1. 如果判别器学习得太快,它可能会完全压制生成器,导致生成器无法学习。
  2. 如果生成器学习得太快,判别器可能无法提供准确的反馈,导致整体训练质量下降。
  3. 理想的情况是两个网络保持相对平衡,但这在实践中很难实现。

理解这个困境对于理解为什么GANs难以训练以及为什么需要开发新的训练技术和损失函数很重要。

GANs的局限性和解决方案

改善GANs的训练稳定性

  • JSD不能为不相交的分布提供平滑和连续的度量

What about using a different distance metric?

  • 使用不同的距离度量如何?
  • Wasserstein距离(离散分布的Earth Mover's距离) 衡量两个分布的差异
  • 将一个分布转换为另一个分布所需的最小能量/工作量

解释:

  1. JSD在分布不重叠时会突然跳变0到log2,这不利于提供平滑的梯度。
  2. Wasserstein距离提供了一种更平滑的度量,即使在分布不重叠时也能提供有用的梯度。
  3. Wasserstein距离可以理解为将一个分布"搬运"到另一个分布所需的最小工作量。Minimum quantity of energy/work required to transform a distribution to the shape of another one

图表显示了JSD(D_JS)和Wasserstein距离(W)在不同分布重叠程度(θ)下的变化。当θ≠0时,两种度量都能提供有用的信息,但当θ=0(分布不重叠)时,只有Wasserstein距离能提供非零梯度。

其他改善GAN训练的方法
  • 渐进式增长 Progressive Growing
    • 开始学习生成小图像
    • 添加层以训练生成更大的图像
    • 擅长生成高分辨率真实图像
  • 小批量判别 Mini-batch discrimination
    • 计算跨小批量的特征统计
    • 作为特征图添加到判别器中
    • 有助于防止模式崩溃
  • 截断技巧 Truncation
    • 减少覆盖范围以提高质量

解释:

  1. 渐进式增长:通过gradually增加生成器和判别器的复杂度,可以更好地学习多尺度特征,最终生成高质量大图像。
  2. 小批量判别:通过考虑整个批次的统计信息,而不是单个样本,可以帮助判别器识别更多样化的样本,减少模式崩溃。
  3. 截断技巧:通过限制潜在空间的范围,可以在牺牲一些多样性的情况下提高生成样本的质量。

GANs的变体

条件生成Conditional generation

  • 生成具有特定属性的真实图像Generating realistic images with
  • specific attributes

条件GAN允许在生成过程中控制某些特定属性。例如,在生成人脸图像时,可以指定性别、年龄、表情等属性。这大大增加了GAN的实用性和可控性。

StyleGAN

  • 改进的图像质量和控制
  • 多阶段生成器,受转换后的潜在变量和噪声影响
  • 渐进式增长

解释:

  1. StyleGAN通过引入新的网络架构,显著提高了生成图像的质量和可控性。
  2. 它使用多阶段生成器,允许在不同的空间尺度上控制图像特征。
  3. 潜在变量经过非线性变换后用于控制生成过程,这增加了对生成图像风格的控制。
  4. 引入噪声输入增加了生成图像的细节变化。
  5. 采用渐进式增长策略,逐步增加图像分辨率,有助于生成高质量大尺寸图像。

·  风格层(Style Layer):在StyleGAN中,生成器不再直接从潜在空间(latent space)采样生成图像,而是通过一个“风格网络”来注入风格信息。这种风格信息可以控制生成图像的不同层次,例如粗粒度的特征(如脸型)和细粒度的特征(如皱纹)。

·  混合风格(Style Mixing):StyleGAN允许将多种风格混合在一起,比如将一个人的整体面部特征与另一人的发型或光影效果结合,产生新的生成结果。

·  逐层控制:不同于传统GANs,StyleGAN允许我们在不同的生成层次上控制图像的样式,这意味着我们可以分别控制大尺度的特征(如脸型、姿态)和小尺度的细节(如皮肤纹理)。

结论

  • GANs学习一个生成器网络,将随机噪声转换为与训练集无法区分的数据,以及一个判别器网络,试图区分真实样本和生成的样本。
  • 生成器被更新,使得生成的数据被判别器识别为更"真实"。
  • 原始GAN公式存在梯度消失和模式崩溃的问题。
  • 后续公式如Wasserstein GAN (WGAN)提供了更一致的训练信号。
  • 条件GAN和StyleGAN允许对输出进行更多控制。
上一篇:链表反转——带有头节点


下一篇:docker安装部署