舍弃谱归一化,这篇ICCV’21论文用梯度归一化训练GAN,效果极好

选自arXiv
作者:Yi-Lun Wu等
机器之心编译
编辑:Geek AI
用梯度归一化解决 GAN 由于陡峭梯度空间造成的训练不稳定问题, 这篇 ICCV 2021 的新方法在 FID 和 IS 两种指标上均优于现有方法 。
近年来, 生成对抗网络(GAN)取得了巨大的成功, 它能够根据给定的先验分布合成新的数据, 该技术对超分辨率、域风格迁移等应用都有所帮助 。 根据最原始的定义, GAN 由两个网络构成:(1)生成器, 旨在生成能够欺骗判别器的逼真样本;(2)判别器, 通过学习将真实样本与由生成器生成的样本区分开来 。
当下最先进的 GAN 可以生成足以骗过人类的高质量图像, 但是其训练过程的不稳定仍然是一个具有挑战性的问题 。 因此, 近期一系列的研究工作都着眼于解决不稳定训练的问题 。 判别器陡峭的梯度空间是造成不稳定的 GAN 训练的原因之一, 它会导致在生成器的训练过程中出现模式崩溃 。 尽管 L2 归一化和权重裁剪这些简单的方法可以有效地使 GAN 训练过程更加稳定, 但是这些额外的约束限制了判别器的模型容量 。 这样一来, 相较于学着生成真实图像, 生成器会更倾向于欺骗判别器 。
另一种流行的方法是通过对判别器应用正则化或归一化, 将判别器形式化定义为一个利普希茨连续的函数(Lipschitz continuous function), 其利普希茨常数为 K 。 这样, 在不大幅度牺牲判别器性能的条件下, 判别器的梯度空间会变得更平滑 。
对判别器施加利普希茨约束有三种特点:
模型或模块级别的约束 。 如果约束目标依赖于完整的模型而不是内部模块的总和, 我们就将该方法定义为一个模型级别的约束;反之, 我们将其定义为一个模块级别的约束 。 例如, 梯度惩罚(1-GP)就是一种模型级别的约束, 而谱归一化(SN)则是一种模块级别(层级别)的约束 。 我们认为, 模型级别的约束更好, 这是因为模块级别的约束会限制层的模型容量, 从而成倍地降低神经网络的能力;
基于采样或基于非采样的约束 。 如果某种方法需要从固定的样本池中采样数据, 则该方法为基于采样的约束 。 例如, 1-GP 中具有正则化操作, 因此它是一种基于采样的约束;而由于归一化仅仅依赖于模型架构, 所以 SN 是一种非采样的约束 。 由于基于采样的方法可能对于之前没有采样到的数据无效, 因此我们认为基于非采样的方法的性能优于基于采样的方法;
【舍弃谱归一化,这篇ICCV’21论文用梯度归一化训练GAN,效果极好】硬约束或软约束 。 如果带约束的判别器的函数空间中任何函数的利普希茨常数都小于等于一个固定的有限值, 则该方法为一种硬约束, 否则该方法为一个软约束 。 例如, SN 是一种硬约束, 其中固定的有限值等于 1;1-GP 通过正则化过程松弛了约束的严格性, 因此它没有有限的上界 。 由于一致的利普希茨常数保证了对未见过的数据的梯度稳定性, 我们认为硬约束的性能优于软约束 。
在近日的一篇论文中, 来自阳明交大(NYCU)的研究者提出了一种新的归一化方法——梯度归一化(gradient normalization, GN), 该方法旨在解决 GAN 由于陡峭的梯度空间造成的训练不稳定问题 。 不同于现有的梯度惩罚和谱归一化等方法, 梯度归一化方法为判别函数施加了一个硬的 1 – 利普希茨约束, 从而提升了判别器的性能 。 此外, 对梯度归一化方法稍加修改, 就可以将其用于不同的 GAN 架构 。 研究者在四个数据集上进行了大量的实验, 实验结果表明使用梯度归一化训练的 GAN 在 Frechet Inception 距离(FID)和 Inception Score(IS)两种指标上的性能优于现有的方法 。


特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。