摘要

人们普遍认为GAN难以训练,文献中的GAN架构充斥着经验技巧。我们提供了反对这一说法的证据,并以更有原则的方式建立了一个现代GAN基线。首先,我们推导出了一个行为良好的正则化相对论GAN损失,它解决了之前通过一系列特殊技巧解决的模式下降和不收敛问题。我们从数学上分析了我们的损失,并证明它允许局部收敛保证,这与大多数现有的相对论损失不同。其次,这种损失使我们能够抛弃所有临时技巧,用现代架构替换普通GAN中使用的过时骨干网。以StyleGAN2为例,我们提出了一个简化和现代化的路线图,该路线图产生了一个新的极简主义基线——R3GAN(“Re-GAN”)。尽管简单,但我们的方法在FFHQ、ImageNet、CIFAR和Stacked MNIST数据集上超越了StyleGAN2,并与最先进的GAN和扩散模型进行了比较。 论文地址