【深度学习】DIP:Deep Image Prior

Posted by ShawnD on August 24, 2022

Abstract

深度卷积网络已经成为一种流行的图像生成和恢复工具。一般来说,其优异的性能归功于其从大量样本图像中学习真实图像先验的能力。这篇文章表明, 恰恰相反, 生成器网络的 structure 足够捕获大量 low-level image statistic prior 用以任何学习。为了做到这一点,作者展示了一个随机初始化的神经网络可以作为一个手工制作的先验,在标准的逆问题,如去噪,超分辨率,和着色中有很好的结果。此外, 相同的先验可以用来 invert deep neural representations 来诊断它们, 并且给予 flash-nofalsh 输入对恢复图像。

除了其多样化的应用, 该方法突出了由标准生成器网络架构捕获的归纳偏置。它还弥合了两种非常流行的图像恢复方法之间的差距: 使用深度卷积网络的基于学习的方法和基于手工图像先验(如自相似性)的无学习方法。

Discussion

这篇文章调研了最近图像生成网络的成功, 将结构选择的先验贡献从通过学习迁移自外部图像的信息贡献中分离出来。特别地,作者展示了将随机初始化的ConvNet转换为图像复原问题的一把“Swiss knife”。对于大多数实际应用来说,这种方法可能太慢了,而且对于每个特定的应用,针对该特定应用训练的前馈网络会做得更好,速度更快。因此,当考虑实际应用时,缓慢和无法匹配或超过问题特定方法的结果是该方法的两个主要限制。虽然实用性有限,但该方法在各种各样的任务中取得的良好结果表明,深度卷积网络结构中的隐式先验是这种结构成功用于图像恢复任务的重要组成部分。

为什么会出现这种情况,更重要的是,为什么它在自然图像的结构中表现得如此出色?作者推测,通过卷积运算生成的图像自然倾向于自相似性(c.f.g . 5),因为卷积滤波器应用于整个视野,从而使卷积层的输出具有一定的平稳性。具有跳跃连接的 U 型结构自然地在多个尺度上产生自相似性,使相应的先验适合于自然图像的恢复。

作者注意到,该结果在一定程度上与常见的解释深度学习在图像恢复(和超越)中的成功的叙事相反,这是通过学习能力而不是手工先验; 相反,作者展示了正确手工制作的网络架构对应于更好的手工制作的先验,似乎学习ConvNets建立在这个基础上。这一观察结果也证实了开发新的深度学习结构的重要性。