天天看点

BokehMe: When Neural Rendering Meets Classical Rendering

论文地址:https://openaccess.thecvf.com/content/CVPR2022/papers/Peng_BokehMe_When_Neural_Rendering_Meets_Classical_Rendering_CVPR_2022_paper.pdf

代码地址:https://github.com/JuewenPeng/BokehMe

BokehMe: When Neural Rendering Meets Classical Rendering

摘要

我们提出了 BokehMe,这是一个混合的虚化渲染框架,将神经渲染器与经典的物理驱动渲染器结合在一起。给定单个图像和可能不完美的视差图,BokehMe 可以生成具有可调节的模糊大小、焦平面和光圈形状的高分辨率照片般逼真的虚化效果。为此,我们分析了经典的基于散射的方法的误差,并推导出计算误差图的公式。基于这个公式,我们通过基于散射的方法实现了经典渲染器,并提出了一种两阶段神经渲染器来修复经典渲染器中的错误区域。神经渲染器采用动态多尺度方案来有效处理任意模糊大小,并经过训练以处理不完美的视差输入。实验表明,我们的方法在具有预测视差的合成图像数据和真实图像数据上都优于以前的方法。进一步进行用户研究以验证我们方法的优势。

1. 介绍

虚化(bokeh)效果指的是镜头在照片中呈现焦外模糊的方式,如下图 1 所示。通过不同的镜头设计和配置,可以创造各种虚化风格。例如,光圈可以控制虚化球的形状。经典渲染方法[6,20,31,40]可以通过控制模糊核的形状和大小来轻易改变虚化的风格。但是它们的缺点是在深度不连续处会有伪影。神经渲染方法[11,25,32]通过从图像统计中学习来处理这个问题,不过它们的问题是很难模拟真实的虚化球并且仅能产生训练数据中的虚化风格。另外,之前的神经渲染方法缺乏在高分辨率图片上产生大模糊大小的机制,原因是神经网络固定的感受野以及受限于训练数据的模糊大小。

BokehMe: When Neural Rendering Meets Classical Rendering

为了实现没有伪影以及高度可控的虚化效果,我们提出了一个新的混合框架,命名为 BokehMe,它通过融合经典渲染器和神经渲染器的结果来充分利用各自的优点,如下图 2 。我们将基于散射的方法[31]作为我们的经典渲染器。为了确定这种方法可能在哪个区域渲染出明显的边界伪影,我们对镜头系统进行了建模,并对基于散射的渲染和真实渲染之间的误差进行了综合分析。求导出一个软但紧密的误差图,可以用于识别带有边界伪影的区域。采用这个误差图将伪影区域替换为神经渲染的结果,我们可以保留经典渲染器的虚化风格而又不会出现明显的视觉伪影。对于神经渲染器,为了打破模糊大小限制,我们将其分解为两个子网络:自适应渲染网络(ARNet)和迭代上采样网络(IUNet)。 在 ARNet 中,我们自适应地调整输入图像的大小并生成低分辨率的虚化图像。 然后,IUNet 则是基于初始的高分辨率输入图像迭代引导的对低分辨率虚化图像进行上采样。 因此,我们的神经渲染器可以处理任意大的模糊大小。

BokehMe: When Neural Rendering Meets Classical Rendering

本文的主要贡献总结如下:

  • 我们提出了一个结合一个经典渲染器和一个神经渲染器的新框架,从而实现逼真的和高度可控的虚化渲染;
  • 我们分析了镜头系统然后提出了一个误差图公式来有效的融合经典渲染和神经渲染;
  • 我们提出了一个两阶段的神经渲染器,它采用自适应调整大小以及迭代上采样方法来对高分辨率图片处理任意的模糊大小,并且它对可能不完美的视差输入比较鲁棒;

另外,由于在可控虚化渲染领域缺乏测试数据,我们贡献了一个新的 benchmark:BLB,由Blender 2.93 [5]合成,与EBB400一起,从 EBB! [11]中处理所得。 由于虚化效果的评估具有主观性,因此我们还对 iPhone 12 拍摄的图像进行了用户研究。大量结果表明,BokehMe 可以渲染出逼真的图像并保持虚化风格的多样性。

2. 相关工作

经典渲染器。经典渲染可以分为两类:对象空间方法和图像空间方法。对象空间方法[1,16,33,39]基于光线追踪可以渲染精确的结果,但大部分都非常耗时而且需要完整的 3D 场景信息,因此并不实用。相比之下,图像空间方法[3,4,10,29,38]仅需要一张图片和对应的深度图,这都非常容易实现。最近这几年,越来越多的方法[6,20,23,27,28,31,34,40]结合了不同的模块,比如深度估计,语义分割以及经典渲染,来构建一个自动渲染的系统。为了防止背景颜色渗入前景,大多数方法根据估计的深度图将图像分解为多个层,并从后向前执行渲染。

尽管经典渲染是灵活的,但这种范式在深度不连续处存在伪影,尤其是当焦平面以背景为目标时。

神经渲染器。为了提高效率和避免边界伪影,最近也有很多工作采用神经网络来模拟渲染处理。比如,Nalbach 等人[21]和 Xiao 等人[35] 采用清晰图片和对应完美的深度图来训练网络实现虚化效果。通过对 OpenGL 着色器和 Unity 引擎 [30] 创建的合成数据进行训练,可以有效地缓解边界伪影。 然而,在现实世界中并不总是很容易获得完美的深度图。 王等人 [32] 因此提出了一种自动渲染系统,包括深度预测、镜头模糊和引导上采样,以从单个图像生成高分辨率景深 (DoF) 图像。 此外,最近还研究了编码器-解码器网络 [9,11–13,25],它以端到端的方式将全焦点图像映射到浅景深图像。 与上述方法不同,Xu 等人[37]专注于全自动肖像渲染。 他们使用循环过滤器 [18] 来近似基于条件随机场的渲染方法,并实现显着的速度提升。

然而,神经渲染的主要问题是缺乏控制能力。对一个训练好的神经网络,虚化风格无法改变并且模糊范围也是有限的。另外,网络产生的虚化球是不真实的,因为网络会倾向于学习简单的模糊效果。

3. BokehMe:一个混合的渲染框架

如下图 3 所示,我们的框架通过输入一张清晰图片 I,一张视差图 D 以及由两个渲染器:经典渲染器和神经渲染器控制的参数生成一张虚化图片 B。他们的渲染结果基于一个误差图 E 进行融合,该误差图 E 从经典渲染器中识别出潜在的错误区域。控制参数包括模糊参数 K、重聚焦视差 、伽马值 γ 和一些关于散景风格的参数,例如光圈形状 . 具体而言,K反映了整个图像的模糊量。 df 确定焦平面的视差(反深度)。 γ,用于伽马校正,控制虚化球的亮度和显着性。

BokehMe: When Neural Rendering Meets Classical Rendering

3.1 经典渲染器和误差分析

经典渲染器。我们期望经典渲染器在深度连续区域渲染真实的虚化效果。在对比了不同的方法后,我们发现基于散射的逐像素渲染方法[23,31]在深度不连续处也会有严重的渗色伪影,但在这些区域的误差相对较小。该方法的核心思想是将每个像素分散到其相邻区域,它们之间的距离小于像素的模糊半径。 如 [31, 38] 中所讨论的,给定像素的视差 d,其模糊半径可以通过下式计算:

BokehMe: When Neural Rendering Meets Classical Rendering

我们采用 CuPy 包来实现算法,这可以实现显著的并行速度提升(参考补充材料)。由于从场景辐照度到图像强度的转换是非线性的 [38],因此在渲染之前和之后应用了额外的伽马校正 [17]。

镜头系统。为了理解为什么基于散射的方法会导致深度不连续处的误差,我们建模了一个虚拟透镜系统。 对于空间中存在两个对象的简单场景(图 4),我们在深度不连续处推导出 8 个渲染案例(此处显示了 2 个案例,而其他案例显示在补充材料中)。 以中心像素(黑点)为例,只有红色的梯度前景平面上的相邻像素和蓝色的梯度背景平面上的相邻像素才能传递到中心像素。 显然,基于散射的渲染与真实渲染不同。

BokehMe: When Neural Rendering Meets Classical Rendering

初始的误差图。我们的目标是获得一个错误图来识别经典渲染器错误渲染的区域。 稍后,我们将训练一个神经网络来预测本节中制定的误差图。 让 E∗ 表示目标误差图。 由于只有深度边界的散射半径内的区域可能与真实渲染有显着差异,因此 E* 可以保守地表示为深度边界的空间变膨胀,膨胀大小取决于最大模糊半径 位于深度边界两侧的像素。 以图 4 中的场景为例,E∗ 的第 i 个元素可以定义为

BokehMe: When Neural Rendering Meets Classical Rendering

其中 可以看作是 的一个变量, 是另一个深度平面的第 i 个像素最近像素的索引。 是两个像素的距离。 和

改进的误差图。考虑到经典渲染器在深度连续区域中可以生成可控虚化风格的高质量结果的事实,我们希望适当地缩小和软化初始误差图,以在融合边界保留更多来自经典渲染器的散景结果并且没有明显的伪影。

通过补充材料中显示的理论和数值分析,我们得出对于每个像素,基于散射的渲染结果与真实渲染结果之间的色差为

BokehMe: When Neural Rendering Meets Classical Rendering

其中 和 是渲染前第 i 个像素和第 个像素的颜色。 是两个变量 的函数,其中 的定义如公式(2)所示,而

BokehMe: When Neural Rendering Meets Classical Rendering

它表示两个像素中更小的和更大的模糊核半径的比例。。 随重新聚焦的视差、正在处理的像素和深度边界之间的最短距离而变化。 为清楚起见,我们假设 | | = 1 并在图 5 的前两列中绘制 Hi 的图形。基于观察到 Hi 随着

BokehMe: When Neural Rendering Meets Classical Rendering
BokehMe: When Neural Rendering Meets Classical Rendering

其中 是两个超参数。当设置 的时候,该公式等于公式 2。请注意,在我们的实现中,我们将第二个指标函数项替换为平滑项,即 0.5 +0.5 tanh (10 ())。 在比较了使用不同超参数训练的模型(在补充材料中)之后,我们根据经验设置 δ1 = 4 和 δ2 = 2/3。我们在图 5 的最后一列还展示了初始 (等式 2)和改进后的 的图 (Eq. 5) 。注意,当 0 ≤ βi ≤ 1 时,如果 βi > 1,我们定义 = 0。可以观察到改进后的 比最初的要更软更紧密,仍然覆盖了色差较大的区域。 另一个实际示例如图 6 所示。

BokehMe: When Neural Rendering Meets Classical Rendering

3.2 神经渲染器和模型训练

为了处理在深度不连续处的渲染问题和解决模糊范围的限制问题,我们提出了一个包含两个子网络的神经渲染器:ARNet 和 IUNet(如图 7 所示)。为了简化神经渲染器的输入,我们基于公式 1 定义了一个带符号的散焦图(defocus map)S:

BokehMe: When Neural Rendering Meets Classical Rendering

它对深度关系和空间变化模糊半径的信息进行编码。 为了匹配经典渲染器中的伽马校正,我们使用一个填充了归一化伽马值的贴图作为附加输入。

BokehMe: When Neural Rendering Meets Classical Rendering

ARNet自适应调整输入图片的大小,然后输出一个误差图和低分辨率的虚化图,如图 8 所示。自适应调整层包含两个步骤,第一步是计算下采样的比例因子:

BokehMe: When Neural Rendering Meets Classical Rendering

其中max(|S|) 表示整张图的最大模糊半径。 则是我们给网络设置的最大模糊半径。第二步则是对所有图片进行下采样然后根据

BokehMe: When Neural Rendering Meets Classical Rendering

IUNet 对低分辨率的虚化图

BokehMe: When Neural Rendering Meets Classical Rendering

然而,随着迭代的进行,缩放后的散焦值可能会超出神经网络的可接受范围[]。幸运的是,直接双线性上采样引起的模糊对于虚化模糊量大的区域并不明显。因此,我们可以只细化散焦值在该范围内的区域。为此,我们首先对超出范围的散焦值进行clip,以确保后续网络可以正常工作而不会崩溃。然后,我们对扩张的散焦图 进行阈值化以生成一个蒙版,该蒙版表示没有散焦裁剪的有效渲染区域。在这些区域中,我们使用网络的输出,而对于其余区域,我们使用双线性上采样后的输入散景图像。在这里,我们使用 代替 S,因为散焦裁剪造成的负面影响会在渲染过程中扩散。 的详细计算在补充材料中。总体而言,随着迭代次数的增加,虚化图像的分辨率会更高,但网络细化的有效区域会变小。换句话说,焦平面附近的区域将被细化更多次。

BokehMe: When Neural Rendering Meets Classical Rendering

最后,遵循 alpha 融合[19,36],我们采用预测的误差图 E 来融合经典渲染器的虚化结果和神经渲染器的虚化结果 :

BokehMe: When Neural Rendering Meets Classical Rendering

损失函数。我们分别训练 ARNet 和 IUNet。当训练 ARNet 的时候,自适应调整层并不会使用。B 是 和

BokehMe: When Neural Rendering Meets Classical Rendering

其中带有*的是 GT, 表示图像梯度。

BokehMe: When Neural Rendering Meets Classical Rendering

记住,为了快速收敛,处理最终结果 B,还会采用中间结果 和

实现。我们采用 PyTorch[22]来实现。为了训练神经渲染器,我们采用一个简单的光线追踪方法来合成一个虚化数据集。这个数据集包含 150 个场景,每个场景包含一张清晰图片,一个范围在 [0,1] 的视差图,一组带有 2 个模糊参数(12,24)、20 个散焦视差(0.05,0.1,…,1)、5 个 gamma 值(1,2,…,5)的虚化图片。我们采用模糊参数为 12 的数据训练 ARNet,模糊参数是 24 的数据训练 IUNet。我们采用[35]中相同的数据预处理设置。为了提高泛化性,我们对输入的视差图采用随机高斯模糊、膨胀和腐蚀操作进行数据增强。ARNet 和 IUNet 的可接受散焦范围都设置为训练的时候是[-12, 12],推理时是 [-10, 10]。两个网络都训练 50 个 epochs,batch 大小是 16.学习率设置为

4. 实验

4.1 测试数据

对于所有测试数据,不失一般性,我们假设光圈形状为圆形,伽马值为 2.2,为不同方法创建公平竞争环境。所有数据集的视差图归一化到[0,1]的范围。

BLB 包含了由 Blender2.93 合成的 500 张测试样本。具体来说,我们从不同版本 [2] 下载了 10 个 Blender 闪屏的 3D 场景模型。 对于每个场景模型,我们使用 Cycles Engine [5] 来渲染全焦点图像、视差图和具有 5 个模糊参数和 10 个重新聚焦视差的散景图像堆栈。 图像分辨率设置为 1920 × 1080。

EBB400包含了 400 对大光圈和小光圈 的图像对,它们是随机从 EBB![11]中挑选的。对每个样本,我们采用 DPT[26]来预测一个视差图,并手动标注一个边界框来指示焦平面区域,所以这样我们就可以通过取边界框内视差图的中值来获得重新聚焦的视差[23]。 图像分辨率约为 1536 × 1024。

IPB 包含了 40 张用 iPhone12 人像模式拍照的图片。对每个场景,我们首先从 iPhone 12 导出清晰图像和经过人像模式后处理的虚化图像。然后,使用在线照片编辑器 Photopea [24],我们可以进一步提取视差图和虚化图像的辐照度图。 所有图像均以 3024 × 4032 的分辨率垂直拍摄。

4.2 对比方法

我们对比了两类方法:经典渲染方法和神经渲染方法。为了简便,我们在下文分别用 C 和 N 表示它们。为了公平比较,我们为所有方法提供相同的视差图,我们只保留它们的虚化渲染模块,而其他的被丢弃。

  • VDSLR [38] (C) 是一种像素级伪光线追踪方法,通过随机交叉搜索进行加速。
  • SteReFo [6] (C) 根据深度将图像分解为多个图层,并从后到前渲染图像。
  • RVR [40] (C) 类似于SteReFo。然而,正如[34]中所讨论的,原始RVR缺乏权重归一化,导致不同深度层之间出现严重的伪影,因此我们添加了额外的权重归一化,如SteReFo,并用上标 † 标记这个修改后的方法。
  • DeepLens [32] (N) 在自制的合成数据集上进行训练,可以生成高分辨率输出。
  • DeepFocus [35] (N) 根据 Unity 数据 [30] 进行训练。由于DeepFocus无法处理较大的模糊尺寸,我们将论文中提出的自适应调整大小层应用于其模型的头部,并将其结果直接上采样为原始分辨率。同样,此修改后的方法使用上标†进行标记。

4.3 Zero-shot Cross-dataset Evaluation

遵循[6,35,37],采用 PSNR 和 SSIM 作为评价指标。我们在 BLB 数据集上测试 BokehMe。正如 Table1 所示,与其他最先进的方法相比,BokehMe在所有模糊级别中都获得了最佳的PSNR和SSIM分数,并且我们的最终模型结合了经典渲染器和神经渲染器,优于单独的模型,证明了两个渲染器之间的强大互补性。此外,随着模糊程度的提高,经典的渲染方法变得更加耗时,而神经渲染方法则保持了高效率。我们还在图 10 中显示了一些视觉结果。人们可以观察到:(i)当重新聚焦背景时,经典方法的性能在深度不连续性时会下降;(ii) DeepLens在深度不连续处呈现平滑的结果,但它们似乎与实际渲染不符;(iii) 与DeepFocus相比,DeepFocus†避免了在处理大模糊尺寸时的损坏,但在对焦区域周围会产生模糊的结果。(iv)我们的方法为信息焦点和失焦区域呈现最逼真的虚化效果。

BokehMe: When Neural Rendering Meets Classical Rendering
BokehMe: When Neural Rendering Meets Classical Rendering

由于在现实世界中很难获得视差图,因此通常的做法是估计一个视差图。然而,预测的视差图可能很模糊,并且在边界处与RGB图像不对齐。因此,我们通过分别用5个高斯模糊,膨胀和侵蚀级别破坏视差图来重做“level3”实验(表1)。我们还重新训练没有数据增强的视差图的虚化模型,以进行额外的比较。如图11所示,使用增强训练的BokehMe可以更好地适应不完美的视差图。另一个有趣的观察结果是,适度扩张提高了大多数方法的性能,特别是对于经典方法。原因可能是超出前景对象边界的放大像素充当被遮挡的背景像素,从而在背景重新对焦的情况下显着改善了指标。但是,如图12所示,它同时会导致更多的边界伪影。

BokehMe: When Neural Rendering Meets Classical Rendering
BokehMe: When Neural Rendering Meets Classical Rendering

为了进一步评估给定一个不完美视差图作为输入时模型的泛化能力,我们对比在 EBB400 数据集上用 DPT[26]预测的视差图的不同方法。由于每个样本的模糊参数是未知的,我们对每个方法从 1 到 100 种选择最优的数值。尽管大小景深图像对之间存在色彩不一致和场景错位,但BokehMe在两个指标中仍然排名第一,如表2所示。有关定性结果,请参阅补充材料

BokehMe: When Neural Rendering Meets Classical Rendering

4.4 消融实验

IUNet 支持任意大小的上采样并且不会损失质量。为了更好的理解这个出色的特性是如何得到的,我们在 BLB 数据集且模糊程度是 level3 上设计了一个消融实验。并且这里我们只评估神经渲染器。如下 Table3 所示:

  1. IUNet 的上采样如果不采用 clipping操作将会导致结果很糟糕,因为会超出了散焦的范围(B1vsB2 以及 B2 vsB3)
  2. 采用低分辨率输入的虚化图可以补偿 clipping 区域从而提高 0.64dB 的 PSNR(B3vsB4)
  3. 采用膨胀的散焦图替代有符号散焦图,可以稍微提升一点效果(B4vsB5)

此外,我们在补充材料中展示了这种操作可以提供一种更自然的从焦平面到背景的边界过渡。

BokehMe: When Neural Rendering Meets Classical Rendering

4.5 User Study

PSNR 和 SSIM 并不能完全反应渲染的虚化图片的实际质量,我们在 IPB 数据集上设计了一个用户实验。对所有的方法,模糊参数和重聚焦视差都被手动调整到批评 iPhone12 的人像模式。这个实验包含了 53 个参与者。根据 Table4 和图 13,可以知道我们的方法是最受欢迎的,并且焦内物体有清晰的边界和前景有一个自然的虚化效果。注意 iPhone12 人像模式仅能对焦点后的物体产生虚化效果。

BokehMe: When Neural Rendering Meets Classical Rendering
BokehMe: When Neural Rendering Meets Classical Rendering

5. 讨论和总结

继续阅读