1.基于感知损失的光场图像角度超分辨率重建方法,其特征在于:该方法为:将预训练模型提取的图像高维特征的均方差作为损失函数,通过构建一个由四个残差块组成的卷积神经网络模型,学习观测图像与目标视角图像之间的非线性映射关系,从而重建出新视角图像。
2.根据权利要求1所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:所述预训练模型由两部分组成,一是学习观测图像到新视角图像的映射函数,即光场图像角度超分辨率网络fW,参数为W;二是感知损失网络φ,定义一系列的损失函数li,i=1,2,
3...为损失函数的序号;设观测图像x通过角度超分辨率网络fW计算得到新视角图像yp,则定义yp=fW(x),每个损失函数计算新视角图像yp和目标新视角图像y的损失大小li(yp,y),权重比例为λi;通过梯度下降法最小化能量函数E,求解出最优的W值,表示为:该模型在不同卷积层提取特征,表达人类对图像的视觉感知情况,层越深,提取的特征越复杂,代表物体的高维特征;利用卷积特征计算观测图像和新视角图像的视觉感知对比损失情况,根据不同卷积层的特征图定义损失函数 设观测图像x通过角度超分辨率网络fW计算得到新视角图像yp,则定义yp=fW(x),每个损失函数计算新视角图像y和新视角图像yp的损失大小 fW的求解过程转化为利用公式(1)进行梯度下降求最优解。
3.根据权利要求1所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:在所述方法中引入深度残差网络,形成一种深层的网络结构;在构建的具有深度残差网络结构的卷积神经网络中,各卷积层之间采用跨层连接,用于解决增加深度带来的副作用,增加网络的深度,提高网络的性能;
在所述方法中引入感知损失,用于学习图像高维特征之间的映射关系,保留图像的细节信息。
4.根据权利要求3所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:采用VGG19网络的第二块的第二层的激活值relu2_2作为所述高维特征,在时间和精度上达到平衡。
5.根据权利要求3所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:在所述预训练中,先采用像素级损失,后采用感知损失,用于避免仅采用感知损失带来的收敛较慢的问题。