欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018101290368
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于感知损失的光场图像角度超分辨率重建方法,其特征在于:该方法为:将预训练模型提取的图像高维特征的均方差作为损失函数,通过构建一个由四个残差块组成的卷积神经网络模型,学习观测图像与目标视角图像之间的非线性映射关系,从而重建出新视角图像。

2.根据权利要求1所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:所述预训练模型由两部分组成,一是学习观测图像到新视角图像的映射函数,即光场图像角度超分辨率网络fW,参数为W;二是感知损失网络φ,定义一系列的损失函数li,i=1,2,

3...为损失函数的序号;设观测图像x通过角度超分辨率网络fW计算得到新视角图像yp,则定义yp=fW(x),每个损失函数计算新视角图像yp和目标新视角图像y的损失大小li(yp,y),权重比例为λi;通过梯度下降法最小化能量函数E,求解出最优的W值,表示为:该模型在不同卷积层提取特征,表达人类对图像的视觉感知情况,层越深,提取的特征越复杂,代表物体的高维特征;利用卷积特征计算观测图像和新视角图像的视觉感知对比损失情况,根据不同卷积层的特征图定义损失函数 设观测图像x通过角度超分辨率网络fW计算得到新视角图像yp,则定义yp=fW(x),每个损失函数计算新视角图像y和新视角图像yp的损失大小 fW的求解过程转化为利用公式(1)进行梯度下降求最优解。

3.根据权利要求1所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:在所述方法中引入深度残差网络,形成一种深层的网络结构;在构建的具有深度残差网络结构的卷积神经网络中,各卷积层之间采用跨层连接,用于解决增加深度带来的副作用,增加网络的深度,提高网络的性能;

在所述方法中引入感知损失,用于学习图像高维特征之间的映射关系,保留图像的细节信息。

4.根据权利要求3所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:采用VGG19网络的第二块的第二层的激活值relu2_2作为所述高维特征,在时间和精度上达到平衡。

5.根据权利要求3所述的基于感知损失的光场图像角度超分辨率重建方法,其特征在于:在所述预训练中,先采用像素级损失,后采用感知损失,用于避免仅采用感知损失带来的收敛较慢的问题。