欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019113925075
申请人: 江南大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2023-10-10
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度学习和傅里叶域分析的图像深度估计方法,其特征在于,包括:读取数据集里的图像对,将图像对输入提出的网络架构中获取重建视图;

将图像对和重建视图带入损失函数,训练并确认网络架构,得到最初视差图;

带入以裁剪比λ裁剪的图像对至确认的网络架构,获取视差映射候选对象;以及,融合视差映射候选对象,估计深度并显示于显示设备上;

其中,所述图像对区分为左视图和右视图,所述重建视图区分为重建左视图和重建右视图;

所述读取数据集里的图像对,将图像对输入提出的网络架构中获取重建右视图的步骤包括:读取数据集;

r l

获取右视图I和左视图I;

l r r

左视图I作为输入图像,右视图I作为目标图像带入网络架构内,获得右视差d;

l r

利用左视图I和右视差d获得重建右视图其中,重建右视图 采用如下公式:所述读取数据集里的图像对,将图像对输入提出的网络架构中获取重建左视图的步骤包括:读取数据集;

r l

获取右视图I和左视图I;

r l l

右视图I作为输入图像,左视图I作为目标图像带入网络架构内,获得左视差d;

r l

利用右视图I和左视差d获得重建左视图其中,重建右视图 采用如下公式:所述将图像对和重建视图带入损失函数,训练并确认网络架构,得到最初视差图的步骤包括:r l

将右视图I、左视图I、重建右视图 和重建左视图 带入损失函数;

通过损失函数训练网络架构;

不断迭代,确认网络架构;

获得最初视差图;

所述损失函数Ls采用如下公式:其中,Lam是重建损失函数,重建损失函数Lam区分为重建左视图损失函数 和重建右视图损失函数 Lds是训练视差图的平滑性,Lds区分为右视差平滑度损失函数 和左视差平滑度损失函数 αam为1,αds为0.1;

所述重建左视图损失函数 采用如下公式:M‑1

其中,α设置为0.84,M设置为5,表示输入图像以2 为因子进行缩小, 为高斯滤波器, N为像素个数,i和j分别为像素坐标, 为左视图和重建左视图结构相似性;

其中,左视图和右视图结构相似性 采用如下公式:其中,β1=0.0448,β2=0.2856,β3=0.3001,β4=0.2363,γ=β5=0.1333, 是亮度对比因子, 是对比度因子, 是结构对比因子。

2.如权利要求1所述的基于深度学习和傅里叶域分析的图像深度估计方法,其特征在于:左视差平滑度损失函数 采用如下公式:其中, 表示左视差图像素点(i,j)在水平方向的梯度, 表示左视差图像素点‑8(i,j)在垂直方向的梯度,ε=10 ,N表示像素点个数。

3.如权利要求2所述的基于深度学习和傅里叶域分析的图像深度估计方法,其特征在于:带入以裁剪比λ裁剪的图像对至确认的网络架构,获取视差映射候选对象的步骤包括:将输入的左视图和右视图分别按照裁剪比λ裁剪到四个角;

确认的网络架构处理每个裁剪图像,得到相应的视差图;

将相应的视差图映射合并成视差映射候选对象;

其中,λ为0.6、0.65、0.7、0.75、0.8、0.85、0.9、0.95或1。

4.如权利要求3所述的基于深度学习和傅里叶域分析的图像深度估计方法,其特征在于:所述将相应的视差图映射合并成视差映射候选对象的步骤包括:相应视差图的视差值按1/λ的倍数缩放;

将部分视差图转换至原位置并叠加,对重叠区域进行平均;

水平翻转输入的左右视图,得到裁剪比为λ的视差映射候选对象,并翻转视差映射候选对象。

5.如权利要求4所述的基于深度学习和傅里叶域分析的图像深度估计方法,其特征在于:融合视差映射候选对象采用傅里叶频域分析方法进行融合,所述估计深度 采用如下公式:其中,f为相机的焦距,b为给定相机间的基线,d为估计视差图。