欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019100684795
申请人: 西安理工大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.RGBD序列中基于自动分层的场景流估计方法,其特征在于,具体包括如下步骤:步骤1,分别输入连续两帧RGB图像和连续两帧深度图像,根据输入的RGB图像1和RGB图像2,分别计算RGB图像1到RGB图像2之间的光流图和RGB图像2到RGB图像1之间的光流图;

步骤2,修复深度图像:

根据坐标转换配准输入的深度图像和RGB图像,将深度图像中的噪声根据深度值为0的连通区域的大小分为洞和噪声点,然后根据区域相似性和颜色一致性修补洞,根据双边滤波消除噪声点;

步骤3,将深度图像语义分层:

采用SLIC超像素分割和相似区域合并算法对步骤2得到的深度图像进行语义分层,得到轮廓保持好的初始分层图像;

步骤4,将深度图像自动分层:

根据自动分层算法判断步骤3得到的初始分层图像中相邻两层是否能够合并,如果能够合并,则合并相邻层,并对所有层重新排序;如果不能合并,则分层结果保持不变;

步骤5,判断步骤4重新排序后的层数是否改变,如果层数未发生改变,则自动分层得到深度图像最终的分层结果;如果层数发生改变则返回执行步骤4;

步骤6,计算层辅助函数的权重:

层辅助函数gk(-1.5≤gk≤1.5)表示第k层的每个像素点属于第k层的可能性的大小,根据AR模型调制深度图像与RGB图像边缘不一致性获得层辅助函数的空间一致性;

步骤7,计算场景流:

根据步骤1得到的光流信息和步骤6得到深度图像的分层信息,计算每层的2D运动和深度变化得到场景流信息。

2.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤2的具体过程如下:深度图像和RGB图像的配准过程:在深度图像和RGB图像中分别找到四对对应的点,这四对对应点坐标的位置信息根据式(1)得到投影矩阵,使用opencv中的函数warpPerspective()得到深度图像与RGB图像的配准图像;

式中,(X,Y)为RGB图像中的像素点坐标,(x,y)为深度图像中的像素点坐标,A为投影矩阵;

如果深度图像中深度值为0的连通区域的面积大于4,则该区域是洞,根据区域一致性和颜色的一致性修补洞,然后根据双边滤波消除噪声点;

如果深度图像中深度值为0的连通区域的面积为4或者小于4,则该区域是噪声点,根据双边滤波消除噪声点。

3.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤3的具体过程如下:步骤3.1,选取聚类中心,即分别选取初始化种子点和优化种子点;

初始化种子点的选取:根据设定的超像素个数,在图像内均匀的分配种子点,假设图片中有N个像素点,预设为R个相同尺寸的超像素,则每个超像素块的大小为N/R,则相邻种子点的距离为S=sqrt(N/R);

优化种子点的选取:由于初始化选取的种子点可能会落在梯度较大的轮廓边界上而影响后续效果,在初始种子点的n*n邻域内,n=3,根据公式(2)-(4)计算所有像素的梯度值,然后选择梯度值最小的地方作为新种子点,同时给每个种子点分配一个单独的标签,记为优化种子点;

G(x,y)=dx(x,y)+dy(x,y)  (2)

dx(x,y)=I(x+1,y)-I(x,y)  (3)

dy(x,y)=I(x,y+1)-I(x,y)  (4)

其中,I是图像像素的值,(x,y)为像素的坐标,G(x,y)为像素的梯度函数,dx为水平方向的梯度,dy为垂直方向的梯度;

步骤3.2,根据公式(5)和(6)计算种子点邻域内每个像素到种子点的颜色距离dφ和空间距离dθ:式中,e是邻域内的点,m是种子点,ln(n=m,e)表示像素n的亮度(Luminosity),ln的值域由0(黑色)到100(白色);an(n=m,e)表示像素n从洋红色至绿色的范围(an为负值指示绿色,正值指示品红);bn(n=m,e)表示像素n从黄色至蓝色的范围(bn为负值指示蓝色,正值指示黄色);

根据公式(7)得到相似性度量,选择最小值作为新的聚类中心:

式中,dφ代表颜色距离,dθ代表空间距离,De是相似性度量,h是最大的颜色空间距离,随着图片的不同而不同,也随着聚类的不同而不同,取值范围为[1,40],取值为10,S=sqrt(N/R)为相邻种子点的距离;

步骤3.3,合并相似区域:经过SLIC超像素分割之后获得带有标签的初始分割图像,这些相似的邻近区域仍可以通过合并产生有语义的分割,使得合并后的每个区域里面应具有相似性,而相邻区域之间具有差异性;

区域合并的主要过程如下:

根据初始分割图像建立相对应的区域邻接图G=(V,E),V={S1,S2,...,SR}是顶点的集合,每个顶点Si(1≤i≤R)对应分割图中的一个分割区域,R是分割图中的分割区域数,E是边的集合,在分割图中,如果两个区域相邻,则相对应的两个端点之间存在一条边;

在无向图G=(V,E)中,每条边赋予一定的权重,这个权重对应于合并两个区域的权重如公式(8)所示,区域越相似,权重值越小,在每一次合并过程中,寻找权重最小的边,并进行相邻区域合并;

式中,Cp,r为相邻区域p,r之间的权重,Np表示区域p(1≤p≤R)的面积,Nr表示区域r(1≤r≤R)的面积,μp表示p区域的光谱平均值,μr表示r区域的光谱平均值,l是相邻区域i和j的公共边长度,λ是公共边的影响系数,当λ=0时,lλ=1,表示公共边长度改变不影响区域异质性度量;当λ不为0时,公共边越长,异质性越小。

4.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤4的具体过程如下:步骤4.1,将步骤3得到的初始分层层数定义为K,然后判断第k层和第k+1层是否相邻,首先将第k层的像素分别上下左右移动一个像素点,将移动之后的像素的标签和第k+1层的标签相加,检测是否存在2k+1,如果有,则说明这两个区域是相邻的;

步骤4.2,判断相邻层是否能够合并:分别计算相邻层第k层和k+1层在光流中的映射区域Sk和Sk+1,计算两个区域中所有像素点平均光流的角误差AE和点误差EE,如果计算得到的角误差AE和点误差EE满足如式(9)和(10)中任意一个判定公式,则将第k层和第k+1层合并;

式中, 和 分别是第k层和第k+1层中的水平方向的光流平均值, 和 分别是第k层和第k+1层中的垂直方向的光流平均值,ae和ee分别是相邻两层合并的阈值条件,0<ae≤1,0<ee≤1。

5.如权利要求1所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤6的具体过程如下:步骤6.1,计算深度权重:首先根据深度图像步骤5中的分层结果得到第k层的深度图Dk,接着对Dk双三次插值之后得到深度图 根据公式(11)得到深度权重:式中, 是深度图像 中像素点n的深度值,其中,n=x,y;y是x的邻域内的像素,σ1是滤波器的衰减率,当 和 非常接近时, 的值则非常大;

步骤6.2,计算RGB权重:在与深度图像对应的RGB图像中,分别提取以像素x为中心的w×w块的RGB三通道信息,接着对于提取到的w×w三通道信息根据公式(12)和(13)进行双边滤波得到RGB权重式中,σ2控制指数函数的衰减率, 表示以像素x为中心的w×w块的三通道信息中的第i通道信息矩阵, 表示逐个元素相乘,Bx是w×w块的双边滤波, 是像素点x的第i通道的强度值,σ3和σ4分别是根据空间距离和强度差异调整的双边滤波器的参数;

步骤6.3,计算层辅助函数权重:将步骤6.1得到的深度权重和步骤6.2得到RGB权重,带入公式(14)得到层辅助函数的权重:式中,Sx是归一化因子, 和 分别是深度权重和RGB权重。

6.如权利要求5所述的RGBD序列中基于自动分层的场景流估计方法,其特征在于,所述步骤7的具体过程如下:RGBD分层场景流能量函数如式(15)所示:

式中, 是每层的运动,包括2D运动{utk,vtk}和深度变化wtk,Edata反应了第t帧和第t+1帧连续两帧在2D运动{utk,vtk}后的时间一致性;Espa反映了每层像素分别在垂直,水平,深度方向上经过运动R,τ后的区域一致性,R是旋转,τ是平移;Esup反映了层辅助函数的空间一致性和表面运动{utk,vtk}的时间一致性;λdata,λspa,λsup分别是Edata,Espa,Esup相对应的权重系数;gtk(-1.5≤gtk≤1.5)是辅助函数,反映了像素属于第t帧第k层的概率;

根据帧间光流和深度图像的分割图像初始化场景流,初始场景流的计算模型根据二维光流到三维场景流的映射公式得到,二维光流到三维场景流的映射模型如下:对于连续两帧RGB图像,第一帧的图像像素点α1=(x1,y1)在第二帧中对应的坐标为α2=(x2,y2),根据对应的坐标信息得到像素点α1的运动信息(u1,v1)=(x2-x1,y2-y1),由跟RGB图像对应的深度图像知道α1对应的深度值为z1,α2对应的深度值为z2,则深度值的变化为z=z2-z1,根据像素点的透视投影关系得到图像像素点α1和α2对应的3D空间点坐标如式(16)所示:u=X2-X1,v=Y2-Y1,Z=Z2-Z1  (16)

这里α12=(X1,Y1,Z1)是平面像素点α1对应的空间坐标点,α22=(X2,Y2,Z2)是平面像素点α2对应的空间像素点,X1,Y1,Z1,X2,Y2,Z2,根据式(17)获得:式中,fx,fy和cx,cy分别是相机焦距和畸变系数,当图像场景运动包含旋转Rt,k和平移τt,k的情况下空间点α22可由空间点α12根据式(18)计算获得:α22=Rt,kα12T+τt,k  (18)

则空间点α22对应的坐标如式(19)所示:

根据空间点α12和空间点α22计算得到的场景流如式(20)-(22)所示:wt,k(α22)=z2-z1  (22)

式中,ut,k,vt,k wt,k分别是x方向,y方向和深度方向的变化。