1.基于深度学习的相似图像匹配方法,其特征在于,具体按照以下步骤实施:步骤1、向目标检测网络中输入目标图像,通过该目标检测网络输出目标图像中各个物体对应的检测框、检测精度;
步骤2、根据检测精度对检测框进行筛选,再利用物体位置解析算法对筛选出的检测框进行解析处理得到目标图像中任意两个物体的相对位置关系;
步骤3、计算目标图像中任意两个物体之间的距离,再根据任意两个物体之间的距离、各个物体的重心以及步骤2得到的任意两个物体的相对位置关系构建目标图像场景目标位置关系的图模型;
步骤4、类似地,向目标检测网络中输入候选数据集样本图像,重复步骤1至3对候选数据集中的每一张样本图像建立场景目标位置关系的图模型,将目标图像场景目标位置关系的图模型与所有样本图像场景目标位置关系的图模型一一进行场景匹配,确定选择出与目标图像相似度最高的三张样本图像。
2.如权利要求1所述的基于深度学习的相似图像匹配方法,其特征在于,所述步骤1中的目标检测网络为基于ResNet-101的Faster R-CNN检测网络,所述基于ResNet-101的Faster R-CNN检测网络模型经过Visual Genome数据集训练。
3.如权利要求1所述的基于深度学习的相似图像匹配方法,其特征在于,所述步骤2具体操作如下:步骤2.1、设定阈值为0.8,将检测精度大于0.8的检测框筛选出来;
步骤2.2、计算筛选出的各个检测框的重心,具体操作如式(1)所示:
(cgx,cgy)=((x1i+(x2i-x1i))/2,(y1i+(y2i-y1i))/2) (1)式中,x1i为检测框左上角的x轴坐标值,y1i为检测框左上角的y轴坐标值,x2i为x1i与检测框右上角的x轴坐标值,y2i检测框左下角的y轴坐标值,cgx为检测框重心的x轴坐标值,cgy为检测框重心的y轴坐标值;
步骤2.3、根据检测框的重心计算任意两个检测框重心之间的横坐标之差、纵坐标之差,具体操作如式(2)所示:dx=(cgxj-cgxi)
dy=(cgyj-cgUi) (2)
式中,dx是任意两个检测框重心的x轴坐标值之差,dy是任意两个检测框重心的y轴坐标值之差;
步骤2.4、根据步骤3.3得到的任意两个检测框重心之间的横坐标之差、纵坐标之差,确定任意两个检测框重心之间的连线与y轴的正方向夹角θ,具体操作如下:若dx=0并且dy>0时,θ=0;若dx=0并且dy<0时,θ=180;若dy=0并且dx>0时,θ=90;若dy=0并且dx<0时,θ=270;若dx>0并且dy>0时,θ=δ;若dx<0并且dy>0时,θ=360+δ;若dx<0并且dy>0时,θ=180+δ;若dx<0并且dy<0时,θ=180+δ;
其中,δ计算过程如式(3)所示:
δ=atan(dx/dy)*180/π (3);
步骤2.5、根据任意两个检测框重心之间的连线与y轴的正方向夹角θ,在物体间相对位置关系映射表中对应寻找并确定任意两个物体的相对位置关系。
4.如权利要求3所述的基于深度学习的相似图像匹配方法,其特征在于,所述步骤3具体操作如下:步骤3.1、计算目标图像中任意两个物体之间的距离,具体操作如式(4)所示:式中,dij为任意两个物体之间的距离;
步骤3.2、以目标图像中各个检测框作为节点,以任意两个节点重心之间的连线作为图边,以任意两个物体的相对位置关系作为图边的属性,以任意两个物体之间的距离作为图边的权重,从而构建目标图像场景目标位置关系的图模型。
5.如权利要求4所述的基于深度学习的相似图像匹配方法,其特征在于,所述步骤4中的场景匹配具体操作如下:步骤4.1、每次将目标图像场景目标位置关系的图模型与一张样本图像场景目标位置关系的图模型进行比对,统计两个图模型中含有的相同节点,计算相同节点个数占两个图模型中所有节点个数之和的比例,再根据相同节点寻找得到两个图模型中的相同图边,重复操作多次,直至目标图像场景目标位置关系的图模型与所有样本图像场景目标位置关系的图模型一一比对完成;
步骤4.2、观测比对结果,在含有相同节点个数最多的情况下,选择出相同节点个数占两个图模型中所有节点个数之和比例最大的一张样本图像,作为与目标图像含有最多相似物体的样本图像;
步骤4.3、观测比对结果,在含有相同节点个数最多的情况下,选择出含有最多相同图边个数的一张样本图像,作为与目标图像含有最多相似物体并且物体在空间摆放上最接近的样本图像;
步骤4.4、观测比对结果,在含有最多相同图边个数的情况下,选择出相同图边个数占两个图模型中所有图边个数之和比例最大并且相同图边之间权重之差的绝对值之和最小的样本图像,作为与目标图像物体空间布局最接近的样本图像。
6.如权利要求5所述的基于深度学习的相似图像匹配方法,其特征在于,所述相同图边为两端端点以及图边的属性均相同的图边。