1.基于多特征融合的行人重识别方法,其特征在于,包括以下步骤:步骤1、对训练集中的图像进行行人的提取,将行人从图片背景中提取出来;
步骤2、对步骤1得到的行人图像进行人体部位识别,将人体分为头部、上半身与下半身三部分;
步骤3、利用步骤2得到的人体三个部分,在上半身与下半身分别提取颜色特征、轮廓特征与纹理特征,在头部提取颜色特征与轮廓特征,根据获取的诸多特征建立此行人的特征表示模型;
步骤4、将步骤3得到的两个行人的特征表示模型进行特征变换,通过学习一个特征投影矩阵,将摄像头A下行人图像的特征向量变换到摄像头B下行人图像的特征空间中,从而消除不同监控摄像头特征空间分布不一致问题;
步骤5、在马氏距离函数的基础上,将步骤4变换后的颜色特征、轮廓特征和纹理特征之间的距离进行加权组合,得到一种加权距离度量方法;
步骤6、对测试集中的行人图像也进行步骤1-3的处理,对步骤3得到的训练集与测试集的行人特征表示模型经步骤4特征变换后,再使用步骤5的距离度量方法进行距离度量,得出匹配结果。
2.根据权利要求1所述的基于多特征融合的行人重识别方法,其特征在于,所述步骤3具体按照以下方法实施:步骤3.1、在提取颜色特征之前,先对行人图像进行如下处理:将每个行人图像投影到HSV颜色空间中,为了应对光照变化和颜色变化,先利用SIFT特征计算出关键点坐标,再以其为圆心提取一个圆形区域,具体如下:对于每一个SIFT特征关键点向量k=[x,y]T-其中x和y是关键点的坐标-提取以k为中心Φ为半径的圆形图像区域S;
步骤3.2、经步骤3.1后,进行加权高斯颜色直方图特征的提取,具体方法如下:在每个提取的S区域利用高斯分布函数计算加权高斯色直方图特征向量 bi和i分别表示直方图的bins和提取直方图的图像通道;
步骤3.3、轮廓特征是利用分层梯度方向直方图提取的,具体方法为:首先将行人图像投影到HSV颜色空间中,然后提取三个PHOG特征向量 m和i分别是直方图的bins和提取直方图的图像通道。PHOG特征最终在 中积累,I是图像通道的总数量;
步骤3.4、步骤3.2、3.3都是在人体三个部分均提取了特征,但纹理特征仅在上半身与下半身提取,因为头部的纹理特征没有较高的区别度,具体方法如下:Haralick纹理特征是基于灰度共生矩阵提取的,所以识别出的人体部位首先被转换到灰度颜色空间,为了降低计算成本,上半身(T)和下半身(L)两个区域都被扩展到Ng灰度级别,利用四邻接分别从四个方向计算灰度共生矩阵,四个灰度共生矩阵最终被用来提取Haralick的特征f1,f2,…,f14,因此,分别提取出两个特征向量: 和步骤3.5、利用步骤3.1-3.4提取的诸多特征得到行人特征表示模型。
3.根据权利要求1所述的基于多特征融合的行人重识别方法,其特征在于,所述步骤4具体按照以下方法实施:步骤4.1、给定两个行人图像的特征向量Xa和Xb,其距离可以定义为一种马氏距离形式的距离:D(Xa,Xb)=(Xa-Xb)TM(Xa-Xb) (1);
步骤4.2、由于距离函数的非负性,表达式中矩阵M是一个半正定矩阵,通过对矩阵进行特征值分解M=LTL,其距离可以转化为:T
D(Xa,Xb)=(Xa-Xb) M(Xa-Xb)
=(Xa-Xb)TLTL(Xa-Xb)
=[L·(Xa-Xb)]T[L·(Xa-Xb)]
=||L·(Xa-Xb)||2
2
=||L·Xa-L·Xb|| (2);
步骤4.3、从上面公式推导,看特征转换的本质在于学习一个投影矩阵L,将特征向量投影到新的特征空间中,从而消除不同监控摄像头特征空间分布的不一致。
4.根据权利要求1所述的基于多特征融合的行人重识别方法,其特征在于,所述步骤5具体按照以下方法实施:步骤5.1、在计算加权高斯颜色直方图距离之前,先进行以下步骤:计算l2-范数距离,利用一种RANSAC算法检测SIFT特征的匹配:如果两个匹配的SIFT特征关键点不在同一个主体上,则匹配被拒绝,以上工作提高了结果的准确性,因为在加权高斯颜色直方图距离计算中不考虑不属于同一身体部分的SIFT特征,给定一个SIFT匹配,采用χ2加权距离测量方法来匹配相关加权高斯颜色直方图特征,加权距离χ2计算为:其中 和 分别是特征表示模型A和特征表示模型B在图像通道i上的加权高斯颜色
2 2
直方图向量,Ak和Bk分别是两个SIFT特征关键点。χ(·,·)函数计算χ距离,ψi是归一化权重。加权函数m(·,·)是Mahalanob距离函数,用来处理遮挡和姿态变化,每个直方图之间的距离都是这样加权的:m(k1,k2)=max(dM(k1x,k1y),dM(k2x,k2y)) (4);
其中kl和k2是两个SIFT特征的关键点向量,而dM(·,·)是马氏距离函数计算出的每个身体部位之间的距离,最后,通过计算特征表示模型A和特征表示模型B每一对匹配的 距离,给出了加权高斯颜色直方图距离dwgch(A,B);
步骤5.2、类似于加权高斯颜色直方图距离的计算,使用加权χ2距离来计算PHOG特征矩阵之间的距离,给出两个行人特征表示模型A和B的PHOG特征矩阵,A和B之间的距离是这样计算的:和 是在图像通道i上特征向量A和特征向量B的PHOG特征,λi是归一化权重;
步骤5.3、给定两个行人特征表示模型A和B,一个l2范数距离用来比较在相同身体部分提取的Haralick纹理特征向量,最后的距离dhar(A,B)是由每对Haralick纹理特征向量的l2范数距离取平均值得到的;
步骤5.4、最后,两个行人图像特征表示模型A和特征表示模型B之间的总距离是这样计算的:d(A,B)=αdwgch(A,B)
+βdphog(A,B)
+γdhar(A,B)
(6)。
5.根据权利要求1所述的基于多特征融合的行人重识别方法,其特征在于,所述步骤6具体按照以下方法实施:对测试集中的行人图像也进行步骤1-3的处理,对步骤3得到的训练集与测试集的行人特征表示模型经步骤4特征变换后,再使用步骤5的距离度量方法进行距离度量,得出匹配结果。