1.一种基于对冲算法的多特征融合跟踪方法,其特征在于,所述方法包括以下步骤:S1.相关滤波器的训练
在图像上裁下一个宽高分别为W和H的图片块,用循环位移的方法来合成许多新的训练样本xh,w(h,w),其中,训练的过程就是通过解决岭回归问题来训练相关滤波器f:T 2
f=minf∑H,W|fxh,w‑y(h,w)|+||r⊙f|| (1)其中⊙为内积标志,r和f分别为空间正则矩阵和相关滤波器,y(h,w)是用高斯函数来生成宽高分别为W和H的矩阵,y(h,w)的生成公式为:由于该过程的计算可以通过傅里叶变换转化到傅里叶空间减少计算,最终学习器L通过下面公式获得:其中,L表示l′的傅里叶变换, 是x与自身的核相关,选择高斯核作为核函数,同时综合了47个通道的多通道特征来训练相关滤波器,所以核相关公式表示为:其中, 表示傅里叶变换的逆操作,和 分别表示x的傅里叶变换和 的复共轭,c表示通道层级;
S2.空间置信图的获得,过程如下:
S2.1颜色空间置信图
训练一个颜色直方图模型,同时用正像素样本和负像素样本训练分类器,正像素样本为目标区域F,负像素样本为背景区域B,设像素p的特征φ(p)是矢量eg[p],仅在其g[p]=i,其它位置为0,首先,从第t帧裁剪目标位置的图形补丁;然后,将图像分别分割为目标区域F和背景区域B,最后,将这两个区域的像素信息放入颜色直方图学习器中进行训练,使用以下公式:T i
另外由于向量的内积计算由βφ(p)=β来得到,所以公式简化为:i
其中,Φ (Α)=|p∈A:g[p]=i|表示在区域A中索引特征i不为0的像素个数,|A|表示区域A中的像素总数,为了简化公式,设 表示索引特征i像素在区域A中的比例,所以公式变形为:获得颜色空间置信图;
S2.2深度空间置信图
将搜索区域的图片块I输入预先训练好的卷积神经网络VGG19模型中获得特征张量,然后通过将特征张量按通道进行加权平均就获得合适的深度空间置信图:其中, 表示在VGG19中第d层深度获得的特征张量,提取了深度分别为37和28两个深度特征,并生成了两个深度空间置信图d37和d28;
S3.获得三个跟踪结果
S3.1空间置信图增强被检测样本
在跟踪帧裁切一张适合大小的图片块,裁切的位置和大小根据上一帧目标状态计算获得,通过传统手工方法获得该图片块的方向梯度直方图特征n1,然后将之前获得的三张空间置信图分别用内积的方式来增强上述特征n1,并由此获得三个不同特征:Nhist=βhist⊙n1,Nd28=βd28⊙n1,Nd37=βd37⊙n1 (9)S3.2相关滤波分别获得结果
用之前训练好的学习器L,与之前获得的三个不同特征进行滤波计算:获得三个结果响应图ghist(n2)、gd28(n2)、gd37(n2);
S4.对冲算法融合结果
首先,计算每个子跟踪器的损失l:
设xp为融合后响应图中的最大值位置,然后算法引入粒子在时刻t的烦恼值:值得注意的是这时粒子群的总代价为 基于此概念,粒子群的烦恼度定义为:
t
其中,η是一个动态参数,由历史信息计算得出,设跟踪器在t帧的稳定性为s并由此计算得到η:t
η=min(τ1,exp(‑ρs)) (14b)t t
其中,m和δ分别为均值和方差,ρ是一个预设参数,τ1是预设最大更新率,最终权重w更新为:其中j是尺度参数,定义为:
在得到w后通过下面公式对三个结果进行融合:F(n2)=(γhist+whist)ghist(n2)+(γd28+wd28)gd28(n2)+(γd37+wd37)gd37(n2) (17)其中γ表示预设的权重参数,在获得最终的结果响应图后,只需要找到图中响应度最大的点就可以确定跟踪目标的位置和尺度信息;
S5.模型更新
t t t t‑1
计算获得跟踪目标边界框γ 与上一帧之间的欧式距离D=||P(γ)‑P(γ )||,这里t tP(γ)表示边界框γ的定位,同时计算跟踪轨迹的平滑度:这里σ1是根据边界框的平均高度和宽度计算得到的,然后需要计算PSR值P:P=(Rmax‑m)/τ2 (19)其中,Rmax是响应图R中的最大值,m和τ2分别表示均值和标准差,同时还需要计算一个t t t评分G =S×P 来确定跟踪结果的好坏,值得注意的是还需要每Δt=5帧计算一次评分的平均值:v v v v 0 1 Δt‑1
这里v∈[t‑Δt+1,t]且ω=θ/(∑νθ),θ是序列{θ,θ,…,θ },θ>1中的第(ν‑t+Δt)个元素;
然后利用上面获得结果用公式(21)动态调整学习速率η:其中,ηinit是初始模型学习速率,μ和α分别表示阈值常数和幂指数;
在更新模型学习速率后,分别用下列公式更新模型:t t‑1
L=(1‑ηcf)L +ηcfL (22b)