欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2017106763965
申请人: 中北大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于深度学习的空中目标跟踪方法,其特征在于包括以下步骤:(1)构建多域卷积神经网络

多域卷积神经网络包含五层隐藏层和一层二分类层,五层隐藏层分别是conv1、conv2、conv3、fc4和fc5,其中,conv1、conv2、conv3为卷积层,fc4、fc5为全连接层,二分类层为fc6,对目标和背景进行分类;

(2)训练多域卷积神经网络中bounding-box回归模型

1)标定第一帧图像目标位置

标定第一帧图像目标位置为 x1、y1为目标位置坐标值,sw、sh为目标矩形框的宽和高;

2)选择样本

多域卷积神经网络以 为中心采样生成W个回归样本,每个回归样本与目标实际位置重叠率的计算方法如下: 式中,Rt为输出跟踪框区域,Rg为实际目标区域,area表示Rt和Rg的运算结果面积,N为视频序列帧数;

设重叠率的阈值为L,大于等于L的样本为正样本,小于L的样本为负样本,然后从正样本中随机选取Q个样本输入网络训练bounding-box回归模型;

3)微调网络

提取第一帧图像的正负样本经conv3得到特征图表示,将其中重叠率为[L-0.1,L)的负样本的特征图作为难例样本与正样本一同输入fc4实现网络微调;

(3)自回归模型训练与预测

1)训练自回归模型

自回归模型表示为: 式中,{zt|t=1,2,…,T}是一个时间序列的目标位置的观测值,z为x或y,T为时间序列的长度,zt-1,zt-2,…,zt-p为t时刻前1到p时刻的观测值,εt为预测误差,p为模型的阶数, 为模型的参数;

其中p和 的确定方法如下:

①利用最小信息准则函数AIC(p)计算p,p={1,2,…,pmax},其中pmax为模型阶数的上界,当AIC(p)最小时对应的p即为最终的p值,AIC(p)的确定方法如下:式中, 是用最小二乘法对自回归模型拟合的残差方差估计,其计算方法为: 式中, 为误差方差;

②根据最小二乘法:β=(ZTZ)-1ZTY计算出不同T值对应的参数矩阵β,当残差方差估计为最小值时,对应的β即为最佳参数 式中Z为T时刻前的观测值矩阵,Y为T+1时刻预测值的矩阵;

2)预测目标位置

将第n帧的前p帧目标位置的x、y坐标值分别代入训练好的自回归模型,即为预测到第n帧目标的位置;

(4)网络测试

多域卷积神经网络以预测到的第n帧目标位置为中心采样,采用多维高斯分布采样M个候选样本,并按照以下方式选择置信度最高的样本: 式中,E*为置信度最高的样本,Ei为当前候选样本;将E*输入至bounding-box回归模型进行调整使E*的区域和目标区域更接近,最终确定目标位置。

2.根据权利要求1所述的基于深度学习的空中目标跟踪方法,其特征在于目标矩形框宽和高的取值通常在10-20之间,AR模型的阶数取值为4,时间序列的长度为16。