欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021107074294
申请人: 南昌工程学院
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-11-06
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,所述方法包括:步骤一:在第一帧目标框内的初始目标图像进行采样处理以生成正候选样本,并根据所述正候选样本训练得到边界框回归模型;

步骤二:在后续帧目标框内的目标图像的邻域内重新进行采样以生成正负候选样本,根据所述正负候选样本对卷积神经网络模型的全连接参数进行微调,以确定所述第一帧目标框内的目标图像的最佳位置;

步骤三:基于空间距离机制以及所述卷积神经网络模型获得训练样本的深度特征,并基于所述训练样本的深度特征进行字典对模型学习以获得初始字典对,其中,所述训练样本为基于空间距离机制在目标图像邻域内采样得到的候选目标图像样本,所述候选目标图像样本即为所述正负候选样本;

步骤四:根据所述初始字典对,并基于卷积神经网络模型提取得到训练样本的特征,然后根据所述训练样本的特征进行联合字典对模型学习;

步骤五:利用进行过联合字典对模型学习的字典对,对所述训练样本进行编码,通过联合字典对中的原子的线性组合表示所述候选目标图像样本,利用所述候选目标图像样本的线性表示和字典对学习模型之间的重构误差来计算候选目标图像样本的观测概率,根据所得到的观测概率中的最大值所对应的候选目标图像样本的位置进行目标图像定位跟踪,其中字典对包括合成字典D以及分析字典P,且合成字典D与分析字典P之间存在如下关系:其中, 表示字典对模型学习后获取的分析字典与合成字典, ,为合成字典, 为分析字典, 为训练样本,表示判别条件,用于利用分析字典P通过线性投影生成编码系数, 为Frobenius范数。

2.根据权利要求1所述的基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,所述步骤一具体包括:

设定第一帧的所述初始目标图像的初始位置,在所述初始目标图像的初始位置的邻域内采样得到正候选样本;

利用预训练网络模型提取所述正候选样本对应的特征,并根据所述正候选样本对应的特征进行边界框回归模型的训练。

3.根据权利要求2所述的基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,在所述步骤四中,进行联合字典对模型学习过程中,对应的字典对模型最佳值表示为:其中, 表示字典对模型最佳值, 均为平衡因子, 为额外约束项,是一个学习过的合成字典D的编码系数,W为在字典对学习过程中引入的对角重要性权重矩阵。

4.根据权利要求3所述的基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,在所述步骤四中,根据所述训练样本的特征进行联合字典对模型学习的方法包括如下步骤:

通过范数矩阵对合成字典以及分析字典进行随机矩阵初始化,然后对所述初始字典对模型进行学习,并进行迭代更新优化计算以分别得到优化后的合成字典以及优化后的分析字典。

5.根据权利要求4所述的基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,进行迭代更新优化计算的方法包括如下步骤:首先固定合成字典D、分析字典P以及训练样本Z,以对编码系数进行更新,对应的表达式为:

当编码系数 更新后,固定编码系数 、合成字典D以及训练样本Z,以对分析字典P进行更新,对应的表达式为:

当分析字典P更新后,固定编码系数 、分析字典P以及训练样本Z,以对合成字典D进行更新,对应的表达式为:

其中, 是合成字典D的编码系数最小优化值, 是分析字典的最小优化值, 是合成字典的最小优化值。

6.根据权利要求5所述的基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,在所述步骤五中,所述通过联合字典对中的原子的线性组合表示所述候选目标图像样本的方法包括如下步骤:

根据所述候选目标图像样本与所述字典对学习模型之间的重构误差计算得到所述候选目标图像样本对应的观测概率;

根据所述候选目标图像样本对应的最大观测概率,以定位所述候选目标图像样本中与第一帧目标框内的目标图像观测概率最大的样本的位置。

7.根据权利要求6所述的基于卷积神经网络字典对学习的目标跟踪方法,其特征在于,所述候选目标图像样本对应的观测概率表示为:其中, 为候选目标图像样本对应的观测概率, 为预测量,为状态量,为归一化因子, 为正数, 为候选目标图像样本在合成字典D上的重构误差;

重构误差的表达式为:

8.一种基于卷积神经网络字典对学习的目标跟踪系统,其特征在于,所述系统包括:第一采样模块,用于在第一帧目标框内的初始目标图像进行采样处理以生成正候选样本,并根据所述正候选样本训练得到边界框回归模型;

第二采样模块,用于在后续帧目标框内的目标图像的邻域内重新进行采样以生成正负候选样本,根据所述正负候选样本对卷积神经网络模型的全连接参数进行微调,以确定所述第一帧目标框内的目标图像的最佳位置;

第一学习模块,用于基于空间距离机制以及所述卷积神经网络模型获得训练样本的深度特征,并基于所述训练样本的深度特征进行字典对模型学习以获得初始字典对,其中,所述训练样本为基于空间距离机制在目标图像邻域内采样得到的候选目标图像样本,所述候选目标图像样本即为所述正负候选样本;

第二学习模块,用于根据所述初始字典对,并基于卷积神经网络模型提取得到训练样本的特征,然后根据所述训练样本的特征进行联合字典对模型学习;

定位跟踪模块,用于利用进行过联合字典对模型学习的字典对,对所述训练样本进行编码,通过联合字典对中的原子的线性组合表示所述候选目标图像样本,利用所述候选目标图像样本的线性表示和字典对学习模型之间的重构误差来计算候选目标图像样本的观测概率,根据所得到的观测概率中的最大值所对应的候选目标图像样本的位置进行目标图像定位跟踪,其中字典对包括合成字典D以及分析字典P,且合成字典D与分析字典P之间存在如下关系:

其中, 表示字典对模型学习后获取的分析字典与合成字典, ,为合成字典, 为分析字典, 为训练样本,表示判别条件,用于利用分析字典P通过线性投影生成编码系数, 为Frobenius范数。