欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2020110053570
申请人: 燕山大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于有限范围场景内的目标人群跟踪监控方法,其特征在于,该方法包括以下步骤:

S1:在目标人群活动的各场合中放置相机系统,通过跨相机数据关联技术恢复视野,实现目标人群活动范围场景的全覆盖;

S2:按照目标人群的身体形态和脸部形态,将端到端检测网络模型Tiny-Yolov3中锚框的选择方式进行改进,通过新的锚框生成方法,结合实际的场景,选用1:1和1:5的比例,以提高识别的速度和精度;

S3:改进端到端检测网络的网络结构,改变输出尺度,并嵌入通道压缩和扩张结构,提高通道注意力,通过缩小版端到端检测网络的图像特征金字塔结构使用锚框推荐网络,提高空间注意力;

S4:将端到端检测网络改进,加入人脸检测,在人脸的尺度上级连人脸识别网络的头部网络,提高检测精度的同时保证检测速度;

S5:修改检测网络的损失函数,以适应目标人群及目标人群脸部检测的快速性需要;

S6:改进多目标跟踪监控模型,通过具体特征的提取以及具体场景的剪枝,提高在目标人群跟踪监控的模型适应性,将端到端检测模型的推理阶段嵌入到多目标跟踪模型中,使用深度特征作为体弱群体身份的识别信息,使用以下表达式平衡检测的结果和人脸识别的结果:id=β*facesimilar+(1-β)*v*P(v)

其中,id表示识别体弱群体的身份、β是平衡预测系数、v为标注框的类别,表示是否为人脸信息的置信度,P(v)为检测结果预测为该身份的概率、facesimilar表示人脸的相似度;

S7:对多目标跟踪监控网络进行冗余网络优化,提高跟踪监控每秒帧数;

S8:将修改好的端到端检测网络进行修剪,嵌入目标跟踪监控网络,用作深度特征生成,端到端的实现目标人群跟踪监控。

2.根据权利要求1所述的基于有限范围场景内的目标人群跟踪监控方法,其特征在于,所述S3包括以下步骤:S31、将网络的骨干网络嵌入压缩扩张结构,在残差后加入全连接层,增加在识别目标上的通道注意力;

S32、在端到端检测网络回归之后的检测框中增加锚框推荐网络,在大尺度的图像特征金字塔对应层,采用弱监督的方式,将锚框推荐网络的上采样形成的特征图进行3×3的反卷积形成单通道的特征图,将回归的检测框映射过来,进行如下计算:其中, 表示生成的空间注意力图、Fk是原特征图、vc是反卷积核、*表示反卷积;得到单通道的特征图,去掉与回归的锚框IOU小于0.5的锚框推荐,将空间注意力集中到有锚框回归的部分,进一步提高检测的精度。

3.根据权利要求1所述的基于有限范围场景内的目标人群跟踪监控方法,其特征在于,所述S4中,将人脸尺度的那一层特征图经过卷积,使用全局池化,接入全连接层,得到人脸向量,然后使用FaceNet头部网络映射到欧式空间,在训练和预测时将人脸特征作用于前面的特征层,准确地识别目标人群身份。

4.根据权利要求1所述的基于有限范围场景内的目标人群跟踪监控方法,其特征在于,所述S5中,将端到端检测网络提出的预测是人脸的锚框进行全局自适应池化,再将特征从原始图片到欧氏空间映射,加入相似度的损失,最终得到的损失函数如下:其中,loss1是中心点坐标回归损失、loss2表示有预测框处置信度损失、loss3是锚框类别预测损失、loss4是人脸相似度比较的损失、λcoord是中心点损失系数、k是最终预测的网格数、M表示该尺度锚框数量、 表示第i个锚框中第j层有物体obj、classes表示锚框的类别,xi、 yi、 分别表示横坐标的标注值、横坐标的预测、纵坐标的标注值、纵坐标的预测,w与h分别表示回归之后锚框的宽和高、x与y分别表示回归之后锚框的中心点坐标、c表示类别;λnoobj表示没有目标的格子对应的损失系数,wi与hi分别表示标注的宽和高、 与分别表示预测的宽和高、Ci表示当前单元是否负责某个对象,如果是则为1,不是则为0,表示预测的类别置信度、pi(c)、 分别表示类别的标注值和类别的预测值、N表示一张图上的人脸总数、 表示人脸的锚框、 表示预测为人脸的框;

总的损失loss为:

其中,contain表示包含人脸框,取值为{0,1},从损失能得出不包含人脸框时,相似度比较损失。