欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021103306112
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-26
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,包括:实时获取人脸视频数据,对人脸视频数据进行预处理;将预处理后的人脸图像输入到训练好的改进Slim‑YOLOv3模型中,判断用户是否正确佩戴口罩;所述改进的Slim‑YOLOv3模型包括骨干网络ECADarknet‑53、特征增强及预测网络以及解码网络;

训练改进的Slim‑YOLOv3模型的过程包括:

S1:获取原始数据集,对原始数据集进行预处理,得到训练样本集和测试样本集;

S2:对训练样本集和测试样本集中的数据进行分类和重新标注处理;

S3:将分类后的训练样本集输入到骨干网络Darknet‑53中进行多尺度变换,提取多个尺度特征;

S4:将多个尺度特征输入到特征增强及预测网络中,得到分类预测结果;

S5:将分类预测结果输入到解码网络中进行解码;

S51:将每个网格点加上对应的x_offset和y_offset,得到预测框的中心;其中x_offset和y_offset分别表示网格左上角坐标(x,y)和实际预测的点x和y方向上的偏移量;

S52:将先验框和h、w结合,并计算出预测框的长和宽;其中h,w分别表示预测框的尺度缩放值;

S53:通过位置信息与实际标注信息计算定位损失,通过预测类别信息和实际标注类别信息计算分类损失;

S54:判断真实框在图片中的位置,判断其属于哪一个网格点去检测;

S55:计算真实框与先验框重合程度,并选取重合度最高的先验框进行验证;

S56:获得网络应该有的预测结果,将其与实际的标注结果对比;

S6:根据解码结果计算模型的损失函数;

2

其中,λcoord和λnoobj为对应项的权重,S表示网格个数,B表示每个网格产生候选框的个数, 表示第i个网格的第j个深度学习目标检查算法的锚框anchor box是否负责预测这个对象, 表示第i个网格的第j个anchor box不负责预测这个对象,xi表示第i个网格实际中心点的横坐标,yi表示第i个网格实际中心点的纵坐标, 第i个网格的第j个anchor box预测并解码后的中心点横坐标, 表示第i个网格的第j个anchor box预测并解码后的中心点纵坐标,ω、h分别表示目标的宽和高, 分别表示解码后目标的宽和高,C表示目标预测框内含有目标物体的置信度, 表示解码后目标预测框内含有目标物体的置信度,classes表示数据集的所有类别,P表示目标属于类别c的概率, 表示解释目标属于类别c的概率;

S7:将测试集中的数据输入到模型进行预测,根据预测结果对模型的损失函数进行优化,当损失函数变化较小或达到迭代次数时,完成模型的训练。

2.根据权利要求1所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,对原始数据集进行预处理包括:将原始数据集中的数据进行压缩、翻转以及改变图像的明暗程度,得到增强的图像数据;对增强后的图像数据进行分割,得到训练样本集和测试样本集。

3.根据权利要求1所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,对训练样本集和测试样本集中的数据进行分类的过程包括:根据原始数据集的图像人脸佩戴口罩情况划分为三类,包括规范佩戴口罩图、不规范佩戴口罩图以及不佩戴口罩图;

采用改进的图像无监督自分类方法SCAN对不规范佩戴口罩图进行再次分类,得到了多个子类。

4.根据权利要求3所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,采用改进的图像无监督自分类方法SCAN对不规范佩戴口罩图进行分类的过程包括:步骤1:提取口罩数据集中不规范佩戴口罩的人脸区域作为训练集;

步骤2:采用ECAResnet50网络对口罩佩戴情况数据集人脸区域数据进行分类训练,得到预训练权重;

步骤3:将预训练权重导入ECAResnet50的对抗网络中,提取图像的高级语义特征;

步骤4:计算各个高级语义特征的cosine相似度,并将相似度较大的语义特征对应的图像划分为邻居;

步骤5:将最近邻居作为先验进行聚类学习;

步骤6:采用self‑labeling标签对聚类学习的图像进行微调标记处理,得到四个类别的伪标签。

5.根据权利要求4所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,计算高级语义特征的cosine相似度的公式为:其中,xi和yi分别表示两个语义特征的向量中的第i维,n表示向量的总维数。

6.根据权利要求5所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,采用骨干网络ECADarknet‑53提取分类后的训练样本集中图像的多尺度特征的过程包括:将图像输入到数据增强模块中,将图像调整为416*416*3大小;将调整后的图像输入到ECADarknet53网络中,采用一个卷积快对图像进行一次卷积升维,得到一个batch_size*

416*416*32大小的图像;采用引入注意力机制ECANet模块的五个残差卷积块对卷积升维后的图形进行特征提取,每经过一个残差卷积块,所提取的特征尺度变大,最终输出第四残差卷积块和第五残差卷积块得到的两个特征层;其中,batch_size表示每次输入网络的图像数量。

7.根据权利要求6所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,注意力机制ECANet模块对特征进行处理的过程包括:采用不降低维数的通道级对特征层进行全局平均池化操作;每个通道选取k个近邻通道的数据对全局平均池化操作后的数据进行1×1的卷积,并通过一个sigmod激活函数;将激活后的数据扩展到输入特征大小并与输入特征相乘,得到含有多个通道信息的增强特征。

8.根据权利要求1所述的一种基于Slim‑YOLOv3的口罩佩戴情况检测方法,其特征在于,采用特征增强及预测网络对多个尺度特征进行处理的过程包括:步骤1:将ECADarknet53网络中的第五残差卷积块得到的特征进行五次卷积处理;

步骤2:将进行卷积处理后的特征再次进行一次3×3卷积和一次1×1的卷积处理,将该处理的结果作为第五残差卷积块对应尺度特征层的预测结果;

步骤3:对五次卷积处理后的特征进行反卷积UmSampling2d操作后与第四残差卷积块得到的特征层进行堆叠处理,融合增强两个尺度特征的信息;

步骤4:对融合特征图进行五次卷积处理,将进行五次卷积的特征图进行一次3×3卷积和一次1×1的卷积,得到第四残差卷积后块对应尺度特征层的预测结果;

步骤5:输出两个尺度的特征层的预测结果,每个尺度的预测结果包括两个先验框每个网格点对应的预测框及其种类,即两个特征层分别对应着图片被分为不同大小的网格后,每个网格点上三个先验框对应的位置、置信度及其种类。