欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2020107764153
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-26
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,包括:实时获取人脸数据,将获取的人脸数据输入到训练好的3CNN模型中,得到该人脸动态表情识别结果;所述训练好的3CNN模型的获取包括:获取原始人脸数据集,对原始人脸数据集进行预处理,得到人脸数据训练集;将人脸数据训练集输入到构建好的3CNN模型中进行模型训练,得到训练好的3CNN模型;

所述得到人脸数据训练集的过程包括:

S1:对获取的原始人脸数据集进行人脸对齐以及面部特征点标记处理;

S2:选择面部特征变化大的特征点;

S3:根据选择的特征点构建轨迹矩阵;将各个轨迹矩阵进行组合,得到原始轨迹图;

S4:采用随机因子对轨迹矩阵进行微调处理,得到新的轨迹矩阵;将新的轨迹矩阵进行组合,得到新的轨迹图,将原始人脸数据集、原始轨迹图和新的轨迹图作为人脸数据训练集;采用随机因子对轨迹矩阵进行微调处理的过程包括:S41:定义随机因子为(a,b),其中a,b均为随机生成的且满足均值为0、方差为1的标准正态分布的小数;

S42:采用随机因子对各个特征点的坐标进行微调;

S43:根据微调后的特征点坐标重新计算新的斜率,根据新斜率求出新的轨迹矩阵;

S44:将求出的新轨迹矩阵进行组合,得到新的轨迹图;

其中,3CNN表示三个联合的卷积神经网络。

2.根据权利要求1所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,所述对获取的原始人脸数据集进行人脸对齐以及面部特征点标记处理过程包括:S11:采用Viola‑Jones人脸检测算法对原始人脸数据集进行人脸检测;对检测后的人脸数据进行去背景以及去除非面部区域处理,得到人脸边界框;

S12:根据人脸边界框对原始人脸数据集中的动态序列的每一帧图像进行裁剪,得到面部区域;

S13:对得到的面部区域进行几何归一化处理,得到新的面部区域;

S14:对新的面部区域的特征点进行标记,得到具有特征点的图像;将各个特征点的位置坐标进行保存。

3.根据权利要求1所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,所述选择面部特征变化大的特征点的过程包括:S21:将特征点图像的各个特征点划分为眉毛、眼睛、鼻子以及嘴四组;

S22:分别计算相同组内的各个特征点变化量;

S23:选择各个组中特征变化量大的特征点。

4.根据权利要求3所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,所述计算相同组内的各个特征点变化量的公式为:pq

其中,D 表示第p组的第q个特征点的各帧与第一帧的位置差异之和,pq表示第p组的第q个特征点,i表示第i帧图像,j表示第j帧图像, 表示第p组的第q个特征点在第j帧图像中的位置横坐标, 表示第p组的第q个特征点在第j帧图像中的位置纵坐标,m表示峰值帧在动态序列的第m帧。

5.根据权利要求1所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,构建轨迹矩阵与原始轨迹图的过程包括:S31:对获取的特征点进行编号处理,用(x,y)表示图像中特征点的位置坐标,即特征点A1的坐标为A1(x1,y1)A1(x2,y2)…A1(xm,ym),其中(x,y)的下标表示图像的帧,m表示峰值帧在动态序列的第m帧;

S32:根据每个特征点的坐标计算每个特征点的偏移量;

S33:根据各个特征点的偏移量计算轨迹矩阵的斜率k;

S34:根据斜率k求出轨迹矩阵;

S35:将求出的轨迹矩阵进行组合,得到原始轨迹图。

6.根据权利要求1所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,所述3CNN模型包括:3个训练不同数据的卷积神经网络层以及1个分类层。

7.根据权利要求6所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,第一卷积神经网络层和第二卷积神经网络层用于提取静态图像的面部表情特征;第三卷积神经网络层用于提取特征点随表情变化的变化特征;分类层用于将三个神经网络提取的特征进行合并以及表情分类处理。

8.根据权利要求1所述的一种基于人脸特征点数据增强的动态表情识别方法,其特征在于,进行模型训练的过程包括:步骤1:将训练集中的初始帧经灰度归一化处理后输入到3CNN模型的第一卷积神经网络层中;初始帧图像依次经过卷积层、卷积层、池化层、卷积层、池化层、卷积层以及池化层,得到特征信息;将提取的特征信息转化为一维向量;

步骤2:将训练集中的峰值帧经灰度归一化处理后输入到3CNN模型的第二卷积神经网络层中;峰值帧图像依次经过卷积层、卷积层、池化层、卷积层、池化层、卷积层以及池化层,得到特征信息;将提取的特征信息转化为一维向量;

步骤3:将训练集中的轨迹图输入到3CNN模型的第三卷积神经网络层中;输入的轨迹图经过编码层,使数据范围调整到[0,1]之间,将调整后的数据依次经过卷积层、卷积层、池化层、卷积层、池化层、卷积层以及池化层,得到特征信息;将提取的特征信息转化为一维向量;

步骤4:将步骤1、步骤2以及步骤3输出的一维向量进行合并处理,将合并后的数据输入到分类层中,预测表情;

步骤5:将预测的表情与实际标签进行对比,通过误差反向传播算法不断训练3CNN模型,完成模型的训练。