欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021105148255
申请人: 西北工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种面向在线学习的学习状态自动识别方法,其特征在于,包括以下步骤:步骤1:使用摄像头获取学习者在线学习时的视频,所述摄像头视线与显示屏法线方向平行,并且摄像头位于显示屏上沿中间位置;

步骤2:针对步骤1获得的视频,对学习者进行情感状态、专注状态和注视状态三种状态的识别;

步骤2.1:定义七种学习者情感状态,分别为:生气、厌烦、快乐、沮丧、惊讶、困惑、中性;

对视频进行预处理、特征提取与情感状态识别;

步骤2.1.1:对视频进行预处理:将视频中的每一帧图像灰度化,从图像中搜索人脸,将学习者的正脸图像用矩形框框定并裁切,处理成48×48像素的矩形图像进行归一化与人脸扶正;

步骤2.1.2:进行表情特征提取:对VGG神经网络进行简化,构建表情特征提取卷积神经网络,网络结构如下:由七个卷积层和三个池化层堆叠而成,分为3块;其中第一块包含两个卷积核为3×3且通道数为64的卷积层,后接一个最大池化层;第二块包含两个卷积核为3×3且通道数为64的卷积层,后接一个最大池化层;第三块包含三个卷积核为3×3且通道数为128的卷积层,后接一个最大池化层;所有卷积层的激活函数都使用relu函数;

将矩形图像输入表情特征提取卷积神经网络,依次经过第一块、第二块和第三块,矩形图像的高和宽依次变为24*24像素、13*13像素、7*7像素;

步骤2.1.3:表情特征提取卷积神经网络后接三层全连接层进行情感判别;全连接层第一层有1024个节点,第二层有512个节点,第三层有6个节点,前两层的激活函数使用relu函数,第三层的激活函数使用softmax函数;输出识别的情感状态;

步骤2.2:定义两种专注状态,分别为专注和松散;

对视频图像进行预处理、特征提取与专注状态识别;

步骤2.2.1:从视频图像中检测出学习者的头部与人眼,获取面部图像;

步骤2.2.2:进行专注度的特征提取,将学习者身体倾斜程度作为专注度的判断依据,学习者身体倾斜程度包含两个指标:面部到摄像头的距离distance、头部倾斜角度angle;

将面部定义为:

face=x,y,w,h

其中面部位置坐标为(x,y),面部尺寸为(w,h);

将视频图像命名为bgr_image,面部图像命名为face_image,则面部图像在视频图像中表示为:

face_image=bgr_image[y:y+h,x:x+w];

则面部与摄像头的距离distance表示为:在face_image图像中进行人眼检测,利用眼睛的相对位置计算学习者头部倾斜角度,具体如下:

定义左眼坐标为(x1,y1),右眼坐标为(x2,y2),则学习者头部倾斜角度的斜率slope表示为:

头部倾斜角度angle计算公式为:angle=|arctan(slope)|步骤2.2.3:设定默认的距离参照值R,距离参照值R或者为学习者在线学习处于专注状态时的距离平均值,或者由学习者设定自己处于专注坐姿时的距离值;再设定宽容度T,用于调整监测专注度时的识别灵敏程度;

当距离distance满足条件:min≤distance≤max则学习者处于专注状态,其中:min=R×(1‑T)

max=R×(1+T)

步骤2.3:定义两种注视状态,分别为注视屏幕和离开屏幕;

对视频图像进行预处理、特征提取与注视状态识别;

步骤2.3.1:使用人脸68个关键点检测法定位内外眼角点,利用每只眼睛的关键点生成一个眼部矩形区域,直接在眼部矩形区域内搜索虹膜;

设定边缘值margin,对于左眼和右眼,将x1,x2,y1,y2表示为:x1=min(EYE_X)‑marginx2=max(EYE_X)+marginy1=min(EYE_Y)‑marginy2=max(EYE_Y)+margin式中:

EYE_X——眼部所有关键点的横坐标;

EYE_Y——眼部所有关键点的纵坐标;

眼部图像的高度height和宽度width为:height=y2‑y1

width=x2‑x1

步骤2.3.2:对眼部矩形区域进行双边滤波操作;再进行腐蚀操作,消除眼部矩形区域中不相关的细节;然后进行二值化;

获取二值化图像后,提取眼部轮廓,并计算眼部轮廓面积,眼部轮廓面积表示为所有像素点的个数;

令(Xc,Yc)表示虹膜中心的坐标,计算公式为:其中,m00和m10为图像空间距,图像空间矩的表示如下:针对一幅图像,把像素的坐标看成是二维随机变量(x,y),则一副灰度图能用二维灰度图密度函数进行表示,并用空间矩描述灰度图像的特征;能够通过面积获得图像的空间矩,空间矩的公式为:

步骤2.3.3:设左眼虹膜坐标为(Xl,Yl),左眼眼部中心坐标为(Xlc,Ylc);右眼虹膜坐标为(Xr,Yr),右眼眼部中心坐标为(Xrc,Yrc);则虹膜的水平偏移比率ratio表示为:学习者的水平注视方向判定标准为:步骤3:识别出学习者的情感状态、专注状态及注视状态之后,使用加权平均法对三种状态按照权重求和进行信息融合,计算出学习状态state,其计算如下:式中:

xi——第i个状态按规则量化后得出的状态值;

λi——xi对应的权重;

xi的计算如下:

x1为情感状态值,赋值如下:x2为专注状态值,赋值如下和:x3为注视状态值,赋值如下:当学习状态state小于0.5时判定为消极状态,状态值大于等于0.5时判定为积极状态;

步骤4:将识别结果实时显示;

步骤5:学习结束后将整个学习过程中的状态变化情况进行存储。

2.根据权利要求1所述的一种面向在线学习的学习状态自动识别方法,其特征在于,所述步骤2.1.1中使用Viola‑Jones检测算法的Haar‑like人脸检测器从图像中搜索人脸。

3.根据权利要求1所述的一种面向在线学习的学习状态自动识别方法,其特征在于,所述宽容度T的值介于0.05到0.3之间。