欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018104194343
申请人: 江南大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2023-10-10
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于变速学习深度自编码网络的人脸识别方法,其特征在于,包括以下步骤:

1)将训练数据集输入识别模型进行数据预处理;

2)将预处理后的数据输入可变速学习的深度自编码网络进行逐层预训练;

2-1)使用小批量梯度下降算法训练深度自编码网络,首先训练第一层网络,初始化学习阶段数设为1;

2-2)对输入层数据进行编码得到隐含层数据,再将隐含层数据解码得到输出层数据,分别计算输出层数据和输入层数据间的重构误差信息和网络参数更新信息;

2-3)统计网络的重构误差信息,量化局部变速系数和总体变速系数;

2-4)统计网络的参数更新信息,量化相关变速系数;

2-5)将局部变速系数、总体变速系数和相关变速系数相乘,得到最终变速系数;

2-6)将初始学习率与步骤2-5)的最终变速系数相乘,获得下一阶段的学习率向量,每个隐含层特征节点有与之对应更新的学习率且其学习过程相互独立;下一阶段的网络参数将在各节点对应的学习率指导下完成更新;

2-7)当前学习阶段数自加1,判断当前阶段数是否小于预设学习阶段总数,满足则跳转至步骤2-2),否则表示当前层训练完毕,跳转至步骤2-8);

2-8)上一个自编码网络的隐含层输出作为下一个自编码网络的隐含层的输入,同样使用小批量梯度下降法,以重构误差最小化为目标进行阶段化训练;训练中参数更新所使用的学习率同样通过2-2)至步骤2-7)的变速学习策略进行更新;直至完成深度自编码网络各层预训练为止;

3)对各层已完成预训练的深度自编码网络进行全网微调;

3-1)将预处理后的人脸图像数据输入步骤2)训练好的深度自编码网络,进行逐层特征提取,网络最后一层上添加分类器,通过反向传播算法对深度自编码网络进行参数优化;

3-2)当完成全网络微调后,即可获得基于变速学习的深度自编码网络模型;

4)将预处理后的待识别人脸图像通过输入微调后的深度自编码网络模型中,得到对应的识别结果。

2.根据权利要求1所述的方法,其特征在于,所述步骤1)中的数据预处理首先通过LBP方法初步提取人脸的纹理特征,然后将图像数据归一化至区间[0,1]。

3.根据权利要求1或2所述的方法,其特征在于,所述步骤2-3)具体为:A1)基于步骤2-2)得到的重构误差信息,分别计算得到当前阶段块级平均误差CME、当前阶段批次级测试误差CTE、总体块级平均误差GME和总体批次级测试平均误差GTE,计算方法分别为:其中,Lrepochs为该学习阶段中的训练批次数,MSE(t)(j)指第t个学习阶段的第j批次训练误差;

其中,TE(t)(j)指第t个学习阶段的第j批次整体训练误差,表示当某一学习阶段的某批次完成参数更新后当即对该批次进行一次前馈计算,获取该批次所有数据块更新后网络的整体训练误差;

A2)从局部和整体角度通过步骤A1)得到的四个参量计算当前效应Ceffect和总体效应Geffect,计算方法分别为:A3)根据步骤A1)和步骤A2)得到的Ceffect、Geffect和CTE,判断当前变速方向和总体变速方向,具体判断方式为:其中,CTE(t)和CTE(t-1)分别表示第t阶段和第t-1阶段的当前批次级测试误差,GTE(t)和GTE(t-1)分别表示第t阶段和第t-1阶段的总体批次级测试平均误差;

A4)基于步骤A3)得出的变速方向,通过Ceffect和Geffect及其各自历史效应的最大最小值计算局部变速系数Clrcc和总体变速系数Glrcc;

当变速方向是加速时,局部变速系数Clrcc和总体变速系数Glrcc的计算方式分别为:当变速方向是减速时,局部变速系数Clrcc和总体变速系数Glrcc的计算方式分别为:其中,MAX(Ceffect)和MIN(Ceffect)分别为Ceffect的历史最大值和最小值,MAX(Geffect)和MIN(Geffect)分别为Geffect的历史最大值和最小值。

4.根据权利要求1或2所述的方法,其特征在于,所述步骤2-4)具体为:B1)基于步骤2-2)得到的参数更新信息,计算学习阶段内连接各隐含层节点的参数更新变化量Δθ,所述的参数包括权重和偏置;

上式中,dθ(t)(j)为第t个学习阶段中第j个批次训练时的参数更新值;

B2)用PPMCC度量网络各阶段间隐含层节点权值更新量之间的强弱关系和变化趋势,计算得出每个节点对应的相关性系数R;

上式中,Δθi(t)和Δθi(t-1)分别表示与当前层第i个节点相连的所有权值参数在第t个阶段和第t-1个阶段上的权值更新量, 和 分别表示第t阶段和第t-1阶段当前层所有神经元的平均激活值;cov(·)表示协方差函数, 和 分别表示Δθi(t)和Δθi(t-1)的标准差;

B3)将步骤B2)得到的相关性系数R统一映射至区间[0,2],得到相关变速系数Rlrcc,其中,MIN(R(t)和MAX(R(t)分别为第t阶段相关性系数中的最小值和最大值。

5.根据权利要求3所述的方法,其特征在于,所述步骤2-4)具体为:B1)基于步骤2-2)得到的参数更新信息,计算学习阶段内连接各隐含层节点的参数更新变化量Δθ,(t)

上式中,dθ (j)为第t个学习阶段中第j个批次训练时的参数更新值;

B2)用PPMCC度量网络各阶段间隐含层节点权值更新量之间的强弱关系和变化趋势,计算得出每个节点对应的相关性系数R;

上式中,Δθi(t)和Δθi(t-1)分别表示与当前层第i个节点相连的所有权值参数在第t个阶段和第t-1个阶段上的权值更新量, 和 分别表示第t阶段和第t-1阶段当前层所有神经元的平均激活值;cov(·)表示协方差函数, 和 分别表示Δθi(t)和Δθi(t-1)的标准差;

B3)将步骤B2)得到的相关性系数R统一映射至区间[0,2],得到相关变速系数Rlrcc,其中,MIN(R(t)和MAX(R(t)分别为第t阶段相关性系数中的最小值和最大值。

6.根据权利要求1、2或5所述的方法,其特征在于,所述步骤2-5)中的最终变速系数LRCC计算公式为:LRCC(t)=Clrcc(t)*Glrcc(t)*Rlrcc(t)。

7.根据权利要求3所述的方法,其特征在于,所述步骤2-5)中的最终变速系数LRCC计算公式为:LRCC(t)=Clrcc(t)*Glrcc(t)*Rlrcc(t)。

8.根据权利要求4所述的方法,其特征在于,所述步骤2-5)中的最终变速系数LRCC计算公式为:LRCC(t)=Clrcc(t)*Glrcc(t)*Rlrcc(t)。

9.根据权利要求1、2、5、7或8所述的方法,其特征在于,所述步骤2-6)中学习率向量的计算公式为:Lr(t)=LRCC(t)*Lr,其中,Lr(t)为第t阶段的学习率,Lr为网络初始学习率;

对应的第t阶段网络参数更新公式为: 其中,θ表示网络中的参数, 表示损失函数的梯度。

10.根据权利要求6所述的方法,其特征在于,所述步骤2-6)中学习率向量的计算公式为:Lr(t)=LRCC(t)*Lr,其中,Lr(t)为第t阶段的学习率,Lr为网络初始学习率;对应的第t阶段网络参数更新公式为: 其中,θ表示网络中的参数,表示损失函数的梯度。