欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019105186423
申请人: 河南大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于改进的LSTM神经网络模型的试题推荐判定方法,其特征在于,包括以下步骤:A:采集试题并保存作为试题数据;

B:对已保存的试题数据进行处理,按照题型、难度和知识点分别提取所有试题的试题信息,并存入数据库;

其中,题型是指该试题在学科下的类型,难度是指该试题的平均正确率,知识点是指考试大纲中明确要求需要考察的知识范围;

C:根据数据库内试题之间的难易关系,利用Log5公式分别计算出每一个试题与其它所有试题之间的关系矩阵,并将计算得到的关系矩阵存入数据库;

A试题与B试题的关系矩阵pA,B的Log5计算公式为:其中,pA为A试题的平均正确率,pB为B试题的平均正确率;

D:利用独热编码对数据库内的试题及对应的关系矩阵进行预处理,将预处理后的试题及对应的关系矩阵作为神经网络模型的输入向量;

E:将输入向量划分为训练样本数据和测试样本数据;

F:构造LSTM神经网络模型作为试题推荐模型,通过训练样本数据得到LSTM神经网络模型;在训练过程中,依据交叉熵准则计算误差向量,并根据标准反向传播算法更新权重,得到权重更新后的LSTM神经网络模型并作为修正后的LSTM神经网络模型;

G:将所有待判定是否需要推荐的试题,按照步骤B和步骤C进行处理,并将试题及计算出的对应的关系矩阵作为修正后的LSTM神经网络模型的输入数据,利用修正后的LSTM神经网络模型对输入数据进行学习,最终输出试题推荐结果,按照输出的试题推荐结果判定是否对该试题进行推荐。

2.根据权利要求1所述的基于改进的LSTM神经网络模型的试题推荐判定方法,其特征在于,所述的步骤F中,LSTM神经网络模型的构造过程如下:F1:设置LSTM神经网络模型的输入维度和输入数据的步长;

F2:设置LSTM神经网络模型的输入数据读取批次规模和窗口长度;

F3:设置LSTM神经网络模型的优化器和学习率;

F4:设置LSTM神经网络模型的隐藏层节点数;

F5:设置LSTM神经网络模型的迭代次数;

F6:调整参数,训练模型,查看LSTM神经网络模型收敛程度,选取收敛度高的参数,得到修正后的LSTM神经网络模型;其中,参数包括学习率、优化器、网络层数、隐藏层节点数、隐藏层节点维度和迭代次数。

3.根据权利要求2所述的基于改进的LSTM神经网络模型的试题推荐判定方法,其特征在于:所述的步骤F中,LSTM神经网络模型具有一个输入层和两个隐藏层。

4.根据权利要求3所述的基于改进的LSTM神经网络模型的试题推荐判定方法,其特征在于:所述的LSTM神经网络模型的隐藏层采用LSTM单元,LSTM单元具有三个门,分别为输入门、遗忘门和输出门;LSTM单元的具体公式为:it=σ(Wxixt+Whiht+Wcict‑1+bi);

ft=σ(Wxfxt+Whfht‑1+Wcfct‑1+bf);

ct=ftct‑1+ittanh(Wxcxt+Whcht‑1+bc);

ot=σ(Wxoxt+Whoht‑1+Wcoct‑1+bo);

ht=ottanh(ct);

其中,i、f、c、o、h分别表示输入门(input gate)、遗忘门(forget gate)、输出门(output gate)、单元激活向量(cell activation vectors)和隐藏层单元,Wxi、Whi、Wci分别为输入特征向量与输入门之间的权重矩阵、隐藏层单元与输入门之间的权重矩阵以及单元激活向量与输入门之间的权重矩阵,Wxf、Whf、Wcf分别为输入特征向量与遗忘门之间的权重矩阵、隐藏层单元与遗忘门之间的权重矩阵以及单元激活向量与遗忘门之间的权重矩阵,Wxo、Who、Wco分别为输入特征向量与输出门之间的权重矩阵、隐藏层单元与输出门之间的权重矩阵以及单元激活向量与输出门之间的权重矩阵,Wxc和Whc分别为输入特征向量与单元激活向量之间的权重矩阵以及隐藏层单元与单元激活向量之间的权重矩阵,权重矩阵均为对角阵:bi、bf、bc和bo分别为输入门的偏差值、遗忘门的偏差值、输出门的偏差值以及单元激活向量的偏差值,下标t表示采样时刻,tanh为激活函数;xt表示t时刻的输入数据;激活函数σ为sigmoid函数,该函数公式如下:其中,x为输入数据;e为自然常数;激活函数sigmoid能够把输入向量值处理到(0,1)范围内;特别的,若输入为趋近于负无穷的负数时,sigmoid函数输出无限趋近于0;若输入为趋近于正无穷的正数时,sigmoid函数输出无限趋近于1;

激活函数tanh的函数公式如下:

其中,x为输入数据,激活函数tanh将一个实数输入映射到(‑1,1)范围内,当输入为0时,tanh函数输出为0。

5.根据权利要求4所述的基于改进的LSTM神经网络模型的试题推荐判定方法,其特征在于:所述的步骤F中的网络训练中,初始化隐藏状态为0,将当前batch的最终隐藏状态作为后续batch的初始隐藏状态,连续batch按顺序遍历整个训练样本数据集,LSTM神经网络模型的输出层使用softmax函数计算出最后的预测结果,softmax函数公式如下:其中,S(z)j表示第j个分类结果的softmax函数值,z为输入数据,e为自然常数,j=1,

2,……,K,K为自然数;

在训练的每一步过程中,根据数据交叉熵计算损失值,并根据计算出的交叉熵损失值使用标准反向传播算法更新权重;

其中,为预测输出值,y为数据真实值,L为计算得到的交叉熵损失值;训练样本数据中的试题及对应的关系矩阵作为训练的输入数据,在训练网络的过程中进行测试。

6.根据权利要求5所述的基于改进的LSTM神经网络模型的试题推荐判定方法,其特征在于:所述的步骤F中,将步骤E得到的测试样本数据输入训练后的LSTM神经网络模型中,比较训练后的LSTM神经网络模型输出的试题推荐结果,并将输出的试题推荐结果与期望值进行比较,通过输出的试题推荐结果与期望值的差值对训练后的LSTM神经网络模型中的权重进行更新,将权重更新后的LSTM神经网络模型作为修正后的LSTM神经网络模型。