欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2020101925895
申请人: 金陵科技学院
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于GAN-CNN框架的机器人手势识别方法,具体步骤如下,其特征在于:步骤1,高清摄像机预先采集不同手势样本图片,而后通过WIFI传送至机器人数据处理系统;

步骤2,数据处理系统利用生成对抗网络(GAN)对步骤1中不同的手势样本图片进行扩展;

步骤3,对步骤2获得的扩展手势图片制作相应的标签,然后将扩展得到的手势图片及其对应的标签输入到卷积神经网络(CNN)中,从而完成CNN分类识别模型的预训练;

步骤4,高清摄像机实时采集不同手势样本图片,而后通过WIFI传送至机器人数据处理系统;

步骤5,数据处理系统利用预训练好的CNN模型对步骤4中所采集的照片进行分类识别,并将相关的识别信息通过WIFI上传至MYSQL数据库进行存储;

步骤6,机器人根据CNN识别结果执行相应的动作,至此,整个闭环过程结束。

2.根据权利要求1所述的基于GAN-CNN框架的机器人手势识别方法,其特征在于:步骤2中GAN网络模型训练的步骤为:步骤2.1,固定生成器G,训练鉴别器D;

步骤2.2,固定鉴别器D,训练生成器G;

步骤2.3,重复步骤2.1和步骤2.2,直至整个网络达到纳什平衡或者迭次次数达到设定的最大值,整个对抗过程的目标函数可以表示为:式中,pdata(x)表示真实样本x的分布概率,pz(z)表示生成器G的输入噪声变量z的分布概率z的分布概率,D(x)表示D鉴别x来源于真实样本的概率,D(G(z))表示D鉴别z来源于虚假样本的概率。

3.根据权利要求1所述的基于GAN-CNN框架的机器人手势识别方法,其特征在于:步骤3中CNN网络模型训练的步骤为:步骤3.1,将扩展得到的手势图片及其对应的标签输入到CNN中,其中卷积层滤波处理可以表达为:式中, 为n层卷积上第l个卷积核的输出,σ(·)为非线性激活函数,本发明选用RULE函数, 为n层第l个卷积核的权重系数, 为n-1层第m个特征输出, 是偏置项;

步骤3.2,将卷积层处理后的图片输入至下一个处理层,即:池化层,本发明的池化方式选用Max pooling;

步骤3.3,依次对图片进行类似于步骤3.1和步骤3.2的卷积池化处理;

步骤3.4,将步骤3.3中获得图片以Flatten的方式进行展开,然后连接全连接层1和全连接层2;

步骤3.5,利用Softmax逻辑回归实现对多层提取后的特征向量的识别与分类,其中Softmax回归的输出定义如下:式中,K为类别数,θj(1≤j≤K)为分类层参数;

步骤3.6,在交叉熵损失函数下,利用随机梯度下降(SGD)算法对CNN网络参数进行更新优化;

步骤3.7,重复以上步骤,直至交叉熵损失函数收敛或网络迭代次数达到设定的阈值,此时认为模型训练完成。

4.根据权利要求1所述的基于GAN-CNN框架的机器人手势识别方法,其特征在于:步骤5中将相关的识别信息通过WIFI上传至MYSQL数据库进行存储可具体描述为:将实时采集的照片和相应的判断结果发送至MYSQL数据库,当已有的模型判断出错时,则将判断出错的图片数据制作相应的标签,而后对已有的模型进行重新训练,其中训练过程与步骤3.1-3.7保持一致,从而提高模型的分类识别的精度和泛化性。