欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021113307821
申请人: 江苏理工学院
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于融合深度网络的掌纹识别方法,其特征在于,方法步骤中包含:

构建掌纹图像数据集及用于掌纹识别的M‑CNN网络模型;

使用掌纹图像数据集对M‑CNN网络模型进行训练,根据训练结果对M‑CNN网络模型进行优化调整,保存训练完成的模型及权重,得到改进M‑CNN网络模型,并将输出的特征向量对应存入样本库内以用作后续匹配识别;

使用改进M‑CNN网络模型对需要识别的目标掌纹图像进行检测匹配识别,获得识别目标身份信息。

2.根据权利要求1所述的基于融合深度网络的掌纹识别方法,其特征在于,构建掌纹图像数据集的方法步骤中包含:获得多个掌纹图像,定位得到掌纹感兴趣区域图像;

对掌纹感兴趣区域图像进行处理,并提取对应特征图;

对每张掌纹感兴趣区域图像和对应特征图进行身份信息的分类标记,获得带有身份信息的掌纹图像数据,多个掌纹图像数据形成掌纹图像数据集。

3.根据权利要求2所述的基于融合深度网络的掌纹识别方法,其特征在于,获得多个掌纹图像的方法步骤中包含:使用公开的掌纹图像和/或使用图像采集设备拍摄掌纹图像。

4.根据权利要求2所述的基于融合深度网络的掌纹识别方法,其特征在于,对掌纹感兴趣区域图像进行处理的方法步骤中包含:对掌纹感兴趣区域图像进行去噪、掌纹图像信息增强、灰度化、归一化及旋转。

5.根据权利要求2所述的基于融合深度网络的掌纹识别方法,其特征在于,通过改进圆形LBP算法提取处理后的掌纹感兴趣区域图像的对应特征图,改进圆形LBP算法为:

以所选像素点为圆心,在半径为R的圆形邻域内取P个采样点,通过式(1)计算每个采样点的坐标;

xp=xc+R*cos(2πp/P),yp=yc‑R*sin(2πp/P)   (1)其中,(xc,yc)为圆形邻域中心点,即所选像素点的坐标,(xp,yp)为圆形邻域内所取的第p个采样点的坐标;

通过式(2)计算以c点即所选圆形邻域中心点为中心点,2R‑1个像素单位为边长的正方形邻域内所有像素点灰度值的均值

以式(3)中Mk的值作为c点的基准灰度值,将每个采样点p的灰度值与其比较求出c点的LBP值,逐个选取圆形邻域内每个采样点作为起始基准点得到一系列LBP值,取其最小值作为该所选圆形邻域中心点c点最终输出的LBP值;

其中,M(x,y)为正方形邻域内坐标为(x,y)的像素点的灰度值,Mp为圆形邻域内每个采样点的灰度值,M(x,y)和Mp通过双线性插值得到。

6.根据权利要求1所述的基于融合深度网络的掌纹识别方法,其特征在于,所述掌纹图像数据集被划分为训练集和测试集,使用训练集训练M‑CNN网络模型,使用测试集测试。

7.根据权利要求1所述的基于融合深度网络的掌纹识别方法,其特征在于,根据训练结果对M‑CNN网络模型进行优化调整的方法步骤中包含:利用梯度下降法,迭代更新网络参数。

8.根据权利要求2所述的基于融合深度网络的掌纹识别方法,其特征在于,M‑CNN网络模型包括用于提取掌纹图像关键点特征的M‑CNN‑1基于改进的残差网络分支和用于提取掌纹图像纹理特征的M‑CNN‑2卷积神经网络分支;其中,掌纹图像数据集中的掌纹感兴趣区域图像用于训练M‑CNN‑1基于改进的残差网络分支;

掌纹图像数据集中的特征图用于训练M‑CNN‑2卷积神经网络分支。

9.根据权利要求8所述的基于融合深度网络的掌纹识别方法,其特征在于,M‑CNN网络模型的工作方法包含:M‑CNN‑1基于改进的残差网络分支的工作方法,调整输入的掌纹感兴趣区域图像的尺寸;对调整尺寸后的掌纹感兴趣区域图像依次进行初卷积、最大池化操作,获得特征层一;

依次对特征层一的Block1层进行一次Conv Block和两次Identity Block操作、Block2层进行一次Conv Block和三次Identity Block操作、Block3层进行一次Conv Block和三次Identity Block操作、Block4层进行一次Conv Block和两次Identity Block操作,获得特征层二,将特征层二作为特征向量P1进行输出;

M‑CNN‑2卷积神经网络分支的工作方法,调整输入的特征图的尺寸;对调整尺寸后的特征图进行初卷积操作,获得特征层A;对特征层A依次进行最大池化、卷积、卷积、最大池化、卷积、卷积、最大池化操作,获得特征层B,将特征层B作为特征向量P2进行输出;

将特征向量P1和特征向量P2串联拼接,并接入全连接层。

10.根据权利要求9所述的基于融合深度网络的掌纹识别方法,其特征在于,使用改进M‑CNN网络模型对需要识别的目标掌纹图像进行检测匹配识别,获得识别目标身份信息的方法步骤中包含:

定位得到目标掌纹图像的目标掌纹感兴趣区域图像,对目标掌纹感兴趣区域图像进行处理,并提取对应目标特征图,得到目标掌纹图像数据;

将目标掌纹图像数据输入改进M‑CNN网络模型,输出的特征向量P1和特征向量P2经mean运算,flatten运算及全连接运算后接softmax与样本库匹配输出识别结果。