欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2020116344071
申请人: 华侨大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于多粒度对抗损失的细粒度图像识别方法,其特征在于,包括以下步骤:S1,使用区域混淆机制破坏图像全局信息,并进行图像增强,迫使网络更加关注图像区域信息,具体包括:将图像均匀地划分为N*N个子区域,Ri,j,其中,1≤i,j

对于Ri,j子区域,每一行的元素位置移动前设置一个随机数qi,获取到新的区域位置qj,i=i+r,其中,r~U(‑k,k),l≤k

σ(i,j)=(σj (i),σi (j))      (2)条件(1)约束Ri,j在其领域内移动,以破坏原图Image全局结构,生成新图像Image_N来增强数据图像,以加强图像区域特征信息;

S2,使用渐进式学习策略在深度神经网络的不同层提取特征,联合不同粒度的图像特征,对每一个特征和原图特征联合进行分类,包括:以深度卷积网络Resnet50作为基础网络,将深度卷积网络Resnet50分层,在浅层网络,图像学习其大致轮廓,然后通过向网络中添加层次来逐步提高分辨率,采用多粒度分割图像,迫使网络注意力转移到越来越小的尺度细节上;

将网络分为L个阶段的主干网络提取器,在不同的阶段提取特征,进而分类实现目标区域的识别,同时考虑最后S个阶段,其中,L,L‑1,......,L‑S+1,将最后的S个阶段特征联合为:concat L‑S+1 L‑1 L

V =concat[V ,……,V ,V]    (3)渐进式学习每个阶段的特征和最后S个阶段的特征,将获取的特征联合起来实现分类网络;

S3,获取多粒度对抗损失函数,来降低因破坏图像的全局结构而引起的噪声;

将图像在每一阶段网络输出的特征按权重拼接后实现多分类结果的准确度为

2.根据权利要求1所述的基于多粒度对抗损失的细粒度图像识别方法,其特征在于,所述将深度卷积网络Resnet50分层,具体为将深度卷积网络Resnet50分层为5部分conv1,conv2_x,conv3_x,conv4_x,conv5_x。

3.根据权利要求2所述的基于多粒度对抗损失的细粒度图像识别方法,其特征在于,L=4,将网络分为4个阶段的主干网络提取器。

4.根据权利要求3所述的基于多粒度对抗损失的细粒度图像识别方法,其特征在于,S=3。

5.根据权利要求4所述的基于多粒度对抗损失的细粒度图像识别方法,其特征在于,步骤S2包括以下4个阶段:(L‑1)

第一阶段获取Image_N,其中N=2 ,和原图连接得到增强数据Image_Double_8,在网Ll Ll络中先输入区域图像Image_Double_8,经过conv1,conv2_x,conv3_x,输出特征F ,将F 输Ll入到卷积块 卷积块 将特征F 生成 模块并送入池化层,进入分类,分类模块 由Batchnorm和ELU组成,得到 预测概率矩阵;

第二阶段在网络先输入区域图像Image_Double_4,经过conv1,conv2_x,conv3_x,conv4_x,获取特征图,通过卷积、池化、分类得到预测概率矩阵;

第三阶段在网络先输入区域图像Image_Double_2,经过conv1,conv2_x,conv3_x,conv4_x,conv5_x,获取特征图,通过卷积、池化、分类得到预测概率矩阵;

l‑2

第四阶段获取Image_Double,在神经网络经过conv1,conv2_x,conv3_x,获取F 特征,l‑2 l‑2 l‑2 l‑1 l‑1F 特征输入卷积块 得到V ,F 特征输入conv4_x得到F ,F 特征输入卷积块l‑1 l‑1 l l l得到V ,F 特征输入conv5_x得到F ,F 特征输入卷积块 得到V ,将最后的3个阶段特征联合为concat l l‑1 l‑2

V =concat[V ,V ,V ],

通过卷积、池化、分类得到预测概率矩阵。

6.根据权利要求1所述的基于多粒度对抗损失的细粒度图像识别方法,其特征在于,步骤S3包括:Ll

在每一个阶段真实标签y和预测概率y ,采用交叉熵进行损失计算,获得多粒度对抗损失函数:多粒度对抗损失函数防止Image_N过度破坏空间结构引起的噪声进入特征空间,对是否为破坏图像进行二分类,使判别器无法分辨出特征是来自原始图还是被破坏图,通过对抗学习的方式,降低噪声带来的影响。

7.根据权利要求1所述的基于多粒度对抗损失的细粒度图像识别方法,其特征在于,还包括步骤S4:concat concat

原始图像输入经过训练的模型中,获取V 实现y 进行预测,图像在网络输出的特征进行分类的准确度表示为:concat

C=arg max(y )。