欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2017111338890
申请人: 陕西师范大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度神经网络的遥感图像目标检测方法,其特征在于,包括:获取训练样本并对所述训练样本进行缩放预处理操作;

在预处理后的所述训练样本中,对包含遥感目标及遥感背景的训练样本图像执行多种类型的标记操作;

基于最大迭代次数,对选取的深度卷积神经网络模型执行预训练和微调操作,得到微调的深度卷积神经网络模型;

对所述微调的深度卷积神经网络模型的全连接层进行处理,得到微调的深度全卷积网络模型;

基于所述微调的深度卷积神经网络模型及所述微调的深度全卷积网络模型对遥感图像目标进行检测。

2.根据权利要求1所述的方法,其特征在于,优选的,所述获取训练样本并对所述训练样本进行缩放预处理操作,包括:(a)从日常常见物体数据集ILSVRC-2012中选取1000000张常见物体样本图像,从遥感图像数据集中选取4000张包含遥感目标的训练样本图像和9000张包含遥感背景的训练样本图像;

(b)1000000张常见物体样本图像不需要进行预处理;

(c)对4000张包含遥感目标的训练样本图像进行预处理;

其中,预处理包括采用公示 对样本进行缩放,其中I0为缩放前

的图像,I为缩放后的图像,I(x,y)是图像I中的坐标为(x,y)的像素点的值,w0和h0是图像I0的宽度和高度,w和h是图像I的宽度和高度,可以选择的w和h的组合有:(64,64)、(128,128)和(256,256);

(d)对9000张包含遥感背景的训练样本图像进行预处理和步骤(c)步骤相同。

3.根据权利要求1所述的方法,其特征在于,所述在预处理后的所述训练样本中,对包含遥感目标及遥感背景的训练样本图像执行多种类型的标记操作,包括:对包含遥感目标的训练样本图像和包含遥感背景的训练样本图像添加标记,所述标记分为图像级的标记、目标级的标记或像素级的标记中的一种或多种,其中,(a)图像级的标记是指对包含遥感目标的训练样本图像添加值为1的标记,对包含遥感背景的训练样本图像添加值为0的标记;

(b)目标级的标记是指在包含遥感目标的训练样本图像中标记目标在图像中的精确位置;

(c)像素级的标记是指在包含遥感目标的训练样本图像中给目标区域的像素点添加值为1的标记,给其他像素点添加值为0的标记。

4.根据权利要求1所述的方法,其特征在于,所述基于最大迭代次数,对选取的深度卷积神经网络模型执行预训练和微调操作,得到微调的深度卷积神经网络模型,包括:(a)使用1000000张常见物体样本图像作为训练样本,选取深度卷积神经网络模型作为待训练模型,确定训练批次大小和最大迭代次数;

(b)每一个训练迭代从训练样本中选取数量为批次大小的图像输入待训练模型,经过前向传播计算误差和反向传播调整权值,完成一次训练迭代,训练迭代次数达到最大迭代次数时,训练终止,得到完成预训练的深度卷积神经网络模型;

(c)使用4000张包含遥感目标的训练样本图像和9000张包含遥感背景的训练样本图像作为训练样本,选取完成预训练的深度卷积神经网络模型作为待训练模型,确定训练批次大小和最大迭代次数;

(d)和步骤(b)相同,训练完成后得到完成微调的深度卷积神经网络模型。

5.根据权利要求1所述的方法,其特征在于,所述对所述微调的深度卷积神经网络模型的全连接层进行处理,得到微调的深度全卷积网络模型,包括:(a)使用4000张包含遥感目标的训练样本图像和9000张包含遥感背景的训练样本图像作为训练样本;

(b)去掉完成微调的深度卷积神经网络模型的最后一个全连接层,把剩余的全连接层变为卷积层并进行32倍上采样,保留完成微调的深度卷积神经网络模型中除最后一个全连接层之外的权值,得到待训练深度全卷积网络模型,确定训练批次大小和最大迭代次数;

(c)和权利要求4中步骤(b)步骤相同,训练完成后得到完成微调的深度全卷积网络模型。

6.根据权利要求1所述的方法,其特征在于,所述基于所述微调的深度卷积神经网络模型及所述微调的深度全卷积网络模型对遥感图像目标进行检测,包括:(1)获取测试样本

从遥感图像数据集中选取5~50幅测试样本图像,测试样本图像不要求范围和分辨率,也不限制大小和形状,所有测试样本图像不需要进行额外的预处理;

(2)整合检测模型

训练检测模型的步骤全部完成后,整合完成微调的深度卷积神经网络模型、完成微调的深度全卷积网络模型、滑动窗口算法和检测框融合算法,得到可用于遥感图像目标检测的检测模型,检测模型可以完成提取候选区域、候选区域的特征提取和分类以及检测框融合的功能;

(3)提取候选区域

(a)把测试样本图像作为输入图像输入检测模型,检测模型首先使用完成微调的深度全卷积网络模型处理输入图像,完成微调的深度全卷积网络模型的输出是和输入图像规模相同的分类图,输入图像中可能是遥感目标的像素点在分类图上的值为1,输入图像中可能是遥感背景的像素点在分类图上的值为0;

(b)使用滑动窗口算法得出候选区域,使用滑动窗口算法之前需要设定窗口大小、窗口步长和提取阈值,滑动窗口算法以设定的窗口大小和窗口步长在分类图上进行从左上角到右下角的遍历搜索,如果窗口中的值为1的像素点的占比高于提取阈值,则该窗口被提取为候选区域;

(4)候选区域的特征提取和分类

把所有候选区域输入完成微调的深度卷积神经网络模型进行候选区域的特征提取和分类,需要提前设定分类阈值,完成微调的深度卷积神经网络模型的输出是把候选区域分类为遥感目标和遥感背景的置信度,把候选区域分类为遥感目标的置信度大于分类阈值时,用红色边框在原图中标记出该区域,得到检测框;

(5)检测框融合

设定融合阈值,使用检测框融合算法处理一幅测试样本图像中的所有检测框,可以得到最终的遥感图像目标检测结果。

7.根据权利要求3所述的基于深度神经网络的遥感图像目标检测方法,其特征在于:在对包含遥感目标及遥感背景的训练样本图像执行多种类型的标记操作步骤中,添加图像级的标记完成对深度神经网络模型的训练。

8.根据权利要求4所述的基于深度神经网络的遥感图像目标检测方法,其特征在于:在基于最大迭代次数,对选取的深度卷积神经网络模型执行预训练和微调操作,得到微调的深度卷积神经网络模型的步骤(a)中,选取VGG-16模型作为待训练模型。

9.根据权利要求5所述的基于深度神经网络的遥感图像目标检测方法,其特征在于:在对所述微调的深度卷积神经网络模型的全连接层进行处理,得到微调的深度全卷积网络模型的步骤(b)中,使用微调VGG-16模型构建深度全卷积网络模型FCN_VGG-16。

10.根据权利要求6所述的基于深度神经网络的遥感图像目标检测方法,其特征在于,所述检测框融合还包括:使用公式 对一幅测试样本图像中的所有检测框两两计算IoU,IoU大于融合阈值的检测框将被融合,式中A和B表示两个检测框,IoU是A和B的交集除以A和B的并集;

将合并之后的新检测框的中心确定为两个合并前检测框的重叠区域的中心。