欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019113496050
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-04-03
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于局部和全局特征增强模块的图像语义分割方法,其特征在于,包括以下步骤:1)、获取数据集,选取并制作语义分割任务所需的训练集图像和验证集图像,以及相应的标签图片;2)、对训练集图像进行数据增强,分别对训练集图像和验证集图像中的样本图像进行标准化,对应的标签图像进行编码;3)、将步骤2)处理后的数据输入基于tensorflow开源深度学习框架设计的卷积神经网络中,输出多通道特征图;4)、计算卷积神经网络模型的输出结果与编码后的标签图像的损失,优化卷积神经网络参数;5)、输入真实场景图像到参数优化后的卷积神经网络中进行语义分割,输出像素被标记后的图像。2.根据权利要求1所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:步骤1)所述训练集图像和验证集图像,在数据集中以步长5进行采样获取训练图像,以步长10进行采样获取验证图像。3.根据权利要求1所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:步骤2)所述数据增强包括翻转、仿射变换和亮度调节。4.根据权利要求1或3所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:步骤2)所述标准化处理为将图像RGB像素值减去ImageNet数据集的图像RGB通道均值。5.根据权利要求1所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:步骤3)所述卷积神经网络包括:基础网络模块,采用ResNet-50网络,并将最后一个池化层改用比率为2的空洞卷积;局部特征增强模块,对基础网络模块输出的特征图进行常规3×3卷积提取局部特征,对基础网络模块输出的特征图进行3×3空洞卷积提取粗糙的全局上下文特征,将两种卷积后的特征图做像素级别的相减;全局特征增强模块,包括全局平均池化层、1×1卷积、非线性函数以及像素乘积操作;上采样特征融合模块,上采样采用双线性差值,特征融合是将重建分辨率过程中的特征图与经过全局增强模块的特征图进行像素相加的融合操作。6.根据权利要求5所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:所述非线性函数选用Sigmoid函数,所述双线性差值采用的公式为

f(i,j)=w1*p1+w2*p2+w3*p3+w4*p4,其中x为上一层网络的输出,其中x为上一层网络的输出,f(i,j)为图像矩阵中坐标(i,j)位置像素点的值,p1,p2,p3,p4为与坐标(i ,j)位置像素点最邻近四个像素点的值,w1,w2,w3,w4为上述四个像素对应的权值。7.根据权利要求1所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:所述优化卷积神经网络参数采用的损失函数为交叉熵损失,计算样本中每个目标类别像素出现的频率,频率倒数为权重作用于损失函数,公式如下:其中wi为第i类的权重,yi,ti分别为第i类的预测值和标签值,N表示分割目标的类别数。8.根据权利要求1所述基于局部和全局特征增强模块的图像语义分割方法,其特征在于:所述步骤5)中对网络输出的多通道特征图通过Argmax函数转换成单通道预测标签图,再通过类别颜色矩阵将标签图映射到RGB颜色图,作为语义分割结果。