欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 202011013157X
申请人: 西南交通大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于深度卷积神经网络的钢轨伤损B显图像识别方法,其特征在于:包括以下步骤:一、查找焊缝、正常螺孔、螺孔裂纹和表面伤四类出波情况并保存;

二、对原始图片进行填充,将图片尺寸扩展;

三、以B显伤损图像为中心将填充后的数据裁剪;

四、横向上沿左右两股钢轨对称轴进行上下对称裁剪为两部分,沿纵向平均裁剪为四部分,最后得到416×416的标准图片;

五、对数据进行打标签操作,框选需要训练的检测对象,并保存为标签文件,将得到的标签文件与图片文件制作成标准数据集;

六、构建YOLO‑UAV+min模型;

YOLO‑UAV+min模型构建方法为:YOLO V3引入特征金字塔,使用三种不同尺度的特征图进行多尺度检测,增加最小尺度预测网络层得到YOLO‑min模型,YOLO‑min模型中的残差块被替换为快速连接块,将YOLO‑min模型中的Darknet‑53的残差块1、残差块2、残差块3的重复次数分别修改为2、3、7,得到YOLO‑UAV+min模型;

YOLO V3的第一个尺度将输入图像划分为19×19个网格,每个网格的大小为32×32;第二个尺度在第一个尺度的基础上向上采样,将输入图像划分为38×38个网格,每个网格大小为16×16;在第二个尺度的基础上,第三个尺度进行上采样,将输入图像划分为76×76个网格,每个网格的大小为8×8;然后继续在第三尺度的基础上进行上采样,将输入图像划分为152×152个网格,每个网格的特征图大小为4×4,得到YOLO‑min模型;

七、设定需要聚类的锚框数量,对所使用的数据集进行K‑means聚类分析,得到先验框,将先验框输入到YOLO‑UAV+min模型中;

八、配置网络参数;

九、使用YOLO‑UAV+min模型进行训练;

YOLO‑UAV+min模型训练方法为:将输入图像分割成S×S的网格,并在每个网格中进行检测;

每个网格预测B个边界框以及这些框的置信度Confidence,置信度可以反映出一个物体是否存在于网格中,如果存在,则计算实际边界框GT和预测边界框pred的交并比IoU;置信度可表示为:Confidence=Pr(object)×IOU(GT,pred);

式中Pr(object)表示预测边界框中是否有检测对象,1表示有,0表示无,IOU(GT,pred)为真实边界框与预测边界框的交并比,定义如下:式中BoxGT表示实际边界框,Boxpred表示预测边界框;

每个网格还预测C类目标对象的概率,每个网格总共预测(5+C)个值:x、y、w、h、置信度和C类概率,其中(x,y)表示边界框的中心坐标,(w,h)分别表示边界框的宽度和高度,最终的输出为S×S×(5×B+C)的一个张量;

十、将训练完成的YOLO‑UAV+min模型封装作为插件安装到钢轨超声波探伤仪中进行日常的钢轨探伤作业中的钢轨伤损B显图像智能识别。

2.根据权利要求1所述的基于深度卷积神经网络的钢轨伤损B显图像识别方法,其特征在于:步骤八中,配置网络参数具体为:将输入的416×416尺寸的原始数据集重新调整为

608×608,将每次输入的批量大小batch设置为16,同时将每批数据分成16份分开输入,即subdivisions=16;将旋转角度angle、曝光度exposure、饱和度saturation、色度hue均设置为0;将初始学习率设置为0.001,衰减系数为0.0005,设置采用动量为0.949的异步随机梯度下降,在训练次数分别达到总次数的80%和90%时进行学习率衰减且每次衰减10倍,最终学习率衰减100倍。

3.根据权利要求1所述的基于深度卷积神经网络的钢轨伤损B显图像识别方法,其特征在于:YOLO‑UAV+min模型的损失函数包括4个部分:预测中心坐标的损失:

预测边界框的宽高的损失:

预测类别的损失:

预测置信度的损失:

2

式中λcoord表示坐标误差的权重;s 表示输入图中网格的数量;B表示每个网格中预测边界框的数量;若 表示在第j个网格中的第i个边界框中有检测对象,否则即为0;C表示置信度得分,CI是预测边界框与实际边界框的交叉部分。