欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019106986055
申请人: 浙江工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2023-12-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于MaskScoring-RCN网络和迁移学习的肺部病变检测系统,包括存储肺癌、肺炎、肺结核、肺气肿4种肺部疾病的存储模块,其特征在于:还包括一个诊断模块,诊断模块与存储模块通信连接,诊断模块具体包括:步骤1)医学图像预处理;

选取4种不同的肺部疾病,肺癌,肺炎,肺结核,肺气肿,的CT图像,对数据采用NLP的方法进行标注,并以此类数据作为正样本;选取正常的正常的肺部CT图像作为负样本;

对采集到的肺部医学图像做数据增强处理;将处理后的数据80%用作网络的训练集,

10%作为验证集,最后10%作为测试集,并将图像像素的大小设置为224*224;

步骤2)构建MaskScoring R-CNN网络模型;

2.1构建共享卷积神经网络骨干,作特征提取;

使用已经用ImageNet数据集预训练好的卷积网络模型VGG-16网络,每一层卷积网络都在前一层的信息基础上提取更加抽象的特征;第一层通常学习到简单的边缘,第二层寻找目标边缘的模式,以激活后续卷积网络中更加复杂的形状;最终,得到一个在空间维度上比原始图片小,但表征更深的卷积特征图;特征图的长和宽会随着卷积层间的池化而缩小,深度会随着卷积层滤波器的数量而增加;

采用VGG-16所有卷积层的卷积核大小均为3*3*3,步长stride=1,填充padding=1,池化pooling均采用2*2的最大池化方式;输入224*224*1的图片;经过64个卷积核的两次卷积后,采用一次pooling操作;之后又经过两次128的卷积核卷积之后,采用一次pooling操作;

再经过三次256的卷积核的卷积之后,采用pooling,重复两次三个512的卷积核卷积之后再pooling,最后经过三次全连接层后,得到特征图谱feature map输出;加载用ImageNet数据集预训练好的权重,为下一步迁移学习做准备;

2.2对共享卷积神经网络做迁移学习;

将靠近网络开头的第三层卷积层预先训练过的层级删掉,向第一二层后添加新的全连接层,随机化设置新的完全连接层的权重,冻结预先训练过的网络中的所有权重,最后训练改网络以更新新连接层的权重;

2.3构建特征金字塔网络,即FPN网络;

在共享卷积网络后构建1*1卷积层自上而下的路径都经过2层的上采样过程,融合底层到高层的feature maps,从而充分的利用了提取到的各个阶段的特征;

2.4构建区域建议网络,即RPN网络;

在FPN网络后接一个3*3的卷积层,再接两个1*1的卷积层,其中一个是用来进行分类,另一个用于给候选区域精确定位;

使用卷积神经网络CNN产生的区域建议Region Proposal分割出一张肺部CT图像中病变组织所在的位置,利用滑动窗口在生成的共享特征图谱feature maps上滑动;

滑动过程中为每个位置生成9种预先设置好长宽比与面积的目标框,即锚anchor;这9种初始anchor包含三种面积(128×128,256×256,512×512),每种面积又包含三种长宽比(1:1,1:2,2:1);对于RPN输出的特征图中的每一个点,一个1×1的卷积层输出了18个值,每一个点对应9个anchor,每个anchor有一个前景分数和一个背景分数;另一个1×1的卷积层输出了36个值,每一个点对应9个anchor,每个anchor对应了4个修正坐标的值;那么,要得到这些值,RPN网络需要训练;在训练的时候,就需要对应的标签;判定一个anchor是前景还是背景的定义如下:如果一个anchor与正确的标记数据ground truth的重叠度IoU在0.7以上,那这个anchor就算positive前景;类似地,如果这个anchor与ground truth的IoU在0.3以下,那么这个anchor就算negative背景;在进行RPN网络训练的时候,只使用了上述两类anchor,与ground truth的IoU介于0.3和0.7的anchor没有使用;在训练anchor属于前景与背景的时候,是在一张图中,随机抽取了128个前景anchor与128个背景anchor;

anchor边框修正的训练方法如下;边框修正由4个值完成,tx,ty,tw,th;tx,ty分别是修正后的框在anchor的x和y方向上做出平移,tw,th分别是长和宽各自放大的倍数;采用SmoothL 1loss进行训练,具体描述为比较预测平移缩放参数 和真实平移缩放参数v=(vx,vy,vw,vh)的差别:只对前景anchors进行anchor包围框修正的参数训练;因此,在训练RPN的时候,只有对

128个随机抽取的positive anchors有这一步训练,训练RPN的损失函数可以写成:其中λ被设置为10,Ncls为256为训练批次的大小,Nreg为2400为anchor的数量;如此设置RPN的两部分loss值能保持平衡;pi为anchor预测为目标的概率,ti={tx,ty,tw,th}是一个向量,表示预测的bounding box的4个参数化目标,是与positive anchor对应的ground truth包围的坐标向量; 是回归损失,用 计算,其中R是SmoothL1函数,式(2)中的 就是(1)式中的Lloc(tu,v);Lcls是目标和非目标的对数损失;

2.5构建ROI Align层;

对从共享卷积层和RPN网络得到的feature maps上感兴趣区域ROI被划分后的各网格区域选取固定数目的等间隔采样点,根据采样点邻近特征值利用双线性插值计算采样点的特征值,然后对采样点的特征值进行池化操作;

ROIAlign后有两个分支,第一个分支是利用之前检测到的ROI Bounding Box进行分类和回归;第二个分支则是掩膜mask的预测,通过全卷积神经网络FCN来进行对ROI进行语义分割,对于预测的二值掩膜mask输出,对每个像素点应用sigmoid函数;

sigmoid函数定义如下:

2.6添加MaskIoU head;

在现在框架的基础上添加了一个MaskIoU head分支学习IoU,不再去学习一个mask的分类得分,而是直接用物体的分类得分,然后将分类得分和学习到的IoU相乘,将这个得分作为mask的得分,综合分类得分与mask的质量得分评估算法。

MaskIoU head同时接收蒙版head的输出与ROI的特征作为输入,用一种简单的回归损失进行训练,来计算预测的Mask和ground truth mask的IoU分数;

根据分类得分和iou分数来计算最后的mask score,如果分类得分高,但mask iou分数低,则会惩罚最后得到的mask score;mask score计算如下:Smask=Scls*Siou           (4)

其中Scls是物体的分类得分,Siou是Mask和ground truth mask的IoU分数;

步骤3)肺部医学图像病变组织识别;

向步骤2)中构建好的MaskScoring R-CNN网络,输入待检测的肺部CT影像,网络输出得到识别之后的图像,框出并掩膜mask识别到的病变组织,并标注出病变的类别。