欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019108843465
申请人: 温州大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2025-02-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于GAN的视网膜血管图像智能分割方法,其特征在于,所述方法包括以下步骤:

步骤S1:给定视网膜图像样本集,样本集包含视网膜图像和基准血管分割图像的样本对,视网膜图像样本集记为C={(ai,bi)|i∈[1,R]},式中,a表示视网膜图像,b表示基准血管分割图像,R表示样本数量,i表示样本下标;将视网膜图像全集C拷贝并划分成视网膜图像训练集E={(ai,bi)|i∈[1,M]}和视网膜图像测试集F={(ai,bi)|i∈[1,N]},其中N+M=R,且M和N分别表示划分后的样本数量;

步骤S2:构建生成器网络G,其中包含残差块结构和空洞卷积操作;设计判别器网络D,其中包含残差结构,得到大感受野的判别器网络D;最终将生成器网络G和判别器网络D的组合称为生成对抗网络;在Pytorch框架中使用Adam优化方法,对生成器网络G和判别器网络D的网络参数进行初始化,得到生成器网络G和判别器网络D的初始参数,并设定相关训练超参数,用于网络模型的训练优化;

步骤S3:将视网膜训练集E作为输入,载入到计算机内存中,并将视网膜训练集E={(ai,bi)|i∈[1,M]}随机打乱,为接下来的训练阶段做准备;

步骤S4:生成器网络G将视网膜训练集E作为输入,并通过网络逐层计算输出,生成对应的视网膜训练合成集E′={(ai,zi)|i∈[1,M]},其中E′中的ai和E中的ai相同,皆为视网膜图像;而E′中的zi表示生成器网络G生成的血管分割图,E中的bi表示基准的血管分割图;

步骤S5:判别器网络D对生成器网络G生成的视网膜训练合成集E′和视网膜训练集E中的图像样本分别逐一进行判定,对每对生成的视网膜样本对(ai,zi)和视网膜训练样本对(ai,bi)给出判定的置信度q,i=1,2,3,…,M,q范围在[0,1]之间;

步骤S6:通过损失函数计算,计算生成的视网膜训练合成集E′和视网膜训练集E之间的误差,得出损失值;利用得出的损失值进行反向传播,对判别器网络D和生成器网络G分别进行网络参数调整;

步骤S7:利用视网膜测试集F对生成器网络G进行评估,保留最优生成器网络G′和判别器网络D′;同时在参数更新结束阶段进行判断,判断训练迭代次数是否已达到最大迭代次数,若已经达到最大迭代次数,则训练阶段结束,进入下一步骤;反之,将进入步骤S3进行循环迭代训练;

步骤S8:将视网膜图像样本集F1={ai|i∈[1,RF]}输入最优生成器G′生成血管分割图像,式中RF表示视网膜图像样本集的样本数量。

2.根据权利要求1所述的基于GAN的视网膜血管图像智能分割方法,所述步骤S2中生成器、判别器、Adam优化器构建并初始化具体为:

生成器网络G中,网络将扩张路径中得到特征图与收缩路径中得到的高分辨率的特征图相拼接,再对得到的拼接特征图进行卷积操作提取特征,这种方式能够更加充分地利用图像的浅层特征和深层特征;在生成器网络G中也使用了残差模块结构,此结构用来解决深层网络中易出现的退化问题,能够帮助网络更好地学习到图像的特征;为了增大生成器网络G的感受野,本发明在生成器网络G中加入了空洞卷积操作,在不增加网络参数数量的同时增大生成器网络G的感受野;生成器网络G中的卷积核大小都为3x3,在每次下采样操作后,将输出的特征图输入2个残差块ResBlock进行跳跃连接操作,经过4次下采样后得到的特征图使用空洞率分为别为5和3的空洞卷积操作来增大网络的感受野;在上采样的过程中,会拼接浅层网络提取的特征进行操作,网络最后再使用1x1的卷积操作,保证网络输出的颜色通道数和输入颜色通道数相同;

判别器网络D构建具体为:判别器网络D是一个深层卷积神经网络,其主要任务是判断输入的图像是真实图像还是生成器网络G生成的图像;为了防止网络退化问题,本发明在判别器网络D中加入了ResBlock结构,该跳跃连接结构在增加网络深度的情况下依然能够使得网络梯度传播,保证收敛;判别器网络D中每一层卷积核大小为3x3,总共进行4次MaxPooling操作对网络进行下采样,网络的最后使用了一个全连接层进行最终维度的改变,使得最终输出一个[0,1]的置信度q,判断输入的图像是基准的视网膜图像对(a,b),还是生成器网络G生成的视网膜图像对(a,z);

Adam优化器构建具体为:在Pytorch框架中采用Adam优化方法对训练超参数动态调整,优化训练;在训练过程中,利用Adam优化器智能调整学习率,加快网络的收敛;初始的学习率为0.0002,第一个力矩系数β1为0.5,第二个力矩系数β2为0.999。

3.根据权利要求1所述的基于GAN的视网膜血管图像智能分割方法,所述的步骤S4中生成器网络G生成分割图像具体为:从视网膜训练集E中提取一对视网膜训练样本(ai,bi),i=

1,2,3,…,M,将视网膜图像ai输入到生成器网络G当中,对应的图像大小为(3×h×w)其中3表示颜色通道数量,为对应的颜色通道d∈{红,绿,蓝},h表示单张图片的高,w表示单张图片的宽;经过网络的逐层计算,得到生成的视网膜血管分割图zi,图像大小为(l×h×w)其中对应的为单颜色通道的灰度图,即根据图像血管的明显程度,通过图像灰度值大小的形式来表现。

4.根据权利要求1所述的基于GAN的视网膜血管图像智能分割方法,所述的步骤S5中对生成血管分割图像和基准血管分割图像进行分别判别,具体为:判别器网络D同时分别对视网膜训练集E的样本对(ai,bi)和生成的视网膜样本对(ai,zi)进行判别,其中i=1,2,3,…,M,分别给出[0,1]之间的判别置信度q,q表示此样本对为视网膜训练集E中的样本对的概率;再通过损失函数计算生成的血管分割样本zi和基准血管分割样本bi之间的损失值,为下一步反向传播做准备。

5.根据权利要求1所述的基于GAN的视网膜血管图像智能分割方法,所述的步骤S6中利用对抗损失对生成器网络G和判别器网络D进行梯度更新具体为:根据给出的损失函数,利用链式求导法则,对生成器网络G和判别器网络D中的参数进行梯度的计算,通过随机梯度下降法,将对应的参数进行更新;对应的参数更新公式为:其中θt表示生成器网络G和判别器网络D中的第t个组件的参数,η表示超参数中的学习率, 表示对应参数的梯度。

6.根据权利要求1所述的基于GAN的视网膜血管图像智能分割方法,所述的步骤S7中利用视网膜图像测试样本对生成器进行评估,保留最优模型参数具体为:在模型本次训练阶段结束时,将视网膜测试集F输入到生成器网络G中,生成器网络G生成视网膜测试合成集F′,通过将视网膜测试集F中的样本对(ai,bi)中的基准血管分割图bi和生成的视网膜样本对(ai,zi)中的生成分割图zi进行逐一像素比对,其中i=1,2,3,…,N,每个像素都被分类为血管点和非血管素点;为了对当前生成器网络G进行性能测试,需要通过性能指标客观地进行定量分析;采用精确度(Accuracy,简写Acc)、特异性(Specificity,简写Sp)、敏感度(Sensitivity,简写Se)、Dice系数、F-measure、受试者工作特征曲线(ROC)与坐标轴围成的面积(AUC)和精确率-召回率曲线(PR曲线)与坐标轴围成的面积(mAP)等指标来衡量本文模型的有效性;

其中,AUC多用于医学图像处理的性能测量,AUC的值越接近于1,分割效果就越好;

其中,TP(true positive)为真阳性,表示被正确分割的血管个数;TN(true negative)为真阴性,表示被正确分割的非血管即背景像素点个数;FP(false positive)为假阳性,即血管被错误地分割成非血管的像素点个数;FN(false negative)为假阴性,即非血管被错误地划分为血管的像素点个数;TP+FN+FP+TN就是图像中感兴趣区域的总像素点个数;

由于上述评价指标依赖于输出结果的阈值,通过改变真阳分数(Sensitivity)和假阳分数(Specificity)可以绘制ROC数据,而AUC是ROC曲线下方的面积;所有的评价指标都是都考虑在mask内的所有像素上的测试,mask表示视网膜视盘区域;

经过如上指标进行筛选,挑选Acc、Se、Sp、Precision、Recall、F-measure指标皆为最大的模型作为最优模型;最后,在参数更新结束阶段进行判断,判断训练迭代次数是否已达到最大迭代次数,若已经达到最大迭代次数,则训练阶段结束,得到最优生成器网络G′和最优判别器网络D′,并进入下一步骤;反之,将进入步骤S3进行继续循环迭代训练。

7.根据权利要求1所述的将视网膜图像样本输入最优生成器生成血管分割图像,所述步骤S8中具体为:将视网膜图像样本集F1={ai|i∈[1,RF]},将其中的每一张视网膜图像ai作为最优的生成器网络G中的输入,输出对应的血管分割图像zi,i=1,2,3,…,RF,式中RF表示视网膜图像样本集的样本数量,最后的分割图像有较好的准确率。