欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 202010524252X
申请人: 三峡大学
专利类型:发明专利
专利状态:授权未缴费
专利领域: 计算;推算;计数
更新日期:2024-01-31
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种U‑Net与区域增长PCNN相结合的视网膜视盘分割方法,其特征在于包括以下步骤:步骤1:将视网膜视盘数据集图片进行灰度化处理;

步骤2:将步骤1灰度化处理后的数据集图片进行CLAHE处理,增强视网膜视盘图像中视盘与背景之间的对比度,步骤3:视网膜视盘图像分块;

步骤4:U‑Net神经网络模型的搭建、训练以及图片粗提取;

步骤5:区域增长PCNN神经网络模型的搭建;

所述步骤5具体为:

针对灰度图像的二值分割,构建了区域增长PCNN模型,PCNN模型由接受域、调制域、脉冲产生域组成,接受域由连接输入L和反馈输入F组成;调制域主要是产生内部活动项U;脉冲产生域由阈值调节器、脉冲发生器组成,当内部活动项U大于动态门限θ时,神经元点火,Y=1,区域增长PCNN模型的数学表达式为:L[n]=∑klWijklYkl[n‑1]‑d(1)

U[n]=F[n]{1+βnL[n]}(2)

区域增长PCNN模型中连接系数β的值是变化的,这样捕获更多神经元,而β的上限为T,其作用为通过限制β的上限来防止视盘区域过度增长,区域增长PCNN模型还引入快连接机制,使得同一连接域的神经元同时激发,区域增长PCNN模型首先通过种子点门限值选择出可靠的视盘区域作为种子,然后通过PCNN中的连接强度系数和停止条件,实现视盘区域的自动生长;

步骤6:使用区域增长PCNN,进行视网膜视盘分割;

所述步骤6包括以下步骤:

步骤6.1:设置连接强度系数的初始β,连接强度系数的增加步长δβ,连接强度系数最大值的初始值βmax,βmax的增加步长Δβ,用于选择种子点的门限值u0,视盘图像的阈值z来判断区域增长是否足够,限制视盘边缘过度增长的阈值T,门限δθ来选择PCNN初始点火阈值;步骤6.2:定义PCNN的输出项为Y=0,并定义一个与Y相同阶的矩阵Y1=1;

步骤6.3:将提取到的灰度图像Sy归一化处理,作为PCNN的外部激励的输入,即F=Sy;步骤6.4:从输入图像中,选取灰度值大于种子点门限值u0的像素作为种子候选点,再选取连通区域最大的像素点为种子点,步骤6.5:计算最大连通区域的面积,并于与设定的门限δθ相比;若大于该门限,PCNN神经元初始点火激发阈值设为θ=max(F)‑0.05,反之,则θ=max(F)‑0.5;

步骤6.6:计算Y中视盘边缘像素与视盘面积的比值x,比较x与Z,若大,执行下一步;否则,结束程序,输出Y;

步骤6.7:比较βm)x与T,若βmax>T,则结束程序,输出Y;否则执行下一步;

步骤6.8:比较β和βmax,若β≤βmax,则进行下一步;否则执行步骤6.12;

步骤6.9:比较Y和Y1,若不同,则执行下一步;相同,则执行步骤6.11;

步骤6.10:将Y的值赋予Y1,并且执行快连接,返回步骤6.9;

步骤6.11:β增加δβ,Y1重置为1,返回步骤6.8;

步骤6.12:βmax增加Δβ,返回步骤6.6。

2.根据权利要求1所述一种U‑Net与区域增长PCNN相结合的视网膜视盘分割方法,其特征在于:所述步骤3包括以下步骤:步骤3.1:训练集图片的分块是在图片中随机选取48×48大小的图片;

步骤3.2:测试集图片分块是在图像中随机选取48×48的图像块;

步骤3.3:判断图块中心像素在不在眼底图像区域内,若是,则保留,选取下一块;若不是,则丢弃,重新选取,这样就保证图块所有像素都在眼底图像区域内。

3.根据权利要求1所述一种U‑Net与区域增长PCNN相结合的视网膜视盘分割方法,其特征在于:所述步骤4包括以下步骤:步骤4.1:

针对数据集图片质量参差不齐的问题,搭建U‑Net神经网络模型作为进行粗提取,提升图片质量,U‑Net神经网络模型是一个具有U型对称结构的全卷积神经网络,其包括编码器、解码器各4个,均为3次横向卷积;

每个编码器由第一卷积层、第一批标准化层、第一激活层、第一正则化层、最大池化层组成,在网络的训练中能够对输入图像进行路径收缩从而捕捉到全局信息,每经过一个编码器,输出图像缩小到输入图像的1/4,采用的激活函数是Leaky‑ReLU函数;解码器由上采样层、第二卷积层、第二批标准化层、第二激活层、第二正则化层组成,每经过一次上采样层,输出图像扩大到输入图像的4倍,再经过第二卷积层二维卷积,第二批标准化层拉伸第二卷积层输出到正态分布,Leaky‑ReLU函数进行非线性映射,第二正则化层以设定的概率丢弃神经元激活值,输出层激活函数为softmax函数;

步骤4.2:在模型训练阶段,每一轮训练时选取训练集中90%的数据用于训练,将剩余

10%的数据用作验证,U‑Net神经网络模型中使用交叉熵代价函数计算误差,然后使用随机梯度下降的方式来最小化代价,然后反向传播更新权重和偏置;

步骤4.3:将初步处理过的测试集图片,输入训练好的改进U‑Net神经网络模型,进行视盘粗提取。