欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019110773418
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于AR2 U-Net神经网络的快速磁共振成像方法,其特征在于,该方法具体包括以下步骤:步骤1:训练数据的准备

训练数据的准备包含2个步骤:全采样数据、填零重建;

步骤1-1:全采样数据

全采样的k空间数据用Sk(xk,yk)表示,其中,xk表示k空间频率编码FE方向的位置,yk表示在相位编码PE方向的位置,经过离散傅立叶反变换得到参考全采样图像Iref(x,y):Iref(x,y)=IDFT(Sk(xk,yk))  [1]对k空间数据进行模拟欠采样,在k空间的PE方向,每隔N行采集一行数据,其中N为大于

1的整数,实现两边均匀采集,而在k空间PE方向中心区域全采集,概率为全部行数的4%,在FE方向的数据都为全采集,用Su(xk,yk)表示采集到的欠采样k空间数据;用欠采样模板mask与全采样k空间数据矩阵Sk(xk,yk)进行点乘的方式获取模拟欠采样数据,用公式表示为:Su(xk,yk)=Sk(xk,yk).*mask(xk,yk)  [2]其中,欠采样模板mask矩阵大小和全采样k空间矩阵一样,即模板mask中的每一个点mask(xk,yk)对应矩阵Sk(xk,yk)中的每一个点,若需要采集k空间对应的点,则模板mask矩阵中的值表示为1,反之则表示为0:步骤1-2:填零重建

对于欠采样数据Su(xk,yk),进行傅里叶反变换,得到填零重建图像,用Iu(x,y)表示:Iu(x,y)=IDFT(Su(xk,yk))  [4]到这里,就得到了一对训练数据,即全采样图像数据Iref(x,y)和欠采样图像数据Iu(x,y);

步骤2:基于AR2 U-Net卷积神经网络模型的训练此网络训练包含2个步骤:AR2 U-Net卷积神经网络的构建和卷积神经网络的训练;

步骤2-1:AR2 U-Net卷积神经网络构建AR2 U-Net卷积神经网络构建包含3个步骤:U-Net卷积神经网络、递归残差模块、AG模块;

步骤2-1-1:U-Net卷积神经网络

U-Net卷积神经网络卷积层包括卷积、批标准化和激活三步操作;

其中卷积公式如下:

其中,*表示卷积, 表示卷积核,其大小为s×kn×kn×mn,s表示第n-1层特征子图数量,kn表示第n层滤波器的大小,mn表示第n层滤波器的数量, 表示第n层的偏置量,Cn表示经过卷积后的第n层输出,Cn-1表示第n-1层特征图;

其中批标准化公式如下:

其中BN表示批标准化,μ是批数据均值,T为批数据大小,是标准化输出,γ、β为经验参数, 是中间计算值;

其中激活公式如下:

其中,σ为激活函数, 表示为激活输出;

步骤2-1-2:递归残差模块

递归残差模块包含2个递归计算和1个残差计算,递归计算由卷积模块组成,每个卷积模块包含卷积、批标准化和激活函数三个单元,递归计算公式如下:其中, 是第n个残差单元的输出,t表示递归次数;

残差计算公式如下:

和 分别是第n个残差单元的输入和输出,F表示残差, 表示输入 的恒等映射, 表示残差和恒等映射的和;

步骤2-1-3:AG模块

在U-Net网络解码时,在对编码每个分辨率上的特征与解码中对应特征进行拼接之前,使用了一个AG模块,重新调整了编码的输出特征;AG模块生成一个门控信号,用来控制不同空间位置处特征,即对上采样后的特征图和同层下采样层的上一层的特征图进行了AG模块处理后再合并;

其公式如下:

其中,n表示第几层,i表示像素空间, 表示为通道1*1*1卷积计算线性变换,σ1表示为Relu激活函数,σ2表示为Sigmoid激活函数,Convl表示为1*1*1卷积,b。和 表示为偏置项,θatt表示为参数,最终得到Attention系数σ1表示为Relu激活函数,其公式如下:

f(x)=max(0,x)  [11-1]

其中x表示输入值,f(x)表示最大值输出,max表示最大值;

σ2表示为Sigmoid激活函数,其公式如下:f(x)=1/(1+e-x)  [11-2]其中x表示输入值,f(x)表示输出;

2-2:网络训练

网络训练包含3个步骤:损失函数、循环条件、循环迭代;

2-2-1:损失函数

选取均方误差函数作为反向传播的损失函数,通过损失函数计算输出层的损失值loss;对于训练数据集 T表示批数据大小,上标i表示批数据中第i个图像,i=(1,2…T),损失值用均方误差函数表示:其中AR2Unet表示AR2 U-Net卷积神经网络,θ表示网络参数;

2-2-2:循环条件

设循环次数为n,计算损失值和损失阈值的差值DIF作为循环的判断条件:DIF=loss-τ  [13]

其中τ表示损失阈值;

2-2-3:循环迭代

对于训练数据集 使用Adam算法进行参数优化,流程如下:

其中θt表示优化后的参数,t表示时间步,i表示第几张图,θ表示网络参数, 表示参数(i) (i)梯度,AR2Unet表示AR2 U-Net卷积神经网络,Iu(x,y) 表示第i张输入图像,Iref(x,y) 表示第i张参考全采样图像,β1表示一阶矩估计的指数衰减率,β2表示二阶矩估计的指数衰减率,mt表示gt的一矩阶估计,vt表示gt的二阶矩估计, 表示对β1的校正, 表示对β2的校正;lr表示学习率,用于控制模型的学习进度,采用多项式衰减方式下降,epoch表示学习轮数,max_epoc表示最大学习轮数,表示指数参数项, ∈表示防止分母为0的参数;当参数θ没有收敛时,循环迭代地更新各个部分;即时间步t加1,更新目标函数在该时间步上对参数θ所求的梯度、更新偏差的一阶矩估计和二阶原始矩估计,再计算偏差修正的一阶矩估计和偏差修正的二阶矩估计,然后再用以上计算出来的值更新模型的参数θ;

执行步骤2-2-2,若DIF大于等于0,继续到执行步骤2-2-3,若DIF小于0,或迭代次数达到设定次数n,迭代循环结束;通过网络的反向传播训练网络得到优化的网络参数θ;

步骤3:基于AR2 U-Net卷积神经网络的图像重建;

用已训练好的AR2 U-Net卷积神经网络对欠采样测试数据Itest(x,y)进行重建,重建结果用Ioutput(x,y)表示:Ioutput(x,y)=AR2Unet(Itest(x,y),θ)  [15]结果Ioutput(x,y)经过离散傅立叶变换得到k空间数据,用Sp(xk,yk)表示,对于k空间中进行过数据采集的点用实际采集到的数据Su(xk,yk)替换Sp(xk,yk)中对应位置的数据,然后利用离散傅立叶反变换(IDFT)进行图像重建,用Irecon(x,y)表示最终的图像重建结果:Irecon(x,y)=IDFT(Su(xk,yk)+Sp(xk,yk)(1-mask(xk,yk)))  [16]。