欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019102013051
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-02-26
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于残差U‑net卷积神经网络的快速磁共振成像方法,其特征在于,该方法具体包括以下三个步骤:训练数据的准备、基于残差U‑net卷积神经网络的训练、基于残差U‑net卷积神经网络的图像重建;

步骤1:训练数据的准备

训练数据的准备包含3个步骤:全采样数据获取、模拟欠采样、填零重建;

步骤1‑1:全采样数据获取

全采样的k空间数据用Sr(kx,ky)表示,其中,kx表示k空间频率编码FE方向的位置,ky表示在相位编码PE方向的位置,经过离散傅立叶反变换得到参考图像Iref(x,y):Iref(x,y)=IDFT(Sr(kx,ky))   [1]步骤1‑2:模拟欠采样

对k空间数据进行规则地模拟欠采样,在k空间的相位编码方向,即PE方向,每隔N行采集一行数据,其中N为大于1的整数,在k空间中心区域全采集PE编码总行数的4%行,在FE方向的数据都为全采集,用Su(kx,ky)表示采集到的欠采样k空间数据;用欠采样模板mask与全采样k空间数据矩阵Sr(kx,ky)进行点乘的方式获取模拟欠采样数据,用公式表示为:Su(kx,ky)=Sr(kx,ky).*mask(kx,ky)   [2]其中,欠采样模板mask中的每一个点mask(kx,ky)对应矩阵Sr(kx,ky)中的每一个点,需要采样的点对应mask中的值为1,没有采集的点对应mask中的值为0:步骤1‑3:填零重建

对于欠采样数据Su(kx,ky),其对应k空间中没有进行数据采集的点令其值为0,然后用离散傅立叶反变换进行图像重建,得到填零重建图像,用Iinput(x,y)表示:Iinput(x,y)=IDFT(Su(kx,ky))   [4]这样,就获取到了一对训练数据,即全采样数据Iref(x,y)和模拟欠采样数据Iinput(x,y);

步骤2:基于残差U‑net卷积神经网络的训练基于残差卷积神经网络训练包含2个步骤:残差U‑net卷积神经网络构建、网络训练;

步骤2‑1:残差U‑net卷积神经网络构建残差U‑net卷积神经网络构建包含3个步骤:利用卷积层提取特征、残差计算、转置卷积及合并;

步骤2‑1‑1:利用卷积层提取特征

卷积层包括卷积、批标准化和激活三步操作;

其中卷积公式如下:

l l‑1 l l

z=c *W+b   [5]

其中,*表示卷积;卷积核W的大小为s×kl×kl×ml;s表示第l‑1层特征子图数量;kl表示l l第l层滤波器的大小;ml表示第l层滤波器的数量;b表示第l层的偏置量;z表示经过卷积后l‑1的第l层输出;c 表示第l‑1层特征图;

其中批标准化公式如下:

其中μ,ρ分别是批数据的均值和方差;是标准化输出;γ、β为经验参数;T为批数据大小;

其中激活公式如下:

其中,σ为激活函数;

步骤2‑1‑2:残差计算

残差计算公式如下:

l l l l

y=h(c)+F(c ,w)   [8‑1]l+1 l

c =σ(y)   [8‑2]

l l+1

其中,c 和c 是第l个残差单元的输入和输出,每个残差单元都重复公式[8‑1]、[8‑2]l l l l两次;残差函数用F表示;w为残差网络参数;h(c)表示输入c的恒等映射;y表示残差层计算中间结果;

步骤2‑1‑3:转置卷积及合并

步骤2‑1‑2重复4次,构成4个残差模块,将第4次残差模块输出进行上采样,同样进行4l次转置卷积操作,将残差模块中的卷积层c与转置卷积层合并,表示为:u l+1 l l l

c=concat(σ(c *W+b),c)   [9]l l+1 l l

其中,c 表示残差单元的输入,σ(c *W +b)表示转置卷积层输出,concat操作将两部u分输出特征图合并;c表示输出;

步骤2‑2:网络训练

网络训练包含3个步骤:确定损失函数、设定循环条件、迭代优化;

步骤2‑2‑1:确定损失函数

选取均方误差函数作为反向传播的损失函数,通过损失函数计算输出层的损失值loss;对于训练数据集 损失值用均方误差函数表示:其中T表示批数据大小,上标j表示批数据中第j个图像,j=1,2…T,θ表示网络参数;

步骤2‑2‑2:设定循环条件

设循环次数为n,计算损失值和损失阈值的差值Dif作为循环的判断条件:其中τ表示损失阈值;

若Dif大于等于0,循环执行步骤2‑2‑3,直到Dif小于0,或迭代次数达到设定次数n,迭代循环结束;通过网络的反向传播训练网络得到优化的网络参数θ;

步骤2‑2‑3:迭代优化

对于批训练数据集 使用Adam算法进行参数优化,流程如下:dt=β1dt‑1+(1‑β1)gt   [12‑2]其中用gt表示损失值loss第t批的梯度平均值; 表示参数梯度;dt、vt分别表示gt的一阶矩估计和二阶矩估计;β1、β2表示经验参数; 是对dt、vt的校正;lr表示学习率,∈表示防止分母为0的参数;

学习率采用多项式衰减方式下降,公式如下:其中epoch表示学习轮数,max_epoch表示最大学习轮数;表示指数参数项,步骤3:基于残差U‑net卷积神经网络的图像重建;

用已训练好的残差U‑net卷积神经网络对填零欠采样测试数据Itest(x,y)进行重建,重建结果用Ioutput(x,y)表示:Ioutput(x,y)=Res_Unet(Itest(x,y),θ)   [14]其中,Res_Unet表示残差U‑net网络;

结果Ioutput(x,y)经过离散傅立叶变换得到k空间数据,用Sp(kx,ky)表示,对于k空间中进行过数据采集的点用实际采集到的数据Su(kx,ky)替换Sp(kx,ky)中对应位置的数据,然后利用离散傅立叶反变换进行图像重建,用Icor(x,y)表示最终的图像重建结果:Icor(x,y)=IDFT(Su(kx,ky)+Sp(kx,ky)(1‑mask(kx,ky)))   [15]。