1.一种用于干涉术的深度学习相移干涉条纹图盲去噪方法,其特征在于,该方法包括以下步骤:S1:利用计算机生成样品任意相移噪声干涉条纹图,同时生成对应的样品任意相移无噪声干涉条纹图;其中,第n帧样品任意相移噪声干涉条纹图的表达式为:IRn(x,y)=a(x,y)+b(x,y)cos[φ(x,y)+δn]+ηn(x,y),n=0,1,2,…,N (1)式(1)中,x和y分别为空间坐标,a(x,y)为背景强度项,b(x,y)为调制幅值,φ(x,y)表示待恢复样品相位,δn为任意相移值,ηn(x,y)为噪声,N为样品任意相移噪声干涉条纹图总数;
S2:对步骤S1中所述的样品任意相移噪声干涉条纹图和任意相移无噪声干涉条纹图进行裁剪后,构建样品数据集;
S3:设计深度学习相移干涉条纹图盲去噪卷积神经网络框架,具体包括以下步骤:S31:为了盲去噪方便,在省略步骤S1中式(1)的x和y空间坐标后,将式(1)改写为IRn=ICn+ηn (2)式(2)中,ICn=a(x,y)+b(x,y)cos[φ(x,y)+δn]为样品任意相移无噪声干涉条纹图;
S32:将步骤S31中的式(2)改写为
ICn=IRn-ηn (3)
S33:当端到端的映射关系更接近恒等映射时,残差映射关系模式更容易在卷积神经网络中训练和优化,将步骤S32中的式(3)改写为ηn=ICn-IRn (4)
S34:按照步骤S33中的式(4),设计的深度学习相移干涉条纹图盲去噪卷积神经网络框架,由输入层、深度残差卷积神经网络层和输出层组成;
所述的输入层为任意相移噪声干涉条纹图IRn,其特征通道数为1,大小为256×256;
所述的深度残差卷积神经网络层包含有六个黑色虚线块,由黑色箭头、白色箭头连接而成,黑色虚线块中的数字为特征通道数;
所述的输出层为噪声图像η,其特征通道数为1,大小为256×256;
S35:步骤S34中,第一个黑色虚线块由4个卷积运算组成、特征通道数为32;第二个黑色虚线块由4个卷积运算组成、特征通道数为64;第三个黑色虚线块由2个卷积运算组成、特征通道数为128;第四个黑色虚线块由4个卷积运算组成、特征通道数为64;第五个黑色虚线块由4个卷积运算组成、特征通道数为32;第六个黑色虚线块由1个卷积运算组成、特征通道数为1;总共有19个卷积运算;
S36:步骤S34中的黑色箭头所表示的步骤S35中的卷积运算,其卷积核大小为3×3,及其后接一个批量归一化BN和线性整流函数ReLU=max(0,x);
S37:步骤S34中的白色箭头所表示的步骤S35中的卷积运算,其卷积核大小为为1×1;
S4:利用步骤S2中的样品数据集,对步骤S3中的深度学习相移干涉条纹图盲去噪卷积神经网络框架进行训练,直至满足预设迭代训练次数或者预设误差精度要求,结束训练,保存网络框架和参数,得到训练好的深度学习相移干涉条纹图盲去噪卷积神经网络模型,即样品任意相移噪声干涉条纹图与噪声图像之间的像素级残差映射关系ξ{·};具体包括以下步骤:S41:步骤S34中的深度残差卷积神经网络层中的第l个卷积运算输入数据定义为 表示为式(5)中,w为权重参数,b为偏差,*表示卷积操作,fl(·)为第l个卷积运算的残差映射函数,N(l)为特征通道数;
S42:所述的样品任意相移噪声干涉条纹图与噪声图像之间的像素级残差映射关系ξ{·},由步骤S41中的多个残差映射函数组成,表示为式(6)中,L为卷积运算总数;
S43:在所述的深度学习相移干涉条纹图盲去噪卷积神经网络模型中,损失函数l(Θ)定义为式(7)中,W为批处理大小,Θ为深度残差卷积神经网络层中的可训练参数;
S44:通过最小化步骤S43中的损失函数,获得样品任意相移噪声干涉条纹图与噪声图像之间的像素级残差映射关系ξ{·};
S5:获得样品任意相移无噪声干涉条纹图,具体包括以下步骤:
S51:将样品任意相移噪声干涉条纹图IRn输入到训练好的深度学习相移干涉条纹图盲去噪卷积神经网络模型中,利用步骤S4得到的样品任意相移噪声干涉条纹图与噪声图像之间的像素级残差映射关系ξ{·},噪声图像ηn表示为ηn=ξ(IRn;Θ) (8)
S52:结合步骤S32中的式(3)和步骤S51中的式(8),样品任意相移无噪声干涉条纹图ICn表示为ICn=IRn-ξ(IRn;Θ) (9)。
2.根据权利要求1所述的一种用于干涉术的深度学习相移干涉条纹图盲去噪方法,其特征在于,所述步骤S2中,将样品任意相移噪声干涉条纹图和任意相移无噪声干涉条纹图裁剪成256×256大小的像素尺寸。