欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018106035303
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于稀疏自编码器的m序列识别方法,其特征在于该方法包括以下步骤:

步骤1、产生N不同周期T、不同信噪比下的完整m序列;

步骤2、估计每个序列在[T/2,T/2]范围内的三阶相关函数,得到包含m序列特征信息的三阶相关矩阵;

步骤3、提出取模映射方法降低三阶相关矩阵的维度,得到新的特征信息矩阵并向量化,得N个向量作为训练集样本;

步骤4、建立稀疏自编码器网络用于样本特征的提取,引入softmax回归模型,将自编码器网络提取到的特征作为输入,用于分类识别;

步骤5、利用代价函数最小化对稀疏自编码网络和softmax分类器逐层训练,然后整体微调优化模型;具体为首先利用梯度下降法和L-BFGS算法分别最小化稀疏自编码器和softmax分类器的代价函数,然后通过BP算法整体微调优化模型;

步骤6、参照步骤1-步骤3,将待识别的m序列构建成SAE网络分类模型的测试集样本,输入训练好的模型,完成识别。

2.根据权利要求1所述的基于稀疏自编码器的m序列识别方法,其特征在于步骤2中,验证对于完整m序列或者数据足够长的m序列片段,在[T/2,T/2]范围内的三阶相关函数保持了良好的峰值特性,具体如下:

2-1.对于周期为T的m序列,当采集到的数据包含一个完整m序列周期时,截取一个长度L=T的序列,三阶相关函数可按式(1)估计:其中,1≤p,q≤L;

2-2.当采集的数据不足一个m序列周期,即L<T时,三阶相关函数按式(2)估计:

2-3.对于完整周期m序列或者m序列片段,在[L/2,L/2]范围内均保持了m序列TCF原有的特性;因此可以用此区域内的TCF特性识别m序列;

2-4.构造网络训练集样本时,以完整周期m序列(L=T)的[L/2,L/2]范围为TCF的计算范围,即根据式(1)计算[T/2,T/2]范围内的TCF矩阵Θ:m序列的特征信息均包含在在这个三阶相关矩阵中。

3.根据权利要求2所述的基于稀疏自编码器的m序列识别方法,其特征在于步骤3中,为降低网络的训练复杂度,提出取模映射方法,将维度较大的三阶相关矩阵映射到一个维度较小的矩阵中,m序列的特征仍包含在新的矩阵中,从而降低特征信息向量即网络输入样本的维度,具体如下:

3-1.假定判定C(p,q)是否为峰值的门限为γ,当C(p,q)>γ时,判定为峰值;否则为非峰值,且令C(p,q)=0,更新三阶相关矩阵Θ;

3-2.当m序列的周期较长时,若将矩阵Θ向量化后得到的(T/2)2×1的向量直接作为SAE网络的输入样本,维度太大导致SAE网络训练的计算量和训练难度增大;为此,提出了取模映射的方法,先将矩阵Θ映射为一个L′×L′的矩阵Θ′,即令:C(p′,q′)=C(p,q)             (4)

其中,p′=pmodL′,q′=qmodL′,L′<<T/2;矩阵Θ′由C(p′,q′)组成,所有的特征信息仍包含在矩阵Θ′中,将Θ′向量化后得到SAE网络的一个输入样本,一共产生N个网络测试集样本。

4.根据权利要求3所述的基于稀疏自编码器的m序列识别方法,其特征在于步骤4中,通过引入稀疏自编码器和softmax回归建立SAE网络分类模型,用于m序列的识别,具体如下:

4-1.对于一个给定的无标签数据集{x(1),x(2),x(3),…},其中x(i)∈Rm,自编码网络尝试(i) (i)学习出一个映射,使输出y 尽可能逼近输入x ;于是,N个训练数据的代价函数为:其中W为自编码器的权重矩阵,b为偏置向量,λ为权重衰减系数;第二项为惩罚项,防止模型过拟合;为使模型具有更优的学习数据特征的能力,在自编码器的基础上添加稀疏性约束条件,得到稀疏自编码器,此时代价函数为:式中,β为稀疏惩罚项系数,ρ为稀疏性参数,一般取接近于0的正数, 为隐藏层节点j的平均激活度,其中 表示隐藏层节点的激活度;利用分批的数据和梯度下降法更新参数W和b直至算法收敛,由此得到稀疏自编码的最优W和b参数;

4-2.Softmax回归模型主要用于解决多分类的问题;对于训练集{(x(1),y(1)),(x(2),y(2)),…(x(N),y(N))},有y(i)∈{1,2,…,K},总共K个不同的类别标签;对于给定的输入样本x(i),使用假设函数对每一类别k估计出概率值p(y(i)=k|x(i);θ),假设函数hθ(x(i))的形式为:式中,θ1,θ2,…θK是概率模型的参数,等式右边对模型的概率分布进行归一化,使概率之和为1;对于样本x(i),选择最大概率取值对应的k作为当前样本的分类结果,并与样本的真实分类作比较,如果一致则分类正确,否则分类错误;定义softmax分类器的代价函数为:式中1{·}表示一个示性函数,即1{true}=1,1{false}=0;利用梯度下降法求解函数中的θ,通过最小化J(θ)得到可用的softmax分类器;

4-3.稀疏自编码器网络用于样本特征的提取,softmax回归模型用于完成序列识别;故将softmax分类器直接连接到SAE的隐藏层,得到SAE网络的分类模型。