欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019101268335
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 基本电子电路
更新日期:2024-02-26
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于聚能量字典学习的张量压缩方法,其特征在于,包括以下步骤:步骤1):获取多维信号并将多维信号表示为张量,输入张量并进行稀疏表示和塔克分解;

步骤2)利用稀疏表示中稀疏系数张量与塔克分解得到的核心张量的近似关系,得到关于原始张量的新的张量稀疏表示形式;;

步骤3)对步骤2)新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式;

步骤4)利用聚能量字典学习算法降维的思想对映射矩阵中的字典进行降维,从而实现张量的压缩。

2.根据权利要求1所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,所述步骤1)通过塔克分解得到核心张量在每个维度上与映射矩阵乘积的形式,在塔克分解过程中,得到如下表示A∈RI×P,B∈RJ×Q,C∈RK×R,为正交矩阵又称为因子矩阵,反应了各个维度上的主成分,Z∈RP×Q×R为核心张量,反应了各个维度的相关情况。P、Q和R分别对应因子矩阵A、B和C的列数,I、J和K表示原始张量每个维度的大小,若P、Q、R小于I、J、K,那么核心张量可以看做是原始张量的压缩;

对于N阶张量,塔克分解形式为

χ=Z×1A1×2A2...×NAN

χ表示输入的张量信号,Z表示核心张量,Ai表示各个维度上的分解矩阵,为正交矩阵。

3.根据权利要求2所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,所述步骤1)张量的稀疏表示的表示形式为表示稀疏表示之后的信号,S表示稀疏系数张量,N表示自张量的阶数,Di表示各个维度上的字典。

4.根据权利要求3所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,所述步骤2)通过观察张量的稀疏表示和塔克分解形式,发现两个表达式是相似的,由塔克分解得到核张量的表示为T T T

Z=χ×1A1×2A2 ...×N AN利用稀疏系数张量和核张量的近似关系,将核张量的表达式代入张量稀疏表示中得到

5.根据权利要求4所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,所述步骤3)对步骤2)新的张量稀疏表示形式,根据张量运算性质,转换为关于字典表示的映射矩阵形式,具体包括:在张量的运算中,

当m≠n时,

Ψ×mA×nB=Ψ×n(BA)

其中Ψ表示N阶张量,×m表示张量与矩阵的m模乘积,×n表示张量与矩阵的n模乘积;

当m≠n时,

Ψ×mA×nB=Ψ×nB×mA

将以上的两个性质应用到新的稀疏表示中,可以得到

6.根据权利要求5所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,所述步骤4)利用聚能能量字典学习算法降维的思想对映射矩阵中的字典进行降维,从而实现张量的压缩,具体步骤包括:输入:T个训练样本构成的张量 稀疏度k,最大迭代次数Itermax,终止门限ε

1.初始化字典 为高斯矩阵,并对各个字典的列进行归一化

2.塔克分解:χ=Z×1A1×2A2...×NAN;

3.初始化字典经过聚能能量字典学习算法中的Γ(D)过程;

4.计算更新次数i=0时S,并利用 计算未经任何迭代更新时的绝对误差E0;

5.第i次字典更新

For k=1:IN

利用 计算第i个字典的更新值

End

6.对上一步中求得的N个字典进行归一化;

7.利用第i次更新的字典,更新稀疏系数张量Si;

8.计算第i次更新后的绝对误差Ei和相对误差Er;

9.终止条件判断,若Er<ε或者迭代次数超出最大限制,则终止循环,否则继续步骤5-8;

10.得到字典

11.根据式 得到Ud,则字典

12.将字典P带入

输出:压缩张量

7.根据权利要求6所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,为了使降维之后的字典P保留原始字典D中的主成分,需要对字典D进行预处理,处理过程如下DTD=uΛvTu为奇异值分解的左奇异矩阵,v为右奇异矩阵,Λ为奇异值矩阵,表示形式为其次对奇异值进行更新其中,k表示字典列数,td表示主成分阈值, 表示更新后的前d个奇异值, 表示更新后的后r个奇异值;

从而得到新的奇异值

与初始左奇异矩阵和右奇异矩阵构成新的字典,即

8.根据权利要求7所述的一种基于聚能量字典学习的张量压缩方法,其特征在于,在对字典进行预处理之后,需对字典进行更新,在更新过程中采用基于张量的多维字典学习算法TKSVD,完成对高维张量信号的字典更新过程,与K-SVD字典更新算法不同的是,TKSVD算法中,具体包括:(1)在进行张量字典学习时,与二维信号学习方式不同,根据张量范数的定义,可得到:其中, DN第N维字典,D1表示第1维字典,IT表示T阶单位阵,通过最小二乘法求解上式,得到字典Di的更新值为其中,yi表示张量的i模展开矩阵, 表示伪逆,即 其中 表示矩阵M的伪逆矩阵,MT表示矩阵M的转置矩阵;另一方面,完成一次迭代后,计算在当前字典和稀疏系数下可以恢复的数据与原始的训练数据之间的绝对误差和相对误差,第i次迭代后的绝对误差仍以张量的Frobenius范数定义其中S表示系数张量、 表示移除G个原子后真实信号与逼近信号的误差;

对字典进行更新完成之后,对字典进行降维处理,对更新后的字典进行奇异值分解其中Ud表示左奇异矩阵的前d列,Ur表示左奇异矩阵的后r列,Θd表示奇异值矩阵的前d个奇异值,Θr表示奇异值矩阵的后r个奇异值,Vd表示右奇异矩阵的前d列,Vr表示右奇异矩阵的后r列,则降维后的字典表示为 将降维后的字典P代入映射矩阵T中,从而完成张量压缩。