欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019107771313
申请人: 浙江树人学院(浙江树人大学)
专利类型:发明专利
专利状态:已下证
专利领域: 乐器;声学
更新日期:2025-03-29
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度自编码器的语音信号编解码方法,其特征在于,包括以下步骤:步骤S101:采用深度自编码器结构并对其进行神经网络训练得到深度编码器神经网络和深度解码器神经网络;

步骤S102:将深度编码器神经网络输出给编码单元并以此进行编码操作得到编码数据,以及将深度解码器神经网络输出给解码单元并以此对接收到的编码数据进行解码操作得到解码数据;

其中,深度自编码器结构通过以下步骤训练:步骤S201:获取训练数据;

步骤S202:采用训练数据训练第一个自编码器;

步骤S203:然后通过第一个自编码器的输出训练第二个自编码器,并依此逐层训练每一个自编码器;

步骤S204:完成所有自编码器训练后,展开级联成深度自编码器结构;

步骤S205:使用误差反向传播算法对经上述步骤预训练的深度神经网络进行调优训练使其输入和输出误差最小化;

其中,步骤S205采用两次调优训练,第一次调优训练中,前向传播时,在编码层的输入2

端加入特定分布的高斯噪声,高斯噪声的均值为0,方差σ预先确定并在第一次调优训练中保持不变;

第二次调优训练中,前向传播时,将编码层的输出以四舍五入的方式强制二值化为‘0’或‘1’;反向传播中,仍然以浮点实数计算梯度。

2.根据权利要求1所述的基于深度自编码器的语音信号编解码方法,其特征在于,各层自编码器训练通过最小化下式(1)得到:T

其中,n表示训练数据样本的个数,θ={W,b}和θ′={W ,b′}分别表示编码器和解码器的* * (i) (i) (i)参数矩阵,θ和θ′表示优化后的参数矩阵;x 为自编码器的输入,z =f′θ′(fθ(x ))为自编码器输出,E(x,z)为损失函数,采用如下公式(2);

N为向量维度,k为维度下标。

3.根据权利要求2所述的基于深度自编码器的语音信号编解码方法,其特征在于,训练得到深度自编码器神经网络后,便得到深度编码器神经网络和深度解码器神经网络,其中,fθ(x)表示深度编码器神经网络的映射函数,表征输入向量x到编码层表示向量y=fθ(x)之间的非线性映射关系,输出y作为编码数据;f′θ′(y)表示深度解码器神经网络的映射函数,表征编码层表示向量y到重建向量z=f′θ′(y)之间的非线性映射关系,输出z作为解码数据。

4.根据权利要求3所述的基于深度自编码器的语音信号编解码方法,其特征在于,语音信号解码包括如下步骤:

步骤S301:获取编码数据并将其输入解码单元;

步骤S302:解码单元通过深度解码器神经网络对编码数据进行处理并输出解码数据;

步骤S303:对解码数据进行反归一化;

步骤S304:对经步骤S103处理后的数据进行离散傅里叶逆变换;

步骤S305:对经步骤S104处理后的数据通过叠接相加得到重建的语音信号。

5.根据权利要求3所述的基于深度自编码器的语音信号编解码方法,其特征在于,语音信号编码包括如下步骤:

步骤S401:对原始语音信号进行分帧;

步骤S402:对分帧后的数据进行离散傅里叶变换;

步骤S403:对步骤S202处理的数据进行归一化;

步骤S404:将经归一化的数据输入编码单元;

步骤S405:编码单元通过深度编码器神经网络对经步骤S203归一化的数据进行处理得到编码数据。

6.根据权利要求3所述的基于深度自编码器的语音信号编解码方法,其特征在于,深度编码器神经网络和深度解码器神经网络采用级联多个自编码器形成深度自编码器结构。

7.根据权利要求3所述的基于深度自编码器的语音信号编解码方法,其特征在于,深度编码器神经网络采用8帧联合量化编码,深度解码器神经网络采用8帧联合量化解码。

8.根据权利要求3所述的基于深度自编码器的语音信号编解码方法,其特征在于,自编码器的个数为4。

9.根据权利要求3所述的基于深度自编码器的语音信号编解码方法,其特征在于,编码层的节点数量为288、144、72、36或18。

10.根据权利要求1所述的基于深度自编码器的语音信号编解码方法,其特征在于,高2

斯噪声的方差σ为0.3。