欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021101354658
申请人: 西北师范大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于特征融合的长序列生物哈希密文语音检索方法,其特征在于,该检索方法具体按以下步骤进行:步骤1:注册

1)对原始语音信号x(n)进行预加重,得预加重信号,然后对预加重信号进行分帧和加窗函数处理,得到预处理信号xi(n);

2)对预处理信号xi(n)进行线性预测最小均方差的特征提取,得特征向量V1,同时,对预处理信号xi(n) 进行快速傅里叶逆变换的特征提取,得特征向量V2,然后对特征向量V2进行降维处理得到向量V′2;对特征向量V1和向量V′2进行均值滤波,得到融合特征向量V;

线性预测最小均方差的特征提取过程为:

混沌测量矩阵生成算法如下:k 阶信号x的测量矩阵Φ( )满足的RIP性质如下所示:

式中:ζk是常数,ζk∈(0,1); 是信号的能量;

基于Lorenz的混沌测量矩阵一般表达式如下所示:

式中,ξx,y,z代表Lorenz混沌测量矩阵的映射函数,其表达式如下所示:式中,α、β、λ是常数,x(i),y(i),z(i)的初始值分别为0,1,0;x′(i)、y′(i)和z′(i)是关于i的偏导数;

3)对融合特征向量V进行二值化的差分哈希,得到原始语音对应的差分哈希向量,然后对差分哈希向量求和,将求和值相同的语音归为一类;根据不同的类,建立具有单一映射密钥的生物特征模板;并通过密钥令三维Lorenz混沌测量矩阵产生1×N的随机数序列q(i),然后通过施密特正交化转化为相互正交的随机序列Q(i),最后将相互正交的随机序列Q(i)与特征参数向量V进行标量积,得到D=D((i)︱i=1,2,…,N);将D(i)进行二值化处理,得到哈希索引h=h((i)︱i=1,2,…,N);

4)通过Henon加密算法产生与原始语音信号x(n)等长的随机序列S1,将随机序列S1按照降序排列得到序列S′1,且序列S′1与x(n)是一对一的映射关系;通过该映射关系把x(n)赋值到S′1,接着把赋值后的S′1恢复到未排序的状态,即对原始语音形成了置乱加密序列x′(i);

最后设置一个位长为32字节的私钥Sk,对原始语音x(n)进行迭代加密,得密文F′′(l);

加密过程:

a.将原始语音x(n)和哈希索引h分别通过私钥Sp进行置乱加密,生成密文数据1,密文数据1用F′表示;

b.设置SHA256长为32字节的初始密钥SK,且SK(m)取值区间为[0,255];

c.将密文数据1与密钥SK(l,m)进行每次32位的迭代加密,生成密文数据2,密文数据2用F′′表示:F′′=SK×F′

式中:SK是经过迭代后总的密钥,其中下一组私钥是由上一组迭代产生的:SK(i+1)=sha256(F′′(i))

5)将哈希索引和密文送至云端,并且在云端建立对应的哈希索引表;

步骤2:检索

初次检索

1)先按步骤1中的步骤1)和步骤1)产生特征参数向量V′,并对特征参数向量V′进行二值化处理,得到差分哈希向量,然后将差分哈希向量求和并与步骤1中的步骤5)得到的差分哈希表进行哈希匹配;若匹配失败,则直接将检索结果反馈给用户;若匹配成功,则执行步骤1中的步骤3)和步骤4);

2)接着将特征参数向量V送至对应的生物特征模板,得到哈希索引h′1;

3)将待检索语音x′(n)在哈希索引表中的地址和哈希索引送至云端;

4)对于云端返回的结果,若检索失败,则直接将检索结果反馈给用户;若检索成功,则执行步骤1中的步骤3);

5)步骤1中的步骤4)的逆方向对加密语音进行解密,然后将解密后语音按照步骤1中的步骤2)和步骤3)产生哈希索引h′′,并将该哈希索引h′′与云端返回的哈希索引h′进行比对,并判断语音是否遭到恶意攻击;

6)将检索结果和移动端比对结果一起反馈给用户;

再次检索

Ⅰ.根据移动端提供的待检索语音x′(n)在哈希索引表的地址,计算待检索语音x′(n)的哈希索引h′1与云端哈希索引表地址对应的哈希索引h′2的汉明码距;

Ⅱ.将检索结果反馈给用户,而且,只有当汉明码距小于门限值时,才将哈希索引h′2和加密语音同时传送给移动端。

2.如权利要求1所述的基于特征融合的长序列生物哈希密文语音检索方法,其特征在于,所述步骤2的初次检索的步骤5)中,解密采用的改进的SHA256的解密过程:首先,采用密钥SK(l,m)将密文数据2进行迭代解密,生成密文数据1;然后,将密文数据1通过逆置乱恢复原始数据。