欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2012105615766
申请人: 温州大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2023-08-24
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种多输入多输出泛函网络实现无线激光通信电域信号盲均衡方法,其特征在于包括如下步骤:第一步设计用于信号盲均衡的多输入多输出泛函网络

所述多输入多输出泛函网络模型包括有作为第一层的输入层,作为第一神经函数处理层的P,G,N,Q、作为第二神经函数处理层的J,K,F,L及输出层,该网络模型中同时还包括若干个中间存储单元层,所述中间存储单元层用于存储由第一层神经元产生的信息;首先赋予网络第一层神经函数的参数ci,当网络输入端进入一组信号W=[w1,w2,…,wN],这里w1,w2,…,wN为网络输入信号W的列向量,N为列向量的个数,所述列向量经过φ(wi),i=

1,2,…,N线性变换后分别由第一神经处理层进行处理,然后第一神经函数处理层的输出再进入第二神经函数处理层,通过误差反向传播算法更新处理层的ci,使之更新为ci+1,如此反复直至网络输出满足事先约定的条件;

第二步构造实现系统盲均衡的多输入多输出网络输入信号和网络终止条件接收端射频信号经过频率变换,A/D(模/数)变换、数字下变频、数字正交混频和匹配滤波后所得,系统已实现载波相位同步,符号准确定时,数据帧满足块衰落特性;忽略噪声时,单输入多输出通信系统接收方程、盲处理方程可表述如下:H

XN=SΓ (2)

其中,上标H表示共轭转置,N为信号长度(即神经元个数),q为接收端探测单元个数,Γ=ΓL(Hj)是(Hj,j=0,1,…,M)构成的Toeplitz形式的平滑矩阵,L为均衡器阶数, 是通信信道的冲激响应,Lh为信道阶数,(XN)N×(L+1)q=[xL(t),…,TxL(t+N-1)]是接收数据阵,这里上标T表示转置运算,而发送信号阵为S(t)=[sN(t),sN(t-1),…,sN(t-M-L)]N×(L+M+1);

令W=UHU,其中:U是XN奇异值分解 中的(N×(L+M+1))维酉阵,D=diag(ε1,ε2,…,ε(L+1)q),这里diag表示对角矩阵,εi,i=1,2,…(L+1)q为奇异值分解获得的奇异值,且有ε1≥ε2≥…≥ε(L+1)q,在此,s表示复向量,由信号本身星座点信息所约束;

一方面,W的列向量是信号子空间的一组基,将W的列向量作为所设计的多输入多输出泛函网络的输入信号,进而通过网络运行更新该网络神经函数参数;

另一方面,当Γ满列秩时,必有WsN(t-d)=sN(t-d),其中,{sN(t-d)|d=0,…,Lh+L},进而误差函数如下其中: 表示2范数,E(·)为求数学期望运算;

当上式值小于某个事先约定值时,网络运行终止;

第三步设计多输入多输出泛函网络σ神经函数

R I

所有神经元均具有相同形式的复激活函数,且f(·)和f(·)具有相同的解析函数形K式,这里R和I分别表示复激励函数的实数和虚数部分,考虑方形2-QAM信号,K=2,4,6,

8…;由于多阈值逻辑是普通逻辑的一般化,其逻辑功能更完全,进而结合QAM信号星座的特征设计如下形式的σ神经函数式中: 是构成多值Sigmoid的元函数,bi=(Ns+1)-2i是多值Sigmoid函数的期望不稳定拐点,a是Sigmoid元函数的衰减系数;Ns是构成多值函数的元函数“数”;

第四步σ神经函数的参数学习策略设计

(a)第一层神经函数的参数学习策略设计

神经函数记为φ(·),采用误差反向传播算法更新处理层输入,将作为c-σ(Wc)误差函数,求得第一次迭代时,神经函数具有如下形式为多维线性函数

φ(wi)=c0,1wi,1+c0,2wi,2+…+c0,Nwi,N (5)此时该多维线性函数的参数分别为向量c0的元素c0,1,c0,2,…,c0,N,这里输入量为W矩阵的第i个列向量元素wi,1,wi,2,…,wi,N;

其中 为求偏倒运算,I表示单位矩阵,η为一常数,η∈(0,0.2];

第二次迭代时,神经函数具有如下形式为多维线性函数

φ(wi)=c1,1wi,1+c1,2wi,2+…+c1,Nwi,N (7)此时该多维线性函数的参数分别为向量c1的元素c1,1,c1,2,…,c1,N,此时的c1为网络第一次迭代时的输出c0的更新值;

第n次迭代时,

第n次迭代时,神经函数参数变化为

神经函数改变为新的多维线性函数

φ(wi)=cn+1,1wi,1+cn+1,2wi,2+…+cn+1,Nwi,N (9)另外为加速算法收敛,引入动量项Δcn,即:

cn+1=cn-η(I-Wσ(Wcn))+Δcn

=cn-η(I-Wσ(Wcn))+(cn-cn-1);

(b)第二层神经函数的参数学习策略设计

将第二层神经元函数的放大和衰减因子作为学习对象:根据误差函数值的大小逐步缩小放大因子;根据误差函数值的大小使得神经元函数的衰减因子随之增大,其目的是使得初始更新时候使得输入向量迅速脱离原点,而随着网络更新的进行,误差函数逐步减小,那么可使得第二层神经函数向理想离散函数逼近,如此完成第二层神经元函数参数的学习更新。