欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019100979804
申请人: 湖北工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度神经网络的协作频谱共享智能契约设计方法,其特征在于,针对契约签订前后信息和行为隐匿性双重非对称动态网络信息问题,在研究小基站SBSs多阶段流量卸载能力类型和流量卸载服务行为的数学模型描述方法的基础上,通过探索多阶段私有信息甄别机制,以规避动态逆向选择问题;通过设计多阶段私有行为激励策略,以规避动态道德风险行为;并且通过建立神经网络框架模型,研究实现双重信息非对称场景下多阶段动态契约优化,所述方法包括如下步骤:步骤1,多阶段动态契约优化问题建模:在双重非对称动态网络信息场景下,建立多阶段动态契约优化问题模型;

步骤2,构建动态契约优化的神经网络模型,并训练动态契约优化的神经网络:针对双重非对称动态网络信息场景下多阶段动态契约模型的非凸优化求解问题,利用SBSs的私有信息和声誉信息,通过建立多层神经网络结构框架,研究双重信息非对称场景下多阶段动态契约优化设计策略,从而保证多阶段协作频谱共享实现。

2.根据权利要求1所述的基于深度神经网络的协作频谱共享智能契约设计方法,其特征在于:步骤1中,所述建立多阶段动态契约优化问题模型实现过程包括:考虑由M个宏基站MBSs、N个小型基站SBSs和若干个随机分布的移动用户组成的两层异构蜂窝网络,在每阶段t契约设计中,MBSs依据SBSs私有信息 和声誉信息 向SBSs提出当前期的契约 其中, 为固定收益, 为收益提成;

引入契约服务矩阵 以描述SBSi与MBSj签订频谱共享契约的方式,每一SBS最多只为一个MBS提供流量卸载服务,即于是,当SBSi提供流量卸载服务 时,MBSj获得的期望效用为

SBSi获得的期望效用为

为了激励SBSs提供流量卸载服务,协作频谱共享契约需满足个人理性(individually rational,IR)约束条件,以确保SBSs参与协作所获得的效用 至少不低于其保留效用U0,即

为了激励SBSs忠实地向MBSs反馈其能力类型信息 协作频谱共享契约需满足激励相容IC约束条件,以确保能力类型为 的SBSs通过选择与自身能力类型相匹配的契约条款才能可实现期望效用最大,即为了激励SBSs高效地参与流量卸载服务,协作频谱共享契约需满足激励相容约束,以确保每个SBS获得最大的期望效用,即由此,双重非对称动态网络信息场景下多阶段动态契约优化问题为在满足上述约束条件下,MBSs总期望效用的最大化:

3.根据权利要求2所述的基于深度神经网络的协作频谱共享智能契约设计方法,其特征在于:步骤2中,构建动态契约优化的神经网络模型,实现过程包括:在建立多阶段动态契约优化问题基础上,研究基于深度神经网络的动态契约优化设计方法,以获得最优的多阶段协作频谱共享契约策略;

在基于深度学习的智能契约机制中,在给定神经网络模型参数ω的前提下,假设 服从先验分布 上述IR约束建模为预期违反IR约束条件,即上述约束条件(3)建模为预期事后regret,即

于是,从机器学习角度来看,多阶段动态契约优化问题能够描述为在满足上述约束条件的前提下期望损失函数的最小化,即:在基于深度神经网络契约设计框架中,网络结构由两个逻辑上不同的组件组成:服务网络 和支付网络 SBSs私有信息 和声誉信息 均作为输入数据进入网络的输入层;服务网络使用R个全连接的隐藏层建模和1个全连接的输出层,每个隐藏层采用sigmoidal激活函数,通过softmax激活函数后,输出契约服务矩阵 支付网络使用T个全连接的隐藏层建模和1个全连接的输出层,通过ReLU激活函数后输出固定收益 通过softmax激活函数后输出收益提成

4.根据权利要求3所述的基于深度神经网络的协作频谱共享智能契约设计方法,其特征在于:步骤2中,训练动态契约优化的神经网络,实现过程包括:在网络结构训练阶段,优化问题(8)中的预期损失函数、预期事后regret、预期IR惩罚等数据均由样本 以某种先验分布 产生,于是,预期损失函数用经验损失函数 代替,预期事后 被经验事后

代替,预期IR惩罚 被经验IR惩罚 代替,训练优化问题转化成:

进一步,采用增广拉格朗日乘子方法解决上述训练优化问题,通过在拉格朗日函数Cρ(ωi;λirv';λrgt')中增加违反约束条件的二次惩罚项:其中,λirv',λrgt'∈Rn为拉格朗日乘子的向量,ρ>0为二次惩罚项的权重;

在每次迭代中执行以下更新:

选取适当的惩罚参数,以保证增广拉格朗日方法能够收敛到优化问题的最优解,并利用Adam算法获得最小的损失函数,以优化神经网络的权重。