欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018107957483
申请人: 浙江工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2023-12-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于深度确定性策略梯度的集能型无线中继网络吞吐量最大化方法,其特征在于:所述方法包括以下步骤:

1)集能型无线中继网络中通过可再生能量优化管理实现最大吞吐量,其中,优化问题描述为一个多变量优化问题:P1:

受限于: (约束条件1)

(约束条件2)

(约束条件3)

(约束条件4)

(约束条件5)

在此,问题P1的各参数定义如下:

pi:中继节点在时隙i的传输功率;

ri:中继节点在时隙i的数据率;

τi:源节点在时隙i的传输时间;

中继节点在时隙i的传输时间;

ui:源节点在时隙i的数据率;

hi:中继节点到目的节点的信道增益;

Ei:中继节点在时隙i时所采集的能量;

Emax:中继节点的电池最大容量;

Qmax:中继节点的数据缓存容量;

L:单个时隙长度;

T:传输时隙数;

W:网络带宽;

2)将问题P1分解为两部分优化:功率子优化和时隙子优化,即通过优化变量pi和 来得到最优的ri,其中,通过深度确定性策略梯度方法来优化中继节点在各时隙i上的传输功率pi和传输时间 从而最终决定问题P1中各时隙i的数据率ri之和的最大化;

该深度确定性策略梯度方法由执行单元,评分单元和环境所组成,所有的传输功率pi和传输时间 都被编进了执行单元所需的状态xt,执行单元在当前状态下采取动作a对传输功率pi和传输时间 进行更改并进入下一个状态xt+1,同时得到环境返回的奖励r(xt,a),评分单元结合状态xt,动作a以及环境返回的奖励r(xt,a)给执行单元打分,即表明执行单元在状态xt下采取动作a是好是坏;执行单元的目标就是让评分单元所打的分越高越好,而评分单元的目标是让自己每次打出的分都接近真实,这可以通过奖励r(xt,a)来调节;在执行单元,评分单元和环境不断交互更新下,传输功率pi和传输时间 将不断被优化直到被更新到最优,评分单元的更新方式为:S(xt,a)=r(xt,a)+γS′(xt+1,a′)    (3)其中,各参数定义如下:

xt:在时刻t,系统所处状态;

xt+1:在时刻t+1,系统所处状态;

a:在当前状态执行单元所采取的动作;

a′:在下一状态执行单元所采取的动作;

S(xt,a):执行单元中的评估网络在状态xt下采取动作a所得到的分值;

S′(xt+1,a′):执行单元中的目标网络在状态xt+1下采取动作a′所得到的分值;

r(xt,a):在状态xt下采取动作a所得到的奖励;

γ:奖励衰减比重;

3)所有的传输功率pi和传输时间 作为深度确定性策略梯度方法的状态xt,动作a则是对状态xt的更改,更改后系统在各时隙i的数据率ri之和会与一个设定的标准值进行比较,如果比这个标准值大则使当前奖励r(xt,a)设为正值,反之设为负值,同时系统进入下一状态xt+1。

2.如权利要求1所述的一种基于深度确定性策略梯度的集能型无线中继网络吞吐量最大化方法,其特征在于:所述步骤3)中,深度确定性策略梯度方法的迭代过程为:步骤3.1:初始化深度确定性策略梯度方法中的执行单元,评分单元和记忆库,当前系统状态为xt,t初始化为1,迭代次数k初始化为1;

步骤3.2:当k小于或等于给定迭代次数K时,在状态xt下,执行单元预测出一个动作a;

步骤3.3:动作a对状态xt进行更改,使其变成下一状态xt+1并得到环境所反馈的奖励r(xt,a);

步骤3.4:按照格式(xt,a,r(xt,a),xt+1)把历史经验保存在记忆库中;

步骤3.5:评分单元接收动作a,状态xt和奖励r(xt,a),给执行单元打出分数S(xt,a);

步骤3.6:执行单元通过更新自身参数不断去最大化分数S(xt,a),尽可能地让自己在下次能做出高分动作;

步骤3.7:评分单元抽取记忆库中的历史经验,不断学习,更新参数使得自己所打的分尽可能准确,同时k=k+1,回到步骤3.2;

步骤3.8:当k大于给定迭代次数K时,学习过程结束,得到最佳传输功率pi和传输时间