欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018107957483
申请人: 浙江工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2023-12-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种集能型无线中继网络吞吐量最大化方法,其特征在于:所述方法包括以下步骤:

1)集能型无线中继网络中通过可再生能量优化管理实现最大吞吐量,其中,优化问题描述为一个多变量优化问题:

P1:

受限于:

在此,问题P1的各参数定义如下:pi:中继节点在时隙i的传输功率;

ri:中继节点在时隙i的数据率;

τi:源节点在时隙i的传输时间;

中继节点在时隙i的传输时间;

ui:源节点在时隙i的数据率;

hi:中继节点到目的节点的信道增益;

Ei:中继节点在时隙i时所采集的能量;

Emax:中继节点的电池最大容量;

Qmax:中继节点的数据缓存容量;

L:单个时隙长度;

T:传输时隙数;

W:网络带宽;

2)将问题P1分解为两部分优化:功率子优化和时隙子优化,即通过优化变量pi和 来得到最优的ri,其中,通过深度确定性策略梯度方法来优化中继节点在各时隙i上的传输功率pi和传输时间 从而最终决定问题P1中各时隙i的数据率ri之和的最大化;

该深度确定性策略梯度方法由执行单元,评分单元和环境所组成,所有的传输功率pi和传输时间 都被编进了执行单元所需的状态xt,执行单元在当前状态下采取动作a对传输功率pi和传输时间 进行更改并进入下一个状态xt+1,同时得到环境返回的奖励r(xt,a),评分单元结合状态xt,动作a以及环境返回的奖励r(xt,a)给执行单元打分,即表明执行单元在状态xt下采取动作a是好是坏;执行单元的目标就是让评分单元所打的分越高越好,而评分单元的目标是让自己每次打出的分都接近真实,这可以通过奖励r(xt,a)来调节;在执行单元,评分单元和环境不断交互更新下,传输功率pi和传输时间 将不断被优化直到被更新到最优,评分单元的更新方式为:S(xt,a)=r(xt,a)+γS′(xt+1,a′)     (3)其中,各参数定义如下:

xt:在时刻t,系统所处状态;

xt+1:在时刻t+1,系统所处状态;

a:在当前状态执行单元所采取的动作;

a′:在下一状态执行单元所采取的动作;

S(xt,a):执行单元中的评估网络在状态xt下采取动作a所得到的分值;

S′(xt+1,a′):执行单元中的目标网络在状态xt+1下采取动作a′所得到的分值;

r(xt,a):在状态xt下采取动作a所得到的奖励;

γ:奖励衰减比重;

3)所有的传输功率pi和传输时间 作为深度确定性策略梯度方法的状态xt,动作a则是对状态xt的更改,更改后系统在各时隙i的数据率ri之和会与一个设定的标准值进行比较,如果比这个标准值大则使当前奖励r(xt,a)设为正值,反之设为负值,同时系统进入下一状态xt+1;

所述步骤3)中,深度确定性策略梯度方法的迭代过程为:步骤3.1:初始化深度确定性策略梯度方法中的执行单元,评分单元和记忆库,当前系统状态为xt,t初始化为1,迭代次数k初始化为1;

步骤3.2:当k小于或等于给定迭代次数K时,在状态xt下,执行单元预测出一个动作a;

步骤3.3:动作a对状态xt进行更改,使其变成下一状态xt+1并得到环境所反馈的奖励r(xt,a);

步骤3.4:按照格式(xt,a,r(xt,a),xt+1)把历史经验保存在记忆库中;

步骤3.5:评分单元接收动作a,状态xt和奖励r(xt,a),给执行单元打出分数S(xt,a);

步骤3.6:执行单元通过更新自身参数不断去最大化分数S(xt,a),尽可能地让自己在下次能做出高分动作;

步骤3.7:评分单元抽取记忆库中的历史经验,不断学习,更新参数使得自己所打的分尽可能准确,同时k=k+1,回到步骤3.2;

步骤3.8:当k大于给定迭代次数K时,学习过程结束,得到最佳传输功率pi和传输时间