欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021102667039
申请人: 重庆邮电大学
专利类型:发明专利
专利状态:已下证
专利领域: 电通信技术
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于移动边缘计算网络的VR内容缓存方法,其特征在于,包括以下步骤:步骤1、搭建移动边缘计算网络架构,包括云服务器、边缘服务器与用户设备,其中边缘服务器放置在基站附近,在网络边缘提供计算与存储,云服务器中存有用户所需的所有内容;

步骤2、建立网络中的用户移动模型,将用户在各个基站覆盖范围内的持续时间用来度量用户的移动性;

步骤3、用户向基站请求内容后,基站将请求转发给云服务器,云服务器通过直接发送

3D视频或者发送2D视频,然后边缘服务器将2D视频计算为3D视频后再发送给用户;

步骤4、计算基站将内容发送给用户所需的传输速率;

步骤5、分配用户在下一个基站存储内容所需的资源量;

步骤6、将移动边缘计算网络中的VR内容缓存问题建立为马尔可夫决策问题,马尔可夫决策问题包含四种要素:状态空间、动作空间、状态转移概率、奖励函数,可分别定义为步骤7、计算用户QoE的奖励函数,包括:

7‑1、将此奖励函数分为两部分,即比特率奖励值与视频播放时间奖励值;

7‑2、计算比特率奖励值:每次存储VR视频内容的质量与用户请求的比特率之间的差异定义为比特率损失,在时间tχ发生状态改变时,基站j传输用户i请求的视频v的质量与用户初始请求的质量l的差值,表示如下:其中, 为用户i获得VR视频时的传输速率, 为二进制变量表示用户i是否请求质量l的视频v,

7‑3、计算时间tχ状态发生改变时,用户i在基站j+1的覆盖范围内视频播放时间奖励值,表示如下:

其中, 表示用户i在基站j+1的范围内视频的播放时间, 表示用户i在基站j+1覆盖范围内的平均持续时间;

7‑4、计算时间tχ状态发生改变时,用户i的总奖励值,表示如下:其中,λ1、λ2分别表示各个奖励值的权重;

7‑5、计算整个过程总的奖励值,表示如下:其中, 为折扣因子,X为阶段的总数量,U表示用户的总数量;

步骤8、以最大化整个过程中用户的QoE为优化目标,建立优化问题,表示如下:s.t.C1:

C2:

C3:

C4:

C5:

其中,限制条件C1为基站存储容量的限制,限制条件C2为基站计算资源的限制,限制条件C3为基站带宽资源的限制,限制条件C4表示在分配的存储空间中存储2D视频的取值范围,限制条件C5表示每个用户只能请求单个质量的一个视频;

步骤9、用深度确定性策略梯度进行求解,以得到最优的主动缓存策略。

2.根据权利要求1所述基于移动边缘计算网络的VR内容缓存方法,其特征在于:步骤2所述建立用户移动模型包括以下步骤:

2‑1、用户在基站间的移动是独立的,用户i在基站j间的持续时间服从参数为Φi,j的指数分布,用户i到达基站j的事件服从参数为φi.j的泊松分布;

2‑2、用户在移动过程中根据收集到的路径信息确定即将进入的下一个基站。

3.根据权利要求1所述基于移动边缘计算网络的VR内容缓存方法,其特征在于:步骤4所述计算基站将内容发送给用户所需的传输速率,包括以下步骤:

4‑1、利用信噪比估算内容传输的传输速率,则基站的信噪比表示如下:2

其中Pj表示基站j的发射功率, 是基站j与用户i之间的信道增益,σ是高斯白噪声功率;

4‑2、计算用户获得内容的可达到的信道容量,表示如下:Ratei,j=wi,jlog2(1+SNR)其中wi,j表示基站j给用户i分配的带宽,用于传输用户i请求的视频。

4.根据权利要求1所述基于移动边缘计算网络的VR内容缓存方法,其特征在于:步骤5所述分配用户在下一个基站存储内容所需的资源量,具体包括以下步骤:

5‑1、分配Mi,j+1存储大小用于存储VR视频;

5‑2、若分配的存储空间中用于存储2D视频所占比例为xi,j+1,则需要分配Fi,j+1计算资源将2D视频投影为3D视频;

5‑3、分配Wi,j+1带宽大小用于传输存储的VR视频。

5.根据权利要求1所述基于移动边缘计算网络的VR内容缓存方法,其特征在于:步骤6所述建立为马尔可夫决策问题,将整个过程分为多个时间节点,tχ为系统状态改变的时间,整个过程的状态改变时间集合为T={t1,t2,...,tχ,...tX},其中X为阶段的总数量;

状态空间 为:

其中 分别表示基站j给用户i已分配的存储容量、计算资源、带宽量和用户与基站的关联关系, 分别表示为所有缓存容量分配的集合、所有计算资源分配的集合、所有带宽资源分配的集合、所有用户移动状态的集合;

在用户移动到下一个基站前,提前存储用户所需的VR视频到基站上,预分配存储所需要的相关资源,在tχ时刻,基站只能选择存储内容所需的缓存容量,2D视频所占的比例,计算2D视频所需的计算资源,传输VR视频所要的带宽,所以动作空间 中有四个变量,表示为:

其中, 为2D视频占 中的比例,基站j分配给用户i的资源量不能超过自身的资源量,该限制条件表示为:分别表示在时刻tχ基站j+1分配给用户i存储内容所需的缓存容量,计算2D视频所需的计算资源,传输VR视频所需的带宽;Mj+1,Fj+1,Wj+1分别表示基站j+1自身的存储、上限、带宽资源上限; 在时刻tχ基站j+1已分配的存储、计算、带宽资源;U表示用户的总数量;

为动作 构成的动作空间表示为 ∪为并集符号;

状态转移概率P表示一个状态到另一个状态的概率;

奖励函数 为用户得到主动缓存的内容获得的奖励。

6.根据权利要求1所述基于移动边缘计算网络的VR内容缓存方法,其特征在于:步骤9所述深度确定性策略梯度进行求解包括以下步骤:

9‑1、随机初始化策略网络与评价网络的参数,以及目标策略网络与目标评价网络的参数,初始化经验池,设置学习率、折扣因子和软更新学习率;

9‑2、训练回合数初始化为1,得到初始状态

9‑3、回合中的训练步数初始化为1;

9‑4、根据初始状态 输出动作 并获得奖励 然后立即转到下一个状态

9‑5、将获得的数据 并为一个元组 存到经验池中;

9‑6、从经验池中随机采样N个元组 进行训练;

9‑7、得到目标网络的Q值;

9‑8、更新评价网络中的θ值,减小目标网络与在线网络间的损失函数;

9‑9、更新策略网络中的θ值,使用梯度下降法来优化策略神经网络参数;

9‑10、根据在线网络参数软更新目标网络参数,表示如下:Q′ Q Q′

θ ←τθ+(1‑τ)θ

μ′ μ μ′

θ ←τθ+(1‑τ)θ

9‑11、判断每回合训练步数是否达到最大步数,若没有,训练步数加1返回步骤9‑4,若有执行步骤9‑12;

9‑12、判断训练的回合数是否达到最大,若没有,回合数加1,返回步骤9‑3,若有结束训练,得到最优的主动缓存策略。