欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 202310194760X
申请人: 成都信息工程大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种面向混合关键级任务动态到达边缘卸载方法,其特征在于,包括以下步骤:S1、获取系统产生的任务,并对任务进行关键级别分类;

S2、分别计算任务在本地完成和在服务器完成所需的系统资源;

S3、根据任务在本地完成和在服务器完成所需的系统资源和任务的关键级别建立资源调度模型,获取最佳调配机制;

S4、根据最佳调配机制得到混合关键级任务动态到达边缘卸载方法。

2.根据权利要求1所述的一种面向混合关键级任务动态到达边缘卸载方法,其特征在于,步骤S1的具体实现方式如下:S1‑1、系统在当前时隙t以概率 产生一个任务 :其中, 表示计算任务的数据量, 表示该计算任务进行计算时每比特数据所需的CPU周期数; 表示任务的最大容忍时延; 表示任务的关键级别; 表示定义;

S1‑2、根据任务的重要性对任务进行关键级别划分,用 表示。

3.根据权利要求2所述的一种面向混合关键级任务动态到达边缘卸载方法,其特征在于,步骤S2的具体实现方式如下:S2‑1、根据公式:

得到任务传输到服务器上链路通信速率 ;其中, 是信道的带宽,是终端设备和基站之间的信道增益, 是高斯白噪声的功率, 是本地设备分配的发射功率;

S2‑2、根据公式:

得到任务在本地设备上执行过程中所产生的能耗 和任务在本地计算产生的时延;其中, 表示本地设备提供给任务的计算能力; 是CPU架构所决定的能耗系数;

为任务执行成功的条件; 为任务在本地排队的等待时长;

S2‑3、根据公式:

得到任务卸载到MEC上完成计算所需要的时延 和 时刻到达MEC服务器卸载任务所产生的能耗为 ;其中, 为任务从本地设备卸载到MEC服务器所产生的传输时延;

为任务上传到MEC服务器上计算过程中所产生的能耗; 为任务卸载到MEC过程中通信传输所产生的能耗; 为上传MEC服务器的排队等待时长; 为在MEC服务器上执行的排队等待时长; 为任务执行成功的条件; 是计算资源 所对应的能耗系数; 表示任务在本地计算; 表示任务在MEC服务器上计算。

4.根据权利要求3所述的一种面向混合关键级任务动态到达边缘卸载方法,其特征在于,步骤S3的具体实现方式如下:S3‑1、根据公式:

得到资源调度模型;其中, 表示最大时隙数; 是布尔函数,当 为真时 ,反之 ; 表示任务在本地完成并执行成功; 表示任务在MEC服务器卸载执行成功; 表示任务完成过程中产生的能耗; 是能耗系数, 是完成任务所产生的能耗; 为关键级别所决定的系数;C1表示整个模型是由时隙组成的离散时间模型;C2和C3表示决策通过0和1表示是否选择该决策类型;C4是任务执行成功的条件,即任务完成执行的时长要小于最大容忍时延 ;C5表示MEC服务器分配给任务的计算能力需要小于 ;C6表示分配给任务的发射功率要小于最大发射功率 ;F表示频率; 表示MEC服务器的等待时间; 表示MEC服务器的执行时间; 表示本地等待时间; l、o、d分别表示任务在本地执行、任务在服务器执行和丢弃任务;

S3‑2、根据公式:

得到资源调度模型的状态 ;其中, 表示任务在本地排队等待的时长; 表示上传MEC服务器的排队等待时长; 表示在MEC服务器上执行的排队等待时长;

S3‑3、根据公式:

得到资源调度模型的动作 ;其中, 表示任务的执行策略; 虚拟截止时限因子, 的取值为 ; 是任务上传到MEC服务器上所分配的计算资源;

是发射功率;

S3‑4、根据公式:

得到资源调度模型的奖励函数 ;其中, 是对不同关键级别的任务施加不同级别的奖励系数,根据 中的关键级别来决定奖励值;success表示任务执行成功;failure表示任务执行失败;

S3‑5、根据得到的资源调度模型的奖励函数、资源调度模型的动作和资源调度模型的状态,通过随机生成任务对资源调度模型进行训练,得到训练好的资源调度模型;

S3‑6、根据训练好的资源调度模型得到最佳调配机制。

5.根据权利要求4所述的一种面向混合关键级任务动态到达边缘卸载方法,其特征在于,步骤S3‑5的具体实现方式如下:S3‑5‑1、初始化深度Q网络DQN中的回放记忆单元D、值神经网络Q和目标神经网络 ;随机选择值网络的网络权重 和目标网络 ,网络权重为 ;其中, ;

S3‑5‑2、获取环境初始状态 ,在时隙间隔期间,产生一个0 1的随机数,并判断随机~数是否小于预定的阈值;如果是,随机生成任务,以概率 选择随机动作 ;否则,令;

S3‑5‑3、计算奖励函数 ,资源调度模型的状态转换为s(t+1),并存储状态转移过程到回放记忆单元D;

S3‑5‑4、根据公式:

得到对从回放记忆单元D中的原始数据随机采样一批样本 进行训练的结果 ;其中, 为新的动作;k表示样本编号;K表示训练次数;第k个样本下的资源调度模型的状态 ;第k个样本下资源调度模型的动作 ;第k个样本下资源调度模型的奖励函数 ;第k+1个样本下的资源调度模型的状态 ; 为折扣因子;

S3‑5‑5、根据公式:

得到损失函数L;其中,值神经网络 的权重为 ;目标神经网络 的权重为 ;

S3‑5‑6、使用学习率和损失函数L梯度下降更新值神经网络 的权重;

S3‑5‑7、设置步长C,并间隔步长C时将值神经网络的参数赋值给目标神经网络,完成当前时隙状态更新;

S3‑5‑8、重复步骤S3‑5‑1至步骤S3‑5‑7直到达到给定的训练次数和时间间隙。