欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021106516752
申请人: 浙江工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2023-12-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种面向深度强化学习的策略保护防御方法,其特征在于,包括以下步骤:

1)搭建深度强化学习的目标智能体自动驾驶模拟环境,基于强化学习中的深度Q网络预训练目标智能体以优化深度Q网络的参数;

2)根据优化后的深度Q网络的策略πt生成T个时刻目标智能体驾驶序列状态动作对和奖励值作为专家数据;

3)根据专家数据模仿学习生成模仿策略πIL;

4)目标智能体在模仿策略πIL的基础上对自身的策略进行调整学习,通过对深度Q网络进行微调并修改目标函数,使得在保证目标智能体策略πt可以获得较高的期望奖励值的同时,保证根据模仿策略πIL得到的期望奖励值较低,以达到策略保护的目的。

2.根据权利要求1所述的面向深度强化学习的策略保护防御方法,其特征在于,步骤1)包括:

1.1)搭建深度强化学习的目标智能体自动驾驶模拟环境;

1.2)基于强化学习中的深度Q网络训练目标智能体,训练目标是在较短的时间内安全地到达目的地;

1.3)训练过程中,将目标智能体的状态转换过程存储在经验回放缓冲区Buff中,作为深度Q网络的训练数据集;所述的深度Q网络包括当前Q网络和目标Q网络;

1.4)从经验回放缓冲区Buff中随机采样N个训练数据集,通过最小化当前Q网络的预测Q值和目标Q网络的目标Q值的均方差来更新当前Q网络的网络参数;每隔一段时间将当前Q网络的参数复制给目标Q网络。

3.根据权利要求1所述的面向深度强化学习的策略保护防御方法,其特征在于,步骤3)包括:

3.1)将专家数据中的状态s作为Actor网络的输入,根据初始化的模仿策略πIL(a|s)输出Actor网络所采取的动作a';

3.2)将a'和专家数据中的状态s作为状态动作对(s,a'),与专家数据中对应的状态动作对(s,a)一起输入到判别器网络当中,对其产生的动作进行判别,利用判别器网络的输出yD来作为奖励值以指导模仿策略πIL的学习;

3.3)在模仿策略πIL的学习过程中,通过最大化得到的期望奖励值来学习专家数据的策略,最小化损失函数以更新Actor网络和判别器网络的参数;

3.4)重复步骤3.2)‑3.3),迭代更新Actor网络和判别器网络的结构参数以学习专家数据的策略,得到模仿策略πIL。

4.根据权利要求3所述的面向深度强化学习的策略保护防御方法,其特征在于,所述判别器网络的损失函数为:其中,πIL表示模仿学习得到的策略;πt表示采样的专家策略;第一项中的logD(s,a)表示判别器对真实数据的判断;第二项log(1‑D(s,a))则表示判别器对生成数据的判断。

5.根据权利要求3所述的面向深度强化学习的策略保护防御方法,其特征在于,步骤

3.3)中,通过梯度求导来最小化损失函数从而反向更新判别器和Actor网络参数,其损失函数如下:其中, 是模仿策略πIL的熵,由常数λ(λ≥0)控制,作为损失函数中的策略正则项。

6.根据权利要求1所述的面向深度强化学习的策略保护防御方法,其特征在于,步骤4)中,对深度Q网络进行微调包括:将深度Q网络最后的Q网络层进行复制扩充,得到k个并行的Q网络层;

在训练过程中,随机从k个Q网络层中选择一个作为Q值输出层用于进行策略动作选取;

更新参数时,从经验回放缓冲区Buff中进行数据采样,然后利用泊松分布生成一个k×1的掩码对k个Q网络层进行参数更新,利用k个Q值的平均值 作为目标智能体策略πt进行学习和模仿。

7.根据权利要求1所述的面向深度强化学习的策略保护防御方法,其特征在于,步骤4)中,修改目标函数包括:在目标函数上增加基于模仿策略πIL惩罚项,得到损失函数为:其中,τ1和τ2分别是根据目标策略πt和模仿策略πIL得到的轨迹数据;V(st)为t时刻状态的值函数;R(t)为t时刻的奖励值。

8.根据权利要求7所述的面向深度强化学习的策略保护防御方法,其特征在于,分别采样N1和N2个轨迹,对损失函数进行策略梯度求导,可得:其中, πt表

示目标智能体的策略,πIL表示模仿策略,

对深度Q网络进行参数更新,可得到新的网络参数:

θ←θ+α(C1+C2),

其中,α和β表示参数更新的学习率。