欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019111021803
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 控制;调节
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于领域自适应神经网络的自动驾驶转向角度预测方法,其特征在于包括如下步骤:步骤1、获取数据集,进行数据预处理;

获取真实数据集和虚拟数据集,对真实数据集和虚拟数据集中的图像数据进行预处理作为后续深度神经网络的输入;

步骤2、使用两个参数独立但结构相同的语义特征提取网络分别建模真实域语义映射和虚拟域语义映射;语义特征提取网络使用卷积神经网络实现,记真实域语义映射的网络模型参数为θυ,虚拟域语义映射的网络模型参数θr;对来自真实数据集和虚拟数据集的输入r υ r υX和X分别进行特征抽取,得到具有较高语义信息的特征向量s和s ;将来自两种数据集的特征混合,并生成相应的域标签ci:表示输入特征来自真实数据集, 表示输入特征来自虚拟数据集;

步骤3、将特征向量si输入转向角度预测网络P和领域分类网络D并建模一组对抗性的损失函数;通过对抗性的网络训练实现领域自适应性,故需要设计两个输出层和两个损失函数:步骤3‑1.将特征向量si输入以θd为模型参数的领域分类网络,得到领域分类网络的输出 进一步计算交叉熵损失函数作为分类损失其中,N为从真实数据集样本量和虚拟数据集中抽取的样本量;

步骤3‑2.将特征向量si输入以θp为模型参数的转向角度预测网络,输出标量预测结果然后计算预测损失函数,具体采用均方误差公式,即其中,yi表示输入样本Xi对应的转向指令标签;

步骤4、对语义特征提取网络、领域分类网络和转向角度预测网络进行端到端地训练,优化模型参数θυ、θr、θd和θp,采用的优化目标为:其中, 和 分别为最优化θυ、θr、θd和θp的得到的模型参数;λ为系数常量,表明分类损失相较于预测损失的重要程度;通过梯度反向传播算法和Adam优化器训练神经网络模型,使模型参数逼近上述优化目标;

步骤5、对模型进行测试或应用;要对训练完成的模型进行真实环境下的测试或实际应用时,只需要保留语义特征提取网络和转向角度预测网络,输入真实环境的图像数据,就可以得到具有较高泛化性的转向角度预测结果。

2.根据权利要求1所述的基于领域自适应神经网络的自动驾驶转向角度预测方法,其特征在于步骤(1)具体实现如下:首先获取取样于真实驾驶环境的真实数据集和在计算机模拟环境中生成的虚拟数据集,对数据集中的视频数据进行抽帧,得到一组时序图片序列;将图片序列中的每张RGB图片调整为120×240大小;对每一个时刻t构造一个训练样本,取xt‑3、xt‑2、xt‑1和xt四张图片在时间维度拼接,形成一个四阶张量的输入样本Xt,其大小为(3,4,120,240);每一个输入样本Xt对应一个转向指令的标签yt,这里yt=α/90∈(‑1,1),α为前轮转向的角度,当汽车左r υ转时α为负,右转时α为正;设真实数据集的样本量为N ,虚拟数据集的样本量为N ;为了保证训练数据的平衡,每一个训练步,从两个数据集中各随机抽取N个样本,即网络训练时每个批量的数据总共2N个样本。

3.根据权利要求2所述的基于领域自适应神经网络的自动驾驶转向角度预测方法,其特征在于步骤(2)具体实现如下:使用两个参数独立但结构相同的语义特征提取网络分别建模真实域语义映射和虚拟r υ域语义映射,对来自真实数据集和虚拟数据集的输入X和X分别进行特征抽取;语义特征提取网络采取5层三维卷积层和两层全连接层构成;前两层卷积层的卷积核大小分别为(32,

2,5,5)和(64,2,5,5),滑动偏移量为(1,4,4)和(1,3,3);后三层卷积层的卷积核大小均为(64,2,3,3),滑动偏移量为(1,1,1);除了最靠前的两层卷积层,其余卷积层均加上残差连接;将第五层卷积层的输出张量展平成向量后输入两层全连接层,其输出特征的维度分别为512和128,即最后输出的语义特征向量的维度为128;每一层网络的输入均使用批归一化r υ层进行归一化,输出均用修正线性单元进行激活;将X 和X分别输入两个参数独立,具有上述网络结构的模型中,输出得到具有较高语义信息的特征向量,即r r

s=f(X;θr)

υ υ

s=f(X;θυ)

其中θr和θυ分别表示真实域语义映射的网络模型参数和虚拟域语义映射的网络模型参数;将特征 和 混合成一组特征数据 并生成相应的域标签表示si来自真实数据集, 表示si来自虚拟数据集。

4.根据权利要求3所述的基于领域自适应神经网络的自动驾驶转向角度预测方法,其特征在于步骤(3)具体实现如下:步骤3‑1:将特征向量si输入领域分类网络D并计算分类损失;邻域分类网络使用多层感知机实现,具体为一层输出为256维的线性层和一层输出为2维的线性层,两层线性层之间使用修正线性单元进行激活,设该网络的参数为θd;特征向量si输入D网络后输出一个2维向量 然后通过一个softmax函数得到领域分类网络的输出 即其中k=1,2

进一步计算交叉熵损失函数作为分类损失

步骤3‑2:将特征向量si输入转向角度预测网络P并计算预测损失;P网络使用与D网络相同形式的多层感知机模型,但最后的输出层的输出维度是1,设P网络参数为θp;P网络输出标量 后计算预测损失函数,具体采用均方误差公式,即

5.根据权利要求4所述的基于领域自适应神经网络的自动驾驶转向角度预测方法,其特征在于步骤(4)具体实现如下:对语义特征提取网络、领域分类网络和转向角度预测网络进行端到端地训练,优化模型参数θυ、θr、θd和θp,采用的优化目标为:其中, 和 分别为最优化θυ、θr、θd和θp的得到的模型参数;λ为系数常量,表明分类损失相较于预测损失的重要程度,其取值范围为[0.5,1];为了能够使整个网络统一使用梯度反向传播算法和Adam优化器进行训练,将两个损失函数合并为一个联合损失函数,即同时在领域分类网络D之前加一梯度反转层,其伪函数具有如下形式,其中I为单位矩阵:然后使用Adam优化器训练模型,最小化联合损失函数 直至收敛;Adam优化器的参数均采用默认值。