欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2021106653340
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 一般车辆
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种考虑人‑车‑路特性的驾驶员意图识别方法,其特征在于:包括以下步骤步骤1.获取从驾驶模拟器中记录的本车及其与周围车辆相关数据、驾驶员行为动作和驾驶室外场景信息;

步骤2.对驾驶模拟器中获取的本车及周围环境数据进行预处理,并输入到训练好的GrowNet网络中,得到五种类别的概率值Pi(P1,P2,…,P5);其中,五种类别分别为向左转、向右转、向左变道、向右变道和保持直行;

步骤2.1.预处理包括截取车辆完成相关驾驶行为前5秒的数据并做好标签,相关驾驶行为指的是五种需要识别的驾驶意图;将处理好的数据划分为训练集和测试集,输入模型之前用Batch Normalizaton层对数据做归一化处理;

步骤2.2.使用带有两个隐藏层的感知机网络作为弱学习器,使用拟牛顿迭代法训练网络,损失函数交叉熵,得到各意图类别的置信概率值Sk(xi),其中xi为输入的某个样本;分类器输出需经过softmax层,对每个弱分类器加权求和得到最终的结果pi=∑iwoutSk(xi),wout为训练过程产生的权重参数,且其值将根据更新的学习率不断调整;

步骤2.3.使用步骤2.1中的训练集数据预先训练grownet,并保存模型参数;

步骤3.分别保存两个摄像头采集的视频数据并进行处理,将1号摄像头得到的驾驶员的驾驶动作视频数据输入到改进后的two‑stream模型的快速通道中,将2号摄像头得到的驾驶场景数据输入慢速通道中,最后通过全连接层和softmax层得到五种类别的概率值Pi'(P1',P′2,…,P′5);

步骤4.对从步骤2和步骤3得到Pi和Pi'加权求和,权重分别为ω1、ω2,即ω1Pi+ω2Pi',取五种类别求和之后的最大值对应的类别为最终识别的驾驶意图。

2.根据权利要求1所述的考虑人‑车‑路特性的驾驶员意图识别方法,其特征在于:步骤

1通过以下方式实现:

步骤1.1.布置好两个摄像头、显示屏,其中,1号摄像头置于驾驶员正前方,2号摄像头正对驾驶器屏幕,显示屏需不少于三块,显示屏中需呈现汽车后视镜的视野;

步骤1.2.布置完硬件设备后,使用驾驶模拟器配套的软件根据意图识别种类的需求构建驾驶场景;

步骤1.3.安排不少于5名拥有驾照的参与者分别在模拟驾驶器上完成整个路程的驾驶任务,参与者需根据交通规则做正常的操纵动作;

步骤1.4.驾驶模拟器记录的本车数据包括本车的行驶速度、方向盘转角、与车道线航向角以及车辆质心所在车道序号。

3.根据权利要求1所述的考虑人‑车‑路特性的驾驶员意图识别方法,其特征在于:步骤

3通过以下方式实现:

步骤3.1.处理包括截取车辆完成驾驶行为前5秒的视频片段并做好标签,载入模型的数据是抽帧后的图片或者视频数据,图像分辨率大小为224×224;

步骤3.2.使用改进的two‑stream模型分别将提取的驾驶员行为特征与提取的驾驶场景变换特征融合;

步骤3.3.先使用Kinetics‑400行为数据集的预训练模型初始化权重参数,然后再使用Brain4Cars数据集在此基础上训练,以加速模型收敛;

步骤3.4将步骤3.1中处理好的数据输入到微调好的two‑stream预训练模型中即可得到各类别的概率值Pi'。

4.根据权利要求1所述的考虑人‑车‑路特性的驾驶员意图识别方法,其特征在于:步骤

4通过以下方式实现:

步骤4.1.确定权重ω1、ω2的值,令ω1的初始值为0,训练第e次后,ω1=ae,其中a=

0.1,e=1,2,…10,ω2=1‑ω1;在10次训练中,保留使得分类准确率最大时对应的权重值ω1、ω2;

步骤4.2.使用步骤4.1确定好的权重参数计算得到ω1Pi+ω2Pi',驾驶意图即为max(ω

1Pi+ω2Pi')对应的输出类别。