欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019105832558
申请人: 浙江工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2023-12-11
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于混合现实技术的实景骑行训练方法,其特征在于,所述方法包括以下步骤:步骤1:实景障碍物检测:利用KITTI、ImageNet、Pascal VOC这三个包含大量上述障碍物的数据集对神经网络进行训练,使用训练后的神经网络对实景中的障碍物做出识别;

步骤2:实景路面分割:BDD、CityScapes中包含了路面分割的训练集,利用这两个训练集训练神经网络,使用训练后的神经网络对实景中的路面进行分割;

步骤3:路径规划:经过步骤1和步骤2的处理之后,得到可行驶的区域,然后结合A*算法做出路径规划;

步骤4:路径拟合:利用最小二乘法对路径规划得到的结果拟合,生成一条平滑的拟合曲线;

步骤5:虚拟人物融合:虚拟人物融合利用虚拟人物的掩膜在图像上做高级图像融合,在多人联网比赛下,根据其余骑行者的距离参数来决定虚拟人物的位置和尺寸,并且根据路径拟合曲线方程的斜率来判断虚拟人物是否需要做出转弯动作;

所述步骤1)中,实景障碍物检测的步骤如下:

步骤1.1:对KITTI、ImageNet、Pascal VOC三个数据集的数据进行相应的数据预处理,将labelImg生成的标签结果xml文件转换为可用于训练读取数据的txt格式;

步骤1.2:利用ImageNet上预训练darknet‑53分类模型,使网络能够学习到分类的特征;

步骤1.3:在预训练的darknet‑53的基础上,更改神经网络的结构,将darknet‑53前52层中的权重提取出,然后采用FPN的upsample和融合做法,最后融合出了三个scale,在三个scale的feature map上做检测;

步骤1.4:在神经网络的输出层,得到三个scale的feature map,每个feature map中的每个grid cell都会输出3个box,每个box中又包含(x,y,w,h,confidence)以及需要分类的类别的概率;

步骤1.5:将KITTI、Pascal VOC数据混打乱之后,以相同的尺寸输入给神经网络,通过小批量训练网络,减少对内存的需求以及加快网络的训练速度;

步骤1.6:计算损失函数,利用数据集中的ground truth与神经网络的预测结果的值来计算损失值,除了w,h的损失函数采用总方差外,其余部分的损失函数用的是二值交叉熵,最后加到一起,组成总的损失函数;

步骤1.7:通过Adam优化器来更新神经网络的权重;

步骤1.8:将训练后的模型在实景视频中运行得到路面上的障碍物区域。

2.如权利要求1所述基于混合现实技术的实景骑行训练方法,其特征在于,所述步骤2中,实景路面分割的步骤如下:步骤2.1:在BDD与CityScapes训练集中,存在错误标注数据,需要经过一轮手动筛选剔除错误的数据,然后将剩余正确的标注数据整合随机打乱,组成一份新的数据集;

步骤2.2:BDD与CityScapes训练集中的标签图为32位的彩色图,通过对图中像素进行分类,转换成8位的灰度图,才能作为训练样本的标签;

步骤2.3:在残差网络ResNet101上,利用Atrous Convolution代替最后几个最大池化层中的下采样,得到更高像素的score map,但每个像素的感受野并没有减小,然后简单地对特征的响应进行双线性插值恢复到原始图像大小;

步骤2.4:将训练集以设定大小的batch size加载给ResNet101的输入层进行训练并更新卷积核的参数;

步骤2.5:在对实景视视频泛化的过程中,只需要对路面做出分割即可,这样减少后续的计算量以提高程序的运行速度。

3.如权利要求1所述基于混合现实技术的实景骑行训练方法,其特征在于,所述步骤3中,路径规划的步骤如下:步骤3.1:通过步骤1和步骤2确定了可行驶区域,对可行驶区域找最小外接矩形,将最小外接矩形划分成M×N份正方形;

步骤3.2:部分正方形完全包含了可行驶区域,部分没有包含,其余包含了部分,将完全包含可行驶区域的正方形设置为1,将没有包含可行驶区域的正方形设置为0,剩余只包含了部分的,根据包含的面积进行阈值处理,由此将整个行驶区域由图像的形式转变成二维数组的形式存储;

步骤3.3:创建开始节点为START,目标节点为GOAL,创建开启列表OPEN LIST,关闭列表CLOSE LIST;

步骤3.4:将开始节点START加入OPEN LIST中;

步骤3.5:查询OPEN中的节点,如果OPEN为空,则退出并说明没有找到路径;

步骤3.6:如果OPEN LIST不为空,从OPEN LIST中选择F(n)函数值最小的节点n;

步骤3.7:把节点n从OPEN LIST中去除,并将其添加到CLOSED LIST中;

步骤3.8:判断节点n是否是目标节点GOAL,如果节点n是目标节点GOAL,则退出,并说明找到最优路径,如果节点n不是目标节点GOAL,则转到步骤3.9;

步骤3.9:扩展节点n,生成节点n的子节点集,设节点n的子节点为m,对所有子节点m计算F(m),之后根据子节点m的分类情况往下运行:步骤3.9.1:若子节点m既不在OPEN LIST中也不在CLOSED LIST中,将其加入OPEN LIST中,并为子节点m分配一个指向其父节点n的指针,之后算法运行找到目标节点后根据该指针逐次返回,构成最优路径;

步骤3.9.2:若子节点m在OPEN LIST中,则比较刚计算的F(m)值和之前已存在的F(m)旧值,若F(m)新值比旧值小,表明算法找到一条更好的路径,将F(m)新值作为子节点m的代价值;若F(m)新值比旧值大,将F(m)旧值作为节点m的代价值,修改子节点m的指针,将指针指向它的父节点n;

步骤3.9.3:若节点m在CLOSED LIST中,则忽略该节点并转到步骤3.9.1;

步骤3.10:转到步骤3.5继续运行,直至算法获得最优路径或无解退出,其中,在算法运行中创建的列表OPEN LIST用于保存要搜索的节点,这些节点与算法运行的当前节点相邻并且不在列表CLOSED LIST中,列表CLOSED LIST用来储存算法获得最佳路径点。

4.如权利要求1所述基于混合现实技术的实景骑行训练方法,其特征在于,所述步骤4中,路径拟合的步骤如下:步骤4.1:步骤3已经获得路径行驶的离散点,获得当前离散点的坐标位置;

步骤4.2:对离散点通过最小二乘法拟合成一条平滑的曲线;

k

步骤4.2.1:设置拟合多项式为:y=a0+a1x+…+akx;

步骤4.2.2:各点到这条曲线的距离之和,即偏差平方和如下:

步骤4.2.3:为了求得符合条件的a值,对等式右边求ai偏导数,因而得到了……步骤4.2.4:将等式左边进行一下化简,然后得到下面的等式:

……

步骤4.2.5:把这些等式表示成矩阵的形式,就得到下面的矩阵:步骤4.2.6:只要解出这个线性方程,即求得拟合曲线多项式的系数矩阵,将得到的拟合曲线方程写入txt文件中。

5.如权利要求1所述基于混合现实技术的实景骑行训练方法,其特征在于,所述步骤5中,虚拟人物融合的步骤如下:步骤5.1:先做出虚拟人物的一系列骑行动作,使虚拟人物融合在实景视频中的时候是动态显示的;

步骤5.2:安装Emgucv作为图像处理库;

步骤5.3:将一系列虚拟人物动作图输入,图像灰度化;

步骤5.4:虚拟人物二值化;

步骤5.5:虚拟人物边缘检测,这里使用了Canny边缘检测算子;步骤5.6:虚拟人物形态学处理,这里经过闭运算,使虚拟人物在寻找轮廓时不会受到一些无关边缘点的影响;

步骤5.7:虚拟人物轮廓查找生成最终掩模mask;

步骤5.8:在多人联网的比赛下,需要实时显示其余对手的位置,根据获得对手当前行驶的距离distance1和用户自身行驶的距离distance0,两人之间的距离差distance2=distance1‑distance0,如果distance2>0,则表对手的位置位于当前用户的前方,此时需要显示对手的位置,根据distance2和当前帧的路径拟合方程来决定显示对手虚拟人物的位置坐标以及对对手虚拟人物做设定的尺寸以满足近大远小的视觉效果;

步骤5.9:既然已经得到了拟合曲线的方程,就求得曲线上任一点的切线方程,由此得到当前点的斜率,根据斜率的大小,判断出骑行者是在往哪个方向转弯,所以在虚拟人物融合的时候,做出虚拟人物转弯的效果。