欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019109496804
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 测量;测试
更新日期:2024-02-23
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.基于融合UWB的视觉SLAM的室内定位与导航的方法,其特征在于包括以下步骤:步骤1、以机器人的初始位置为原点,初始朝向为X坐标轴,建立world坐标系,并在房间选定三个位置设置基站;机器人携带RGB‑D相机和信号发送和接受装置按照设定路线进行移动,根据相机逐帧拍摄环境的彩色图片和深度图片;在机器人拍摄图片运动的过程中,利用UWB三边定位法,根据机器人携带信号发送和接受装置到三个基站的位置关系获取、记录相机拍摄图片时在world坐标系下随时间变化的坐标;

步骤2、对于机器人携带相机的拍摄的图片进行处理,取前后两帧图片,对于获取图片通过以下步骤得到Oriented FAST关键点:

2‑1.在图像中选取像素p,设像素p的亮度为Ip;

2‑2.设置一个阈值T;

2‑3.以像素p为中心,选取半径为3的圆上的16个像素点;

2‑4.如果选取的圆上的16个像素点中,有连续的12个像素点的亮度大于Ip+T或小于Ip‑T,那么像素p被认为是特征点;

2‑5.循环步骤2‑1到2‑4,对每一个像素均执行相同的操作;

随后对于每个关键点,按照高斯概率分布随机选取关键点周围的128对像素点,p1,q1表示其中一对,比较每对像素点的像素大小进行比较,若像素p1大于像素q1,则为1,反之则为0,将128个由1、0组成的值转化为128维向量,从而得到BRIEF描述子;

Oriented FAST关键点和BRIEF描述子共同构成ORB特征点,根据暴力匹配算法对前一帧图片中的每个ORB特征点的描述子和后一帧图片的每个特征点的描述子计算描述子向量的距离,取距离最近的点为匹配的ORB特征点,得到前后两帧图片中匹配的特征点,使用对极几何算法:

x1、x2为相邻两帧图片中特征点的坐标,E为待求解矩阵,通过八对或八对以上匹配的特征点求解得到E矩阵,通过 求解旋转矩阵R和平移矩阵 得到在时刻t相机之间的投影位姿

步骤3、根据彩色图片中每个像素所在的位置和深度图片中对应彩色图片每个像素的深度得到Pimg,结合投影位姿,按照投影模型;

其中,K为相机内参,由相机生产厂家标定给出;根据图像中每个像素点world坐标系中的坐标Pworld,构建点云地图,其中随着图片的不断获取,不断对点云地图进行拼接,并使用体素滤波器将点云数据体素化,去除部分因为误差过大而离群的点云,达到向下采样同时不破坏点云本身几何结构的效果;

步骤4、通过已构建的点云地图,对拍摄物体的3D点云成像效果进行判断,是否产生因位姿估计产生累积误差过大而导致3D点云成像失真的情况,若失真,等待人工校正或重置初始位置;

步骤5、根据UWB技术获取的机器人在world坐标系中随时间变化的坐标信息,从而得到机器人的运动路线;判断当前位置是否和之前路线重合,若重合,则有产生回环检测的可能性;通过检测当前帧彩色图片和之前重合路线点对应的图片进行相似度检测来进一步检测相机在前后两相同位置的朝向,若相似度大于阈值,则为朝向一致,判断检测到回环检测,以重合路线点的之前图片对应的位姿代替当前帧的位姿,按照步骤3、4建立点云地图;同时按照步骤3获得当前帧和重合路线点的之前图片进行求取位姿变化,即累计的误差,根据求取的位姿变化和UWB技术得到的路线图,对于回环检测前每一帧的位姿进行调整和优化;

步骤6、使用全局BA对于每张图片对应的位姿进行优化,消除累计误差,重新使用优化后的位姿,按照步骤3重新建立点云地图;

步骤7、重复过程,直至定位导航结束。