欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018107877277
申请人: 天津工业大学
专利类型:发明专利
专利状态:已下证
专利领域: 手动工具;轻便机动工具;手动器械的手柄;车间设备;机械手
更新日期:2023-09-13
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.模型未知动态场景下移动机器人视觉镇定系统,其特征包括以下步骤:第1,问题描述

第1.1,系统描述

设置摄像机坐标系与移动机器人坐标系相重合,定义在当前位姿处的机器人/摄像机c坐标系为 其中 的原点处于摄像机的光心位置并且是机器人的轮轴中心; 的z 轴沿c c着摄像机的光轴方向,同时也是机器人前进的方向,x轴和机器人的轮轴平行,y轴垂直于c czx平面;定义 表示移动机器人期望位姿的坐标系, 表示监视摄相机位姿的坐标系,监视摄像机的作用是监视特征点的移动;Mi定义为特征点移动之前的位置; 定义为特征点移动之后的位置;符号e(t)定义为机器人期望位姿与当前位姿之间的误差;θ(t)定义为期望位姿与当前位姿的旋转角度;α(t)定义为机器人当前的方向与 到 的平移向量之间的角度;φ(t)定义为机器人期望位姿的方向与 到 平移向量之间的角度;

第1.2,控制方案

图像1表示特征点移动前在监视相机中的图像,图像2表示特征点移动后在监视相机中的图像;整个视觉伺服策略由四个阶段组成:第一阶段,机器人在期望位姿处拍摄的期望图像和图像1可以估计出第一个单应矩阵,通过矩阵分解可得到监视摄相机位姿与期望位姿d之间旋转矩阵 和平移向量Tm;第二阶段,当前图像与图像2结合可以得到第二个单应矩阵,通过矩阵分解,可以得到机器人当前坐标系与监视相机坐标系之间旋转矩阵 和平移c向量Tm;第三阶段,利用特征点与视觉图像之间的几何关系,计算出特征点移动前后两个不同深度信息之间的比例λ;第四阶段,根据坐标系变换规则,实时地计算出机器人当前位姿c与期望位姿之间的旋转矩阵 和平移向量 Td(t),进而采用自适应控制器将轮式移动机器人驱动到期望位姿处;

第1.3,坐标关系的表示

以 作为参考坐标系;坐标系 相对于坐标系 的旋转矩阵和平移向量分别标记为d d和Tc(t), 和Tc(t)表示为:第1.4,图像表示

Mi(i=1,2,3,4)定义为空间中4个共面的特征点, 定义为移动之后的特征点;期望图像、当前图像、图像1和图像2的第i个像素点的坐标分别表示是具体表示如下:第2,控制策略

第2.1,监视相机与期望位姿的关系

定义为特征点移动前在监视相机中的图像坐标, 定义为机器人在期望位姿处拍摄的期望图像的坐标;坐标系 和坐标系 之间的射影单应矩阵G(t)表示如下:通过对期望图像和图像1得到的单应矩阵分解并筛选之后,最终得到的旋转矩阵d和平移向量Tm(t)如下所示:

第2.2,监视相机与当前位姿的关系

定义为特征点移动之后监视相机中图像的坐标, 表定义为机器人在当前位姿处拍摄的当前图像的坐标;利用2.1中同样的方法,计算出机器人当前位姿与监视相机之间的旋转矩阵和平移向量如下:第2.3,两个未知深度信息之间的比例因子d c

计算出来的Tm(t)和Tm(t)其实不是实际中的平移向量,两个平移向量含有不同的比例m m因子; 和 定义为归一化图像坐标平面上的两个特征点,P1和P2是相对应的两个空间中m m的特征点;P1和d表示如下:

m m ma ma ma ma

当特征点移动后,P1、d分别变成了P1 、d ;P1 和d 表示如下:所以不同深度信息之间的比例可计算如下:第2.4,当前位姿与期望位姿的关系

监视相机位姿与机器人期望位姿之间的关系可表示为:移动机器人的当前位姿与监视相机位姿之间的相对关系可表示为:为了将所有的平移向量在同一个比例因子下表示,将 重新定义为:所以通过坐标系变换得到实时的移动机器人当前位姿与期望位姿之间的关系可表示为:第3,驱动机器人到期望位姿

c

将机器人在笛卡尔坐标系下的位姿转换成极坐标系下,将Td(t)的范数定义为期望位姿与当前位姿的距离误差e(t),表示为 e(t)不可以直接测量;将含有比例因子的可测距离误差es(t)定义如下:第3.1,运动学模型

基于极坐标的机器人运动学模型表示如下:根据系统需要将其重新定义为:

第3.2,自适应控制器

由于深度信息未知,可以通过采用一个自适应控制器来完成镇定控制任务;利用可获得的信号φ(t),α(t)和es(t)设计机器人的线速度和角速度表示如下:v=(γcosα)es,    (16)深度估计的自适应更新律设计为: