1.一种基于主动全景视觉传感器的机器人视觉系统,包括全方位视觉传感器以及用于对全方位图像进行三维立体摄像测量、障碍物检测、避障和导航的微处理器;所述全方位视觉传感器包括双曲面镜面、上盖、透明半圆形外罩、下固定座、摄像单元固定座、摄像单元、连接单元和上罩;所述的双曲面镜面固定在所述的上盖上,所述的连接单元将所述的下固定座和透明半圆形外罩连接成一体,所述的透明半圆形外罩与所述的上盖以及所述的上罩固定在一起,所述的摄像单元固定在所述的摄像单元固定座上,所述的摄像单元固定座固定在所述的下固定座上,所述的摄像单元与所述微处理器连接;
所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:关键面激光光源,所述全方位视觉传感器与所述关键面激光光源配置在同一根轴心线上;
所述关键面激光光源包括红光线激光发生单元、线激光发生组合单元、绿光线激光发生单元、支撑杆和底盘;所述的绿光线激光发生单元固定在所述的线激光发生组合单元的孔中形成一个发出绿光的全方位面激光光源单元,所述的红光线激光发生单元固定在所述的线激光发生组合单元的孔中形成一个发出红光的全方位面激光光源单元,所述的支撑杆垂直固定在所述的底盘上,所述的发出绿光的全方位面激光光源单元和所述的发出红光的全方位面激光光源单元分别固定在所述的支撑杆的两端;
所述微处理器包括:
视频图像读取模块,用于读取全方位视觉传感器的视频图像,并保存在存储单元中,其输出与全方位视觉传感器标定模块和Bird-View变换模块连接;
全方位视觉传感器标定模块,用于确定三维空间点和摄像机成像平面上的二维图像点之间映射关系的参数,标定后的参数存放在所述的存储单元中;
Bird-View变换模块,用于读取存放在所述的存储单元中的全方位视觉传感器的标定参数值,通过Bird-View变换来修正全方位视觉成像后严重扭曲变形,将全方位图像变换为Bird-View视图,Bird-View视图为鸟类俯瞰着这个地面上所形成的图像,变换后得到的Bird-View视图存放在所述的存储单元中;
全方位面激光信息读取模块,用于对Bird-View视图进行处理快速获取空间或物体表面三维数据点的几何信息,其计算结果递交给障碍物特征点计算模块;
障碍物特征点计算模块,用于计算和标示移动机器人周围的障碍物特征点的分布情况,其计算结果递交给关键面之间的障碍物空间分布估算模块;
关键面之间的障碍物空间分布估算模块,用于评估在全方位视场内两个关键面之间存在的障碍物,估算结果递交给障碍物轮廓线生成模块;
障碍物轮廓线生成模块,用于自动生成以移动机器人为中心的周边障碍物轮廓线;
避障路径的估算模块,用于判断机器人是否能通过非障碍物区域;首先要估算出非障碍物区域的宽度值,根据没有障碍物存在的区域的方位信息以及该区域离障碍物的距离值用公式(13)进行估算,式中,Ρpath为没有障碍物存在的区域的宽度,β1为左侧障碍物和没有障碍物分界线的方位角,β2为右侧障碍物和没有障碍物分界线的方位角,Rm为在β1和β2方位角情况下的障碍物距离的平均值;
最后将机器人的最大宽度值乘上1.1倍得到机器人最小通过宽度RobotW,如果RobotW小于没有障碍物存在的区域的宽度Ρpath就判断机器人可以通过该区域,否则判断不能通过该区域。
2.如权利要求1所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的全方位视觉传感器标定模块,确定三维空间点和摄像机成像平面上的二维图像点之间映射关系的参数的过程为:建立一个成像平面的像点与入射光线之间的联系,即与入射角之间的对应关系,用公式(6)表示;
式中,α表示空间物点的入射角,||u″||为传感器平面点到该平面中心点的距离,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数,通过公式(6)建立一张成像平面任一像素点与入射角之间的对应关系表。
3.如权利要求2所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的Bird-View变换模块中,所述Bird-View变换可为全方位视觉传感器成像过程的一种逆变换,利用公式(6)标定的结果进行Bird-View变换,通过该标定结果将全方位图像转换成Bird-View图像,其中,空间物点P到观测点Om在水平地面上的投影点之间的距离R用公式(7)进行计算,式中,R为空间物点P到观测点Om在水平地面上的投影点之间的距离,h为空间物点P到观测点Om在垂直面上的投影点之间的距离,α为空间物点P到观测点Om的入射角,β为空间物点P到观测点Om的方位角。
4.如权利要求1或2或3所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的全方位面激光信息读取模块中,由所述关键面激光光源投射在不同的两个关键面上,在接近地面水平面上产生一个平面投射绿色激光,在离地面一定高度的水平面上产生一个平面投射红色激光;通过解析在Bird-View视图上绿色激光和红色激光投射点;
解析在Bird-View视图上绿色激光和红色激光投射点的方法是根据绿色激光和红色激光投射点的像素的亮度要大于成像平面上的平均亮度,首先是将Bird-View视图的RGB颜色空间转化成HIS颜色空间,然后将成像平面上的平均亮度的1.2倍作为提取绿色激光和红色激光投射点的阈值,在提取出绿色激光和红色激光投射点后需要进一步区分绿色激光和红色激光投射点,本发明中根据HIS颜色空间中的色调值H进行判断,如果色调值H在(0,30)之间就判断为红色激光投射点,如果色调值H在(105,135)之间就判断为绿色激光投射点,其余像素点就判断为干扰。
5.如权利要求1或2或3所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的障碍物特征点计算模块中,首先确定障碍物特征点,所述的障碍物特征点是通过关键面的激光投射线与Bird-View变换图上的近似垂直边缘线的交点来确定的;
Bird-View变换图上的近似垂直边缘线的求法是通过Sobel垂直方向模板遍历Bird-View变换图得到Bird-View变换图上的近似垂直边缘线,Sobel垂直方向模板由公式(8)给出;
对于所求得的交点Pa和Pb的两个特征点,即障碍物特征点,可以用公式(9)到观测点Om在水平地面上的投影点之间的距离Ra和Rb,Ra=hgreenline×cosβ/tanαa (9)
Rb=hredline×cosβ/tanαb
式中,Ra为特征点Pa到观测点Om在水平地面上的投影点之间的距离,hgreenline为特征点Pa到观测点Om之间的距离,β为特征点Pa的方位角,αa为特征点Pa的入射角;Rb为特征点Pb到观测点Om在水平地面上的投影点之间的距离,为hredline特征点Pb到观测点Om之间的距离,β为特征点Pb的方位角,αb为特征点Pb的入射角。
6.如权利要求1或2或3所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的关键面之间的障碍物空间分布估算模块中,对于某一方位角β的存在着红色激光和绿色激光投射的特征点,其行走机器人与障碍物的距离取最近投射点距离作为障碍物距离,用公式(10)计算,Rβ=min(Ra,Rb) (10)
式中,Rβ为某一个方位角β情况下行走机器人与障碍物的距离,Ra为某一个方位角β情况下行走机器人在接近地面的水平面高度时与障碍物的距离,Rb为某一个方位角β情况下行走机器人在本身高度的水平面时与障碍物的距离;
对于某一方位角β的只存在着红色激光投射的特征点,表明这时只存在着凸台型障碍物,以红色激光投射点的距离作为障碍物距离,某一个方位角β情况下行走机器人与障碍物的距离用公式(11)计算,Rβ=Rb (11)
对于某一方位角β的只存在着绿色激光投射的特征点,表明这时只存在着路边型障碍物,以绿色激光投射点的距离作为障碍物距离,某一个方位角β情况下行走机器人与障碍物的距离用公式(12)计算,Rβ=Ra (12)
对于某一方位角β都不存在着红色激光和绿色激光投射的特征点的情况,就判断该方位角方向没有障碍物。
7.如权利要求1或2或3所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的障碍物轮廓线生成模块中,在所述的关键面之间的障碍物空间分布估算模块处理后得到了各个方位角的障碍物分布情况,将这些数据以方位角β为横坐标、障碍物距离值为纵坐标绘制障碍物轮廓线曲线图。
8.如权利要求1或2或3所述的基于主动全景视觉传感器的机器人视觉系统,其特征在于:所述的双曲面镜面构成的光学系统由下面5个等式表示;
2 2 2 2 2
((X+Y)/a)-((Z-c)/b)=-1 当Z>0时 (14)
-1
β=tan (Y/X) (16)
-1 2 2 2 2
α=tan [(b+c)sinγ-2bc]/(b+c)cosγ (17)
式中,X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β表示入射光线在XY投影平面上与X轴的夹角,即方位角,α表示入射光线在XZ投影平面上与X轴的夹角,这里将α称为入射角,α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折反射光线与Z轴的夹角;x,y表示在成像平面上的一个点。