欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2014105963443
申请人: 燕山大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于双目视觉的高精度虚拟装配系统算法,其特征在于该算法内容如下:

通过Kinect传感器采集用户运动空间信息,包括上肢动作信息、手势信息包括静态手势和动态手势信息作为虚拟装配系统的输入信息,从而使用自然习惯动作完成虚拟装配过程;

采用Kinect传感器拍摄手部姿态的彩色图像和对应的深度图像信息作为输入信息,通过肤色检测结合深度信息,分割出手部图像,得到观察的模型;应用OpenGL建立手部模型,采用球体、圆柱体、椭球体和椎体四个基本图元,建立一个用27个参数表征的具有26个自由度的3D手部模型;

将建立的模型与采集的手部图像进行对比,计算得到模型与手部图像的相似度,采用改进的粒子群优化算法,通过相异性计算公式E(h,O),估算出观察对象与模型对象之间的相异程度,不断优化手部模型的27个参数,使得相似度度量达到最大,最终得到采集图像的手部模型,基于手部模型以及Kinect传感器的标定信息,最终渲染得到深度图像,实现对手势的跟踪识别,完成虚拟装配系统的信息输入,进而实现高精度虚拟装配过程,其中所述的相异性计算公式E(h,O)为:E(h,O)=D(O,h,C)+λk·kc(h)

其中λk是一个标准化因数,C表示摄像机的校准信息,h代表模型对象,O代表观察对象;

函数D(O,h,C)表示为:

函数D(O,h,C)中的绝对值表示观察对象与模型对象的箝位深度差,ε用来防止分母为零。