基于双目视觉的机器人自定位方法研究
研究了一种利用双目立体视觉的机器人自定位方法.首先提取双目图像序列的Harris角点特征,并计算其水平与垂直方向上的Sobel响应,基于此响应,采用绝对误差累计的最小窗口查找(SAD)原理进行立体匹配.将改进的RANSAC算法用于特征匹配点优化中,利用高斯牛顿迭代法求解机器人位姿,实现了机器人的自定位.室内、外实验,及与BoofCV视觉库中的立体视觉定位算法的对比分析,证明该方法在运算速度、定位精度和稳定性等方面均能满足实际应用需求.
机器人 双目视觉 特征匹配 位姿估计 自定位
张华 夏菠
西南科技大学特殊环境机器人技术四川省重点实验室,四川绵阳621010
国内会议
大连
中文
104-108
2015-10-22(万方平台首次上网日期,不代表论文的发表时间)