力觉-视觉融合显示的空间配准方法研究
多通道人机交互的增强现实系统中,力-视觉感知信息的一致性是保证人对虚拟物体的感知不产生歧义的前提。目标是实现”所见即所触”的力觉感受,研究力觉-视党融合昱示的空间精确配准问题。首先设计六自由度关节参数可调的硬件平台,基于视野范围和手眼协调原则,优化各关节的最优参数;其次提出了力觉-视觉显示信号的空间配准方法,基于高精度测量设备FARO,建立了力觉和视觉空间坐标系及二者之间的映射关系;第三建立了误差分析模型,量化分析了三类主要误差源对于系统配准精度的影响。最后,基于Phantom的实验平台验证了方法的空间配准精度满足手眼协调操作的增强现实系统的要求。
人机交互 增强现实 空间配准
王瑜 王党校 张玉茹
北京航空航天大学机器人研究所,北京 100083
国内会议
北京
中文
297-301,429
2007-10-29(万方平台首次上网日期,不代表论文的发表时间)