目前基于Kinect设备的遥操作系统与人机交互的研究十分丰富。
Aristidou等人等通过计算手的位置和速度来识别动态变化并且采用贝叶斯算法对这些手势分类,实现与机器人交互[3]。杨雷坤等人利用微软Kinect摄像机采集手势,采用模版识别与基于隐马尔科夫模型的识别算法识别手势,实现了基于六种空间遥操作手势的空间遥操作系统[4]。付倩等人提出了一种基于Kinect设备手语自动翻译的手势识别方法,设计了三层手语分类器来实现静态手势语的识别,从而实现了基于手语自动翻译的人机交互系统[5]。MahmoudElmezain等人应用状态范围为3到10、左右拓扑的隐马尔可夫模型,动态特征从时空轨迹获得,然后量化产生其编码,提出了一种基于隐马尔可夫模型实时识别阿拉伯数字
(0-9)的独立和连续手势的自动系统[6]。以上文献资料大都侧重于对手势识别和手势的语义定义的研究,操作者通过手势与人机
交互界面进行交互,完成操作者的意图表达。还有一类研究基于Kinect强大的骨骼跟踪功能,试图建立一种类似“机器人镜”的遥操作人机交互系统。
林海波等人首先利用Kinect传感器计算出操作者腰、肩、肘和腕4个关节的转动角度,并将这4个关节与四自由度机械臂的4个关节一一对应,最后将计算结果转换成控制指令发送给机械臂控制器,实现体感交互[7]。CarlosA.Arango等人将Kinect传感器设备和KUKAKR6机械臂结合,构成一种主从式通信系统,Kinect设备捕获使用者右手的位置,对得到的结果进行滤波后,通过哈尔小波变换得出手的运动信息,然后将这些数据发送给KukaKR6的控制器,机械臂根据正运动学运动,实现人手臂与机械臂运动的较高的相关性[2]。IsmailAlmetwally和MalikMallem使用Kinect深度相机、OpenNI平台和机器人操作系统(ROS),实现人形机器人NAO实时完全模拟人体运动[8]。
通过对现有的基于Kinect的人机交互的相关方面研究进行分析,发现类似的系统已经有了一定的研究成果。但是考虑到带电作业机器人的工作环境的特殊性,想要将现有研究成果直接应用到带电作业机器人的遥操作中还有一定的困难。后续研究中可考虑充分利用Kinect设备优秀的图像处理功能,结合带语义的手势操作方式和骨骼信息体感交互实时操作方式的优点,为带电作业机器人的遥操作建立一种更加自然高效的人机交互系统。
1.3本文研究内容及安排
本文主要研究基于Kinect的手势识别人机交互系统设计,重点研究不同手势的识别方法,然后设计手势交互的人机界面,并对手势语义进行定义,实现一个基于Kinect的手势识别人机交互系统。文章整体分为五个部分,内容如下:
第一章,绪论部分,主要介绍基于Kinect的人机交互系统的研究背景与研究意义,以及国内外的研究现状。
第二章,对基于Kinect手势识别的人机交互相关技术进行概述部分,包括对人机交互系统任务要求的阐述、对手势识别的系统结构、Kinect设备的介绍。
第三章,静态手势的识别部分,包括静态手势的分割、预处理、特征提取和静态手势识别。
第四章,动态手势的识别部分,包括动态手势的标记、训练、识别等相关内容。第五章,人机交互系统设计部分,包括人机交互界面设计、手势的语义定义等内容。最后是全文的总结与展望部分。对本文的工作内容进行了总结,对后续工作阐述了自己的看法。
2 手势识别人机交互系统概述 基于Kinect手势识别的遥操作机械臂人机交互系统设计(3):http://www.chuibin.com/zidonghua/lunwen_205370.html