关于计算机视觉的手势识别综述
手势识别算法总结

手势识别算法总结手势识别算法是指通过计算机视觉和模式识别技术,对人的手势进行实时检测和分类的过程。
手势识别算法在人机交互、虚拟现实、智能监控等领域具有广泛的应用前景。
本文将对手势识别算法的基本原理、分类方法、应用领域等进行综述。
手势识别算法的基本原理是利用图像或视频中的人手部分进行检测和分类。
首先,通过图像或视频的采集设备(如摄像头)获得人手的图像序列。
然后,对获得的图像进行预处理,包括背景减除、手势分割、噪声过滤等。
接着,对预处理后的图像进行特征提取,常用的特征包括颜色特征、纹理特征、形状特征等。
最后,通过训练分类器对提取的特征进行分类,得到手势的类别。
手势识别算法可以分为基于2D图像和3D模型的方法。
基于2D图像的方法是指在2D平面上对手势进行检测和分类。
常用的算法包括基于背景减除的方法、基于模板匹配的方法、基于统计学的方法等。
基于背景减除的方法通过建模背景和前景来实现手势分割,然后对分割的手势进行特征提取和分类。
基于模板匹配的方法是指事先构建一系列模板,然后将待识别手势与模板进行匹配,选择匹配最好的模板作为识别结果。
基于统计学的方法是指通过统计的方法计算手势与训练样本之间的相似性,然后选取相似性最高的样本作为识别结果。
基于3D模型的方法是指在3D空间中对手势进行检测和分类。
常用的算法包括基于深度摄像机的方法、基于传感器的方法、基于模型拟合的方法等。
基于深度摄像机的方法通过获取物体与摄像机之间的深度信息,从而实现对手势的精确定位和分类。
基于传感器的方法是指通过手持传感器(如陀螺仪、加速度计等)获取手势的运动轨迹和姿态信息,然后对这些信息进行处理和分类。
基于模型拟合的方法是指通过建立手势模型,然后将待识别手势与模型进行拟合,选取拟合效果最好的模型作为识别结果。
手势识别算法在许多领域具有广泛的应用。
在人机交互中,手势识别可以替代传统的鼠标和键盘输入,提供更直观、自然的交互方式。
在虚拟现实中,手势识别可以实现用户的身体感知和控制,增强虚拟场景的沉浸感。
手势识别研究发展现状综述

手势识别研究发展现状综述
手势识别是一种能够根据人类手部动作来实现人机交互的计算机
技术。
它以分布式传感技术和图像处理技术为基础,将人的“动作”
转换为系统可识别的信号,从而允许计算机系统能够更准确地识别人
的行为,为用户提供更加友好和自然的控制方式。
近年来,随着计算
机视觉技术和深度学习技术的发展,手势识别技术也得到了飞快的发展。
首先,多通道的手势传感器技术已经建立起来,如无线传感技术、有线传感技术、机器感知技术和混合传感技术等,为手势识别技术的
研究提供了切实可行的应用方案。
其次,传感器技术的改进研究甚至
可以利用最少的传感器来获得最佳的识别性能。
此外,手势识别技术
还涉及图像识别技术,它可以利用经典机器学习算法实现视频图像识别,以获得更好的精度。
最后,最新的深度学习技术也可以用于手势
识别,如卷积神经网络和循环神经网络等,可以在计算量小的情况下
实现高精度的手势识别。
总的来说,手势识别技术的研究进展迅速,
具有良好的前景,有望成为未来人机交互最为重要的一种方式。
python手势识别总结

python手势识别总结Python手势识别是一种利用计算机视觉技术,通过分析和识别人手在摄像头中的姿势和动作,来实现特定功能的技术。
它可以应用于许多领域,如人机交互、虚拟现实、智能家居等。
本文将介绍Python手势识别的原理、应用以及相关的开源库和工具。
一、Python手势识别的原理Python手势识别利用计算机视觉技术中的图像处理和机器学习算法,对手部图像进行分析和识别。
首先,需要获取手部图像,可以通过摄像头实时捕捉手部图像或者从视频中提取手部图像。
然后,对手部图像进行预处理,包括去噪、边缘检测、图像增强等操作,以提高后续识别的准确性。
接下来,使用特征提取算法从手部图像中提取出关键特征,如手指的位置、角度、曲率等。
最后,通过训练好的机器学习模型或者深度学习模型,对提取到的特征进行分类和识别,从而实现对手势的识别。
二、Python手势识别的应用1. 人机交互:通过手势识别可以实现与计算机的自然交互,用户可以通过手势来控制计算机的操作,比如手势点击、手势滑动等。
2. 虚拟现实:在虚拟现实环境中,用户可以通过手势来进行操作和交互,比如手势控制虚拟角色的动作、手势操作虚拟物体等。
3. 智能家居:通过手势识别可以实现智能家居的控制,比如通过手势来控制灯光的开关、调节音量等。
4. 医疗辅助:手势识别可以应用于医疗领域,比如通过手势来进行手术操作的训练、辅助残障人士的康复训练等。
三、Python手势识别的开源库和工具1. OpenCV:OpenCV是一个开源的计算机视觉库,提供了丰富的图像处理和计算机视觉算法,包括手势识别。
它支持多种编程语言,包括Python。
2. Mediapipe:Mediapipe是Google开源的一款多媒体处理框架,提供了一系列的计算机视觉和机器学习算法,包括手势识别。
它支持实时手势识别和姿势估计等功能。
3. TensorFlow:TensorFlow是一个开源的深度学习框架,可以用于训练和部署机器学习模型。
利用计算机视觉技术实现实时手势识别的关键步骤

利用计算机视觉技术实现实时手势识别的关键步骤实时手势识别是计算机视觉技术中的重要应用之一,它可以通过摄像头捕捉人体手部动作,将其转化为计算机理解的数据,并进行运算分析,最终实现对手势的识别和理解。
本文将介绍利用计算机视觉技术实现实时手势识别的关键步骤。
一、获取图像数据实时手势识别首先需要通过摄像头获取人体手部动作的图像数据。
摄像头可以是普通的摄像头设备或者是深度相机,深度相机可以提供更多的深度信息,更有助于手势识别的准确性。
获取到的图像数据可以是视频流,也可以是单帧图像。
二、预处理图像数据获取到的图像数据需要进行预处理,以提高手势识别的准确性和效率。
预处理包括去噪、图像增强和图像分割等步骤。
去噪可以通过使用滤波器,如高斯滤波器,消除图像中的噪声,以保留有效的图像信息。
图像增强可以通过调整图像的亮度、对比度等参数,增强图像的边缘和细节。
图像分割则是将手部图像从背景中分离出来,以便于后续的手势识别。
三、特征提取特征提取是实时手势识别的关键步骤之一,它将从预处理的图像数据中提取有用的特征信息,用于后续的手势识别和分类。
常用的特征提取方法包括形状特征、颜色特征和纹理特征等。
形状特征可以通过检测手部的轮廓和关键点,提取手势的形状信息。
颜色特征可以通过分析手部的颜色分布,提取手势的颜色信息。
纹理特征则可以通过分析手部的纹理特征,提取手势的纹理信息。
通过合理选择特征提取方法,可以提高手势识别的准确性和鲁棒性。
四、手势分类手势分类是将提取到的特征与已知手势类别进行匹配的过程,以实现对手势的识别。
手势分类可以使用传统的机器学习算法,如支持向量机、随机森林等,也可以使用深度学习算法,如卷积神经网络(CNN)。
传统的机器学习算法需要手动设计特征提取方法,而深度学习算法则可以自动学习特征表示,更加适用于复杂的手势识别场景。
五、实时识别和响应实时手势识别的目标是在实时性要求下对手势进行准确识别,并做出相应的响应。
在实时识别过程中,需要针对不同的手势类别进行预测和判定,并对识别结果进行输出。
基于计算机视觉的手势识别技术简介

基于计算机视觉的手势识别技术简介手势识别是一种利用人体手部运动或姿态来实现人机交互的技术。
随着计算机视觉和机器学习的不断发展,基于计算机视觉的手势识别技术得到了极大的改进和应用。
本文将介绍基于计算机视觉的手势识别技术的原理、方法以及应用领域。
首先,基于计算机视觉的手势识别技术的原理是通过摄像机或深度传感器捕捉手部的图像或深度信息,然后利用图像处理和模式识别的方法来提取手势特征并进行分类识别。
其中,模式识别是手势识别的核心技术之一,主要利用机器学习算法对手势进行分类和识别。
在手势识别方法方面,基于计算机视觉的手势识别技术可分为离线和实时两种。
离线手势识别是对预先录制的手势视频进行分析和识别,通常采用静态图像处理和机器学习算法来进行手势分类。
而实时手势识别是在实时视频流中进行手势识别,要求实时性较高,因此采用动态图像处理和实时机器学习算法来实现。
基于计算机视觉的手势识别技术有多种应用领域。
其中,最为重要的应用领域之一是人机交互。
手势识别技术能够通过手势控制设备,实现电脑、智能手机和游戏机等的操作,提供更加直观、自然的交互方式。
此外,在虚拟现实和增强现实领域,手势识别技术也被广泛应用,能够实现用户手势与虚拟场景的交互,提升用户体验。
此外,基于计算机视觉的手势识别技术还应用于健康护理领域。
通过识别手势,可以实现手势导航、手势遥控等功能,帮助老年人或残障人士更加方便地使用电子设备。
同时,手势识别技术还可以应用于手势监测和手势分析,用于康复治疗和人类动作分析等领域。
需要注意的是,基于计算机视觉的手势识别技术还面临一些挑战和限制。
首先,手势特征的提取和分类是手势识别中的关键问题,需要有效的算法和模型来提高准确度和鲁棒性。
其次,不同的手势识别系统对硬件设备的要求也不同,需要根据具体应用场景选择合适的摄像头或深度传感器。
此外,光线条件、背景干扰和手势多样性也会对手势识别的效果产生影响。
综上所述,基于计算机视觉的手势识别技术在人机交互、虚拟现实、健康护理等领域具有广泛的应用前景。
手势识别研究发展现状综述

手势识别研究发展现状综述摘要:在现如今的社会。
计算机技术高度发展,计算机与人类的结合度以越来越高,人机交互程度越来越深入,在这其中,人机手势识别是很重要的一项。
目前的人机手势识别已经在多个领域内得到了巨大的成就。
本文就手势识别技术的发展现状,主要分为国内与国外的现状进行概括总和。
关键词:手势识别、人机交互、研究、发展、现状随着计算机技术在人类生活的广泛运用,人机交互已经成为人类生活中不可分离的一部分。
人机交互旨在达到人类与及其形成良好便捷的沟通,是计算机更好的为人类所服务,满足人类的需求。
人机交互包含了手势、眼动、人脸识别等新兴技术,其中手势识别作为最方便的一项被人类广泛的运用。
但手势识别存在一些弊端,比如手势的多样性、多义性以及随着时间和空间的变化,手势会发生一定的变化等,所以手势识别领域实际上是一个多学科知识交叉的领域,包含了各个方面的研究内容。
且由于各种因素,关于手势识别的研究无法整体的整合到一个知识框架中去,无法形成一个完整的知识体系,使得手势识别无法普遍的应用到研究或系统中去。
一、手势识别研究的发展最早期的手势识别只是二维层次上的,通过机器,捕捉人体手肘、胳膊等关键关节部位形成的空间与角度关系,形成一个具体的数据库。
在常见的识别设备是数据手套,通过有限技术,把数据手套与电脑通过数据线进行连接,把数据手套检测到的信息传输到电脑中,用电脑自动的生成一个关于该用户该姿势的具体的数据库,以为了具体实践的时候进行对比。
早期的数据手套是由多个传感器件组成的,他们可以对各种姿势进行细节的捕捉,提高实践时对姿势的对比准确度但其在使用时还是具有很大的不便,且其价格昂贵,无法得到广泛的应用。
后来,手势识别得到重视并取得了一定的进步,原本的数据手套被光学标记法取代。
光学标记法主要运用的是红外线技术,即在录入手势姿势的时候,利用红外线技术扫描用户佩戴的光学标记,记录姿势各个部位细节的位置,形成相应的姿势数据定势,传输到电脑的数据库系统中。
基于计算机视觉的手势识别技术研究

基于计算机视觉的手势识别技术研究一、前言随着计算机技术的迅猛发展,计算机视觉领域的技术也越来越成熟。
其中,手势识别技术是计算机视觉领域的一个关键研究领域,它可以将人类的手势语言转换成计算机能够识别和处理的代码,从而实现人机交互的自然化。
二、手势识别技术的研究现状手势识别技术的发展历程可以追溯到20世纪80年代,当时,手势识别技术还处于探索阶段,研究者主要采用传统的图像处理和机器学习方法来进行研究。
随着深度学习技术的发展,现在使用神经网络模型进行手势识别的研究较为普遍。
手势识别技术的应用范围非常广泛,从智能家居、智能驾驶、虚拟现实到医疗等领域的应用都离不开手势识别技术的支持。
三、基于计算机视觉的手势识别技术的原理基于计算机视觉的手势识别技术主要分为以下几个步骤:1.采集手势图像数据:通过相机等设备采集手势数据,对手势数据进行预处理。
2.特征提取:对采集到的手势数据进行特征提取,获取手势的表征。
3.模型训练:使用机器学习技术训练手势识别模型,使其能够对不同的手势进行分类识别。
4.测试评价:对训练好的模型进行测试,计算分类准确率等评价指标。
四、影响手势识别技术准确率的因素手势识别技术的准确率受到多方面的因素影响。
1.环境因素:手势识别技术对光照、距离、噪声等环境因素比较敏感,这些因素会对手势图像的质量产生影响,进而影响手势识别的准确率。
2.手势形态变化:不同的手势形态变化对手势识别技术的准确率有着较大的影响,而不同的手势组合数量巨大,这给手势识别技术的准确率提出了挑战。
3.算法因素:不同的手势识别算法对准确率的影响也比较大,选择合适的算法能够提高手势识别技术的准确率。
五、手势识别技术在智能家居中的应用手势识别技术在智能家居中的应用主要体现在以下几个方面:1.门窗的自动开关:通过手势识别技术,可以对门窗进行自动开关操作,提高家人的使用便捷性和生活安全性。
2.灯光控制:通过手势识别技术,可以对灯光进行控制,提高家居的舒适度和智能化程度。
手势识别研究发展现状综述

手势识别研究发展现状综述近年来, 随着计算机技术和智能系统的发展, 计算机视觉技术取得了巨大的进步, 手势识别也开始受到越来越多的关注。
手势识别技术是一种以视觉信息作为输入, 通过检测和识别人们手部动作信息, 然后根据计算出的结果做出合适的反馈的技术。
它在许多领域都有着广泛的应用, 如人机交互、机器人协作、生物特征识别、智能家居、以及游戏等等。
手势识别理论早在上世纪90年代初就已经存在。
一般来讲, 它可以分为两个大类: 一是基于主观视觉识别技术, 它利用模式识别、图形识别以及其他计算机视觉技术来识别复杂的手势;二是基于物理模型的手势识别技术, 它利用物理学方法来分析手部特征, 根据各种数据来获取手势的正确信息。
随着技术的发展, 手势识别技术也有了极大的进步, 它可以准确地识别出复杂的手势, 以及跟踪和识别手部动作。
随着深度学习技术、计算机视觉和被动式视觉技术的发展, 针对手势识别的研究也取得了很大的进步, 从架构、模型和算法的设计, 到手势的识别和跟踪, 都有着巨大的提升。
例如, 根据视觉技术进行手势识别, 可以实现图像在现实世界中的识别和跟踪;使用深度学习技术, 可以更准确地在实时的视频信号中识别和跟踪手势;有了传感器信息的融入, 可以更好地识别复杂的手势以及人与人之间的交互;计算机视觉技术也可以用来结合传感器, 实现更高精度的手势识别等。
此外, 智能手机能够实现现场的手势识别, 可以实现的功能也越来越多, 基于智能手机的手势识别可以实现对运动、手指位置和手势的实时识别。
除此之外, 随着硬件和软件的发展, 基于深度学习、计算机视觉、自然语言处理等技术, 以及无线感知技术的发展, 传统的手势识别技术也可以得到很大的提升, 例如低成本传感器可以实现实时识别。
综上所述, 当今手势识别技术经历了极大的发展, 以上所介绍的技术, 大大提高了手势识别的精度和准确性, 使它可以大量应用到许多不同的领域。
然而, 基于现有的技术, 仍有许多技术问题有待解决, 如在复杂环境中实现手势识别、支持不同类型的手势以及跨文化手势识别等。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
关于计算机视觉的手势识别综述蒋指挥(江苏科技大学江苏镇江 213022)摘要:计算机技术的高速发展也产生了许多新领域,在此对以计算机视觉为基础的手势检测识别技术展开综述。
主要阐述该技术的发展历程、实现方法、研究现状以及其存在的不足之处和发展方向。
结果表明简单的可穿戴设备的手势识别和深度视觉传感器的手势识别和多方法交叉融合的手势识别是未来该领域的发展方向。
关键词:计算机视觉;手势识别;人机交互A survey of gesture recognition in computer vision//Jiang Zhi HuiAbstract;With the rapid development of computer technology, a lot of new fields have been developed. In this paper, the technology of gesture detection and recognition based on computer vision is reviewed. This paper describes the development of the technology, the realization method, the research status and its shortcomings and development direction. The results show that the simple wearable device for hand gesture recognition and depth vision sensor for hand gesture recognition and multi method cross fusion for gesture recognition is the future direction of the development of the field.Key words:Computer vision; gesture recognition; human-computer interaction计算机在我们的生活中越来越不可或缺,我们同时也对计算机提出了更高的要求,计算机视觉的手势识别正是对计算机应用拓展的重要途径,例如现在的VR技术,就是应用了手势识别才实现的。
ABIResearch公司高级分析师约书亚·弗拉德(JoshuaFlood)指出:“免提操作或手势识别很快将成为高端旗舰智能手机、媒体平板电脑和智能眼镜区别于其他同类产品的一个关键因素。
三星电子最新推出银河S4已经将这项技术用于其手机中,并以其全新的用户体验获得用户交口称赞。
此外,在一系列新型智能眼镜产品即将发布之时,不难想象这类技术将被采用。
”其实手势识别技术涵盖了许多领域,比如物理学、生物学等,实现手势识别的方式有很多种从一开始的二维手型识别、二维手势识别到后来的三维手势识别,正是计算机视觉技术的发展使得手势识别的实现方式更加多样。
但目前的技术仍然很繁琐,冗杂的可穿戴设备就直接影响了使用者的舒适感,其还有很大的发展空间。
1、手势识别的发展历程及其实现方法说起手势识别技术从简单粗略到复杂精细大致可以分为三个等级:二维手型识别、二维手势识别、三维手势识别。
在具体讨论手势识别之前,我们有必要先知道二维和三维的差别。
二维只是一个平面空间,我们可以用(X坐标,Y坐标)组成的坐标信息来表示一个物体在二维空间中的坐标位置,就像是一幅画出现在一面墙上的位置。
三维则在此基础上增加了“深度”(Z坐标)的信息,这是二维所不包含的。
这里的“深度”并不是咱们现实生活中所说的那个深度,这个“深度”表达的是“纵深”,理解为相对于眼睛的“远度”也许更加贴切。
就像是鱼缸中的金鱼,它可以在你面前上下左右的游动,也可能离你更远或者更近。
前两种手势识别技术,完全是基于二维层面的,它们只需要不含深度信息的二维信息作为输入即可。
就像平时拍照所得的相片就包含了二维信息一样,我们只需要使用单个摄像头捕捉到的二维图像作为输入,然后通过计算机视觉技术对输入的二维图像进行分析,获取信息,从而实现手势识别。
而第三种手势识别技术,是基于三维层面的。
三维手势识别与二维手势识别的最根本区别就在于,三维手势识别需要的输入是包含有深度的信息,这就使得三维手势识别在硬件和软件两方面都比二维手势识别要复杂得多。
1.1、二维手型识别二维手型识别,也可称为静态二维手势识别,识别的是手势中最简单的一类。
这种技术在获取二维信息输入之后,可以识别几个静态的手势,比如握拳或者五指张开。
其代表公司是一年前被Google收购的Flutter。
在使用了他家的软件之后,用户可以用几个手型来控制播放器。
用户将手掌举起来放到摄像头前,视频就开始播放了;再把手掌放到摄像头前,视频又暂停了。
“静态”是这种二维手势识别技术的重要特征,这种技术只能识别手势的“状态”,而不能感知手势的“持续变化”。
举个例子来说,如果将这种技术用在猜拳上的话,它可以识别出石头、剪刀和布的手势状态。
但是对除此之外的手势,它就一无所知了。
所以这种技术说到底是一种模式匹配技术,通过计算机视觉算法分析图像,和预设的图像模式进行比对,从而理解这种手势的含义。
而这种识别方法的缺点就非常明显了,他的拓展性差、控制感很弱,人机交互的体验非常繁杂,而且他所能实现的功能非常有限,完全达不到人们的使用要求。
1.2、二维手势识别二维手势识别,比起二维手型识别来说稍难一些,但仍然基本不含深度信息,停留在二维的层面上。
这种技术不仅可以识别手型,还可以识别一些简单的二维手势动作,比如对着摄像头挥挥手。
其代表公司是来自以色列的Point Grab,Eyesight和Extreme Reality。
二维手势识别拥有了动态的特征,可以追踪手势的运动,进而识别将手势和手部运动结合在一起的复杂动作。
这样一来,我们就把手势识别的范围真正拓展到二维平面了。
我们不仅可以通过手势来控制计算机播放/暂停,我们还可以实现前进/后退/向上翻页/向下滚动这些需求二维坐标变更信息的复杂操作了。
这种技术在硬件要求上和二维手形识别并没有区别,但他实现的功能更加丰富,使用体验也更好,目前也已经集成到电视中,但大多以噱头为主,还不能作为电视控制的常用方法。
1.3、三维手势识别实现三维手势识别的方法就有许多种了,在此简单介绍两种:(1)结构光(Structure Light)结构光的代表应用产品就是Prime Sense公司为大名鼎鼎的微软家XBOX 360所做的Kinect一代了。
这种技术的基本原理是,加载一个激光投射器,在激光投射器外面放一个刻有特定图样的光栅,激光通过光栅进行投射成像时会发生折射,从而使得激光最终在物体表面上的落点产生位移。
当物体距离激光投射器比较近的时候,折射而产生的位移就较小;当物体距离较远时,折射而产生的位移也就会相应的变大。
这时使用一个摄像头来检测采集投射到物体表面上的图样,通过图样的位移变化,就能用算法计算出物体的位置和深度信息,进而复原整个三维空间。
(2)2光飞时间(Time of Flight)光飞时间是Soft Kinetic公司所采用的技术,该公司为业界巨鳄Intel提供带手势识别功能的三维摄像头。
同时,这一硬件技术也是微软新一代Kinect所使用的。
这种技术的基本原理是加载一个发光元件,发光元件发出的光子在碰到物体表面后会反射回来。
使用一个特别的CMOS传感器来捕捉这些由发光元件发出、又从物体表面反射回来的光子,就能得到光子的飞行时间。
根据光子飞行时间进而可以推算出光子飞行的距离,也就得到了物体的深度信息。
2、其他一些手势识别研究思想2.1、隐马尔科夫方法[1]隐马尔可夫模型(hiddenmarkovmodel,HMM)早期主要用于语音识别领域,近年来在手势识别方向发展非常迅速。
目前,HMM虽然在语音识别领域取得了巨大的成功,但是在手势识别中的表现却并不令人十分满意,这主要是由于传统的HMM方法需要为每种手势分别建立HMM模型,计算量巨大,影响了系统的实时性能.因此,如何在模型复杂性和系统实时性之间寻求平衡,以适应手势识别的实际应用,将是研究者值得深入探讨的问题.2.2、神经网络神经网络具有高度的并行性、自适应性及一定的学习能力等特点,一些学者将这一方法应用于手势识别领域.Murthy等使用BP网络,实现了数十种手势的分类识别.但传统的BP网络存在一些固有的缺点,如容易限于局部极小、收敛速度慢、不能有效利用以往的学习经验等.针对这些问题,许多改进算法不断被提出来.Li等提出自适应确定隐含层神经元数目的算法,将Chebyshev前馈神经网络推广到动态手势学习和识别;Tusor等将模糊理论和人工神经网络结合,建立了模糊神经网络的拓扑结构,用模糊特征值去描述和区分不同的手的姿势.神经网络模型种类繁多,针对不同的应用求,可衍生出不同的形式,但其识别准确建立在大容量的训练样本基础之上.虽然一些改进的网络训练迭代规则可以提高训练速度,但仍不能完全避免冗长的学习训练过程,因此,该方法不太适应需要对用户手势进行在线学习的情况.3、手势识别发展中的问题在手势检测识别研究的早期阶段,往往需要通过使用者佩戴收集手势数据的手套对系统进行输入,如已经产品化的 CyberGlove,能够对人手22个关节角度进行高精度的测量,哈尔滨工业大学的吴江琴、高文等人就利用该产品研发了基于神经网络和隐马尔科夫模型( ANN/HMM) 结合方法的中文手语识别技术。
但利用数据手套作为输入设备会给使用者带来不舒适感如出汗等,且设备价格昂贵,难以推广。
其后,又有研究者以在手部粘贴高亮标签使计算机易于识别作为改进方法,如美国中弗罗里达大学的 Davis J 和 Shah M 通过在五个指尖处粘贴高亮标记并利用有限状态机( FSM) 建立手势动态模型进行识别。
目前实现自然手势检测识别的难点主要有以下三个方面[2] :( 1) 因使用场合的不同和光照环境等的变化及人手本身因光滑而产生的大量阴影,会对手势区域与背景的分离造成巨大干扰,而能够准确和合理地分离手势与背景是提高识别效率和准确率的一个重要前提。
( 2) 人手由多个部分组成,其中手指往往包含丰富的信息,而手掌和手腕包含的信息则大多为冗余信息,故如何将有用的信息与冗余的信息分离也是提高手势识别能力的关键。
( 3) 人手是弹性物体,同样的使用者要重复做出完全相同的手势是不可能的,不同的使用者在做同样的手势时也会体现出一些差异,如何降低甚至消除这个因素的影响对整个识别的准确率也有一定影响。