基于3D 体感技术的动态手势识别
手势识别技术

远程医疗:医生通过手势识别技术 进行远程诊断和治疗。
手术辅助:医生通过手势识别技术 进行手术辅助,提高手术精度和效 率。
添加标题
添加标题
添加标题
添加标题
康复训练:患者通过手势识别技术 进行康复训练,提高手部灵活性和 力量。
医疗影像分析:医生通过手势识别 技术对医疗影像进行分析,辅助疾 病诊断和治疗。
04
更高的准确性和灵敏度
更广泛的应用领域
更多的交互方式
更强的隐私保护
医疗保健:用于诊断和监测病情,如手势辅助沟通、手部运动监测等。 娱乐产业:实现更真实的虚拟现实和增强现实体验,如游戏操控、手势识别互动等。 智能家居:控制智能家居设备,如灯光、空调等,提高生活便利性。 教育领域:辅助特殊教育和学习障碍人士的学习,如手势辅助沟通、手势辅助学习等。
汇报人:
汇报人:
01
02
03
04
05
01
手势识别技术 是指通过计算 机视觉技术对 手势进行自动
识别
手势识别技术 可以应用于人 机交互、智能 家居、虚拟现
实等领域
手势识别技术 主要分为基于 图像和基于深 度学习两种方
法
基于图像的手 势识别技术主 要通过对手势 图像进行特征 提取和比对实
现识别
基于深度学习 的方法则通过 训练大量神经 网络模型进行
定期更新软件:定 期更新手势识别技 术的软件和系统, 以获得更好的使用 体验和安全性。
建立自己的手势识别技术标准。
加强与科研机构合作,不断更新和 优化技术。
添加标题
添加标题Biblioteka 添加标题添加标题结合自身业务特点,开发具有特色 的手势识别应用。
基于Leap Motion和支持向量机的手势识别

2)卡}I对坐怀信息的选取方 法 :首先获取 手掌心 和各 个
,
关 点的 :维坐标点数据 ,然后求 出 l5个关节点的三维坐
标数据相对于掌心 :三维坐标数据的坐标值
,●f 耪 ,
图 3 手 指 关节 点对 应 位 置
图 4 两 向量 之 间所 成 角度
2.2.3 炎 点角度 和相对坐标求取
data,establish gesture recognition mode1.After normalization of feature data,support vector machine(SVM )
classif ier is used for training,modeling and classification,and gesture recognition is realized.The experim ental results show that the method which uses angle data and coordinate data as gesture feature is feasible,the average recognition rate is respectively 96.6% and 91.8% .It can be concluded that using angle data as feature value has higher accuracy and robustness,and it can avoid the limitation of a simple eigenvalue,it has strong convincing.
随着传感技术 的发 展 以及 应用 的普及 ,深度 摄像 头引 起 了越 来 越 多人 的 注意 ,同时 各类 3D应用 也 层 出不 穷 。 尽管微软 Kinect价廉且普 及广 ,但其对人 体手部信 息 的识 别和处理复杂 ,必须经过繁杂 的图像处理等识别过程 ,难 以 实现快速 的估计 手 部姿 态 J。而其 他更 高性 能 的深 度摄 像头价格 昂贵 ,难 以普 及 。不 同于 Kinect对视 野范 围 内追 踪到物体 的整体框架描 述 ,Leap Motion仅针对 手部 信息 的 追踪 描述 ,通过对 手部信息包括骨骼点 、关节点等的精细化 描述 ,并 利 用 其 实 现对 手 势 的 特 征 提 取 和 准 确 识 别 。
基于Leap Motion手语语音转换的设计与实现

基于Leap Motion手语语音转换的设计与实现作者:姜檬郭仁春李俊龙王志淳来源:《无线互联科技》2020年第07期摘; ;要:文章介绍了基于Leap Motion手语语音转换的原理以及在实际中如何实现应用,其能够将手语手势翻译成所需语言,并且以语音的形式传递消息,实现为聋哑人“发声”的目的。
Leap Motion手语语音转换的硬件部分采用Leap Motion体感控制器,能够实时采集人手指的坐标、加速度、方向等动态手势的运动信息。
软件采用Unity 3D三维引擎,提供了开发手势识别的SDK,并给出了一些基本手的模型,在Unity 3D中完成由手势到文字,再到语音的转换。
关键词:动态手势识别;厉动;Unity 3D1; ; 手势识别手势识别是手语语音转换的首要步骤,包括手势的采集与手势识别。
手势的釆集广泛使用的方法有数据手套[1]、专业的视频釆集摄像机等[2]。
而手势识别的研究方向有两个:一个是静态手势识别,另一个是动态手势识别。
静态手势识别始于20世纪初,主要利用获取到的单个时间点的手势图像中手的形状、手指的姿态等信息进行手势表达含义的识别[3]。
相比于静态手势识别,动态手势识别要稍晚一些,需要对连续一段时间的手势图像信息进行图像处理,通过获取处理后的连续时间内手、手指的位置、速度等数据信息来识别手势表达的意义[4]。
本文提出的基于Leap Motion的手语语音转换是基于视觉(图像)的手势识别系统[5],采用的手势识别系统是Leap Motion体感控制器,是支持C#语言的三维引擎,且提供了手势开发的软件开发工具包(Software Development Kit,SDK),为手势定义成文字提供了便利条件。
本文是使用C#语言对手语语音转换进行开发的。
2; ; Leap Motion手语语音转换的原理2.1; Leap Motion功能介绍本文采用的Leap Motion是Leap公司最新研发的体感控制器,是一款微米级3D手动交互设备,十分小巧且应用广泛。
基于单片机的手势检测识别系统设计与实现

一、概述近年来,随着科技的不断进步和人们对智能化设备的需求日益增长,手势检测识别技术越来越受到人们的关注。
通过手势检测识别技术,人们可以方便地与电子设备进行交互,实现更加智能、便捷的操作体验。
设计并实现一套基于单片机的手势检测识别系统具有重要的意义。
二、系统设计1. 系统需求分析根据市场调研和用户需求,本手势检测识别系统应具备以下功能:① 能够准确快速地识别用户手势;② 具备一定的环境适应能力,能够在不同光线和背景条件下进行有效的识别;③ 具备一定的用户交互性,能够实现与其他设备的连接;④ 能够在一定程度上对用户手势进行记录和分析,以优化用户体验。
2. 系统总体架构设计本系统采用基于单片机的方案,以STM32系列单片机为主控芯片,搭建一套完整的手势检测识别系统。
系统总体架构主要包括图像采集模块、图像处理模块、手势识别模块和用户交互模块等部分。
3. 系统具体设计方案① 图像采集模块:本系统采用摄像头作为图像采集设备,通过摄像头捕获用户手势图像,然后传输给单片机进行处理。
② 图像处理模块:采用图像处理算法对采集到的图像进行预处理,包括去噪、边缘检测、二值化等步骤,以提高后续的手势识别效果。
③ 手势识别模块:基于预处理后的图像,采用机器学习或深度学习算法进行手势识别,将用户的手势信息转化为电信号,并传输给单片机。
④ 用户交互模块:通过单片机实现与其他设备的连接,将用户手势转化为相应的操作指令,实现用户与设备的交互。
⑤ 数据存储和分析模块:对用户手势进行记录和分析,提取用户习惯和行为特征,以优化用户体验。
三、系统实现1. 硬件设计系统硬件设计主要包括单片机模块、摄像头模块、LED显示模块等,其中单片机模块作为系统的主控制部分,负责整个系统的数据处理和控制。
2. 软件设计系统软件设计包括图像处理算法的实现、手势识别算法的导入、用户交互界面的设计等。
3. 系统集成与调试将硬件及软件部分进行集成,并进行整体功能测试和性能调试,确定系统的稳定性和准确性。
手势识别与姿态估计算法研究

手势识别与姿态估计算法研究摘要:手势识别与姿态估计是计算机视觉领域中的热门研究方向之一。
随着智能设备的普及和人机交互技术的发展,手势识别和姿态估计的应用越来越广泛。
本文将介绍手势识别与姿态估计算法的研究进展,包括传统方法和深度学习方法,并讨论其在图像识别、虚拟现实、智能交通等领域的应用。
1. 引言手势识别与姿态估计是研究人类动作行为和空间定位的重要领域之一。
通过利用计算机视觉技术,可以将人的手势或身体姿态转化为计算机能够理解和处理的信息,实现与计算机的自然交互。
手势识别与姿态估计在图像识别、虚拟现实、智能交通等领域具有广泛的应用前景。
2. 传统方法传统的手势识别与姿态估计方法主要基于计算机视觉中的特征提取和分类算法。
传统方法主要包括以下几种技术:形状分析、运动分析、模型匹配和机器学习。
形状分析是指通过对手势或姿态形状的描述和分析来进行识别和估计。
运动分析是指通过分析手势或姿态的运动模式和轨迹来进行识别和估计。
模型匹配是指通过将手势或姿态与已有的模型进行匹配来进行识别和估计。
机器学习是指通过构建分类器来自动学习和识别手势或姿态。
3. 深度学习方法深度学习是近年来兴起的一种机器学习方法,具有较强的数据驱动能力和自动特征学习能力。
深度学习在手势识别与姿态估计领域取得了显著的进展。
深度学习方法主要包括基于卷积神经网络(CNN)的方法和基于循环神经网络(RNN)的方法。
CNN方法可以通过学习空间特征和纹理特征来实现手势识别和姿态估计。
RNN方法可以通过学习时间序列特征和运动模式来实现手势识别和姿态估计。
4. 应用领域手势识别与姿态估计在多个领域都有广泛的应用。
在图像识别领域,手势识别和姿态估计可以应用于人脸识别、物体识别等任务,提高识别的准确性和稳定性。
在虚拟现实领域,手势识别和姿态估计可以用于手部交互、虚拟角色动作捕捉等场景,增强用户与虚拟环境的互动体验。
在智能交通领域,手势识别和姿态估计可以用于驾驶员行为识别、手势交通信号灯控制等应用,提高交通安全性和驾驶体验。
基于3D 体感技术的动态手势识别

第27卷第4期2012年8月光电技术应用ELECTRO-OPTIC TECHNOLOGY APPLICATIONVol.27,No.4August ,2012随着机器智能领域的迅猛发展,手作为人身体上最灵活的一个部位及人机交互的一个媒介,得到越来越多的应用。
因此基于手势识别的各种应用也是层出不穷。
手势是一种自然而直观的人际交流模式。
手势识别也理所当然地成为了实现新一代人机交互不可缺少的一项关键技术。
然而,由于手势本身具有的多样性(包括肤色、形态的差异性)、多义性(不同手势具有不同的意义)、以及时间和空间上的差异性(会受到光照等因素的影响)等特点,加之人手是复杂变形体及视觉本身的不适定性,因此基于视觉的手势识别是一个极富挑战性并具有很大应用空间的研究方向[1]。
1手势识别技术的发展手势识别分为两种,一种是静态的手势识别,即在摄像头下检测到某个手势时就给出命令。
另一种是动态手势识别,即能够识别手做的一些动作。
随着3D 体感技术的出现,手势识别进入一个全新的领域。
1.1静态手势识别静态手势识别的常用方法主要有:基于模版匹配的,用边缘特征像素点作为识别特征,并利用Hausdorff 距离模板匹配完成静态手势识别[2];基于SVM 支持向量机,通过皮肤颜色模型进行手势分割,并用傅里叶描述子描述轮廓,采用针对小样本特别有效且范化误差有界的最小二乘支持向量机(LS -SVM )作为分类器进行手势识别[3]以及集合模版匹配和机器学习理论的手势识别方法[4]等。
但由于静态手势识别技术应用的局限性较大,不够灵活,使用人数在减少。
收稿日期:2012-06-24作者简介:淦创(1990-),男,辽宁锦州人,大学本科,研究方向为计算机图像处理.·信号与信息处理·基于3D 体感技术的动态手势识别淦创(北京航空航天大学,北京100191)摘要:提出了一种基于3D 体感机Kinect 的图像处理手势识别算法,通过深度图像和骨骼图像的方法实现动态手势识别。
三种简单手势识别

三、手势辨认
3.1、设计思绪
常用旳静态手势特征有轮廓、位置、面积、分 布等。
本文主要利用对手势面积大小旳辨认来到达手 势辨认旳目旳,这里直接比较手型面积有交大困难。 在手势旳定位与分割时,产生了手势区域旳方框, 我们利用这个面积来替代手势旳面积,具有很好旳 效果。当用摄像头采集到手势时,先将采集到旳手 势与采集到旳手势库进行比较,比较得出与摄像头 所得手势较吻合旳旳手势,在屏幕上显示有关手势 旳名称。
简朴手势辨认
一、背景
伴随计算机旳发展,人机交互技术由老式旳鼠标键盘 时代发展到了以语音输入、动作辨认等技术为代表旳自然交 互时代n1。尤其是视觉计算技术旳发展,使计算机取得了初 步视觉感知旳能力,能“看懂”顾客旳动作。手势辨认作为 一种直观自然旳输入方式,把人们从老式接触性旳输入装置 中解放出来,能够以一种更自然旳方式与计算机交互,使计 算机界面变得愈加易‘引。
2.3、手势建模
在手势辨认框架中,手势模型是一种最 基本旳部分。根据不同旳应用背景,手势辨 认采用旳模型会有不同,而对于不同旳手势 模型,采用旳手势检测与跟踪算法、特征提 取、辨认技术也会有差别。手势建模主要分 为基于表观旳手势模型与基于三维旳手势模 型。
2.4、手势特征提取
手势特征旳提取是与手势模型亲密有关旳,不 同旳手势模型会有不同有手势特征。例如基于模型 旳手势模型有手旳每个关节旳状态特征,基于表观 模型旳手势特征是轮廓特征、位置特征等。静态手 势辨认和动态于势辨认旳特征也不同,静态手势旳 特征只是描述旳手旳静态信息,例如轮廓、面积等。 动态手势特征是连续旳静态特征序列。
AR中的手势识别与交互设计

AR(增强现实)是一种将虚拟世界与现实世界相结合的技术,通过手势识别与交互设计,可以实现更加自然、直观的用户交互。
在AR中,手势识别与交互设计是至关重要的环节,它能够为用户提供更加丰富、有趣的体验。
一、手势识别手势识别是AR中的一项关键技术,它能够识别用户的手势并与之互动。
在AR中,手势识别主要包括以下几种类型:1. 手势跟踪:通过摄像头或传感器对用户的手部动作进行跟踪,识别出手掌、手指等部位的形状和动作。
2. 手势识别:利用计算机视觉技术,识别出用户手势的含义,例如挥手、握拳、滑动等。
3. 手势控制:通过手势实现对虚拟物体的操控,例如拖动、旋转、缩放等。
手势识别在AR中的应用非常广泛,例如在游戏、教育、医疗等领域。
通过手势识别,用户可以更加自然地与虚拟物体进行交互,从而获得更加沉浸式的体验。
二、交互设计在AR中,交互设计是指如何将虚拟物体与现实世界相结合,为用户提供更加自然、直观的交互方式。
以下是交互设计的一些关键要素:1. 虚拟物体与现实世界的融合:将虚拟物体放置在现实环境中,使其看起来自然、真实。
2. 交互方式的设计:根据不同的应用场景和用户需求,设计不同的交互方式,例如触摸、滑动、拖动等。
3. 交互反馈:为用户提供及时的反馈,例如虚拟物体位置的改变、交互效果的呈现等。
通过合理的交互设计,用户可以更加轻松地与虚拟物体进行互动,从而获得更加流畅、自然的体验。
三、应用场景手势识别与交互设计在许多领域都有应用,以下是一些常见的应用场景:1. 游戏娱乐:在游戏中利用手势识别与交互设计,可以为用户提供更加丰富的游戏体验。
例如,玩家可以通过手势操控虚拟角色、触发特殊技能等。
2. 教育学习:在教育领域中,利用AR技术可以实现更加直观、生动的学习体验。
通过手势识别与交互设计,学生可以更加轻松地理解抽象的概念和知识。
3. 工业应用:在工业领域中,AR可以用于指导工人进行操作、培训新员工等。
通过手势识别与交互设计,可以简化操作流程、提高工作效率。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第27卷第4期2012年8月光电技术应用ELECTRO-OPTIC TECHNOLOGY APPLICATIONVol.27,No.4August ,2012随着机器智能领域的迅猛发展,手作为人身体上最灵活的一个部位及人机交互的一个媒介,得到越来越多的应用。
因此基于手势识别的各种应用也是层出不穷。
手势是一种自然而直观的人际交流模式。
手势识别也理所当然地成为了实现新一代人机交互不可缺少的一项关键技术。
然而,由于手势本身具有的多样性(包括肤色、形态的差异性)、多义性(不同手势具有不同的意义)、以及时间和空间上的差异性(会受到光照等因素的影响)等特点,加之人手是复杂变形体及视觉本身的不适定性,因此基于视觉的手势识别是一个极富挑战性并具有很大应用空间的研究方向[1]。
1手势识别技术的发展手势识别分为两种,一种是静态的手势识别,即在摄像头下检测到某个手势时就给出命令。
另一种是动态手势识别,即能够识别手做的一些动作。
随着3D 体感技术的出现,手势识别进入一个全新的领域。
1.1静态手势识别静态手势识别的常用方法主要有:基于模版匹配的,用边缘特征像素点作为识别特征,并利用Hausdorff 距离模板匹配完成静态手势识别[2];基于SVM 支持向量机,通过皮肤颜色模型进行手势分割,并用傅里叶描述子描述轮廓,采用针对小样本特别有效且范化误差有界的最小二乘支持向量机(LS -SVM )作为分类器进行手势识别[3]以及集合模版匹配和机器学习理论的手势识别方法[4]等。
但由于静态手势识别技术应用的局限性较大,不够灵活,使用人数在减少。
收稿日期:2012-06-24作者简介:淦创(1990-),男,辽宁锦州人,大学本科,研究方向为计算机图像处理.·信号与信息处理·基于3D 体感技术的动态手势识别淦创(北京航空航天大学,北京100191)摘要:提出了一种基于3D 体感机Kinect 的图像处理手势识别算法,通过深度图像和骨骼图像的方法实现动态手势识别。
首先在Kinect 提供的骨骼图像中20个骨点中,选取2个离手部最近的骨骼点,通过追踪这两个骨骼点的位置来实现对手部的追踪,再通过判断手部的深度(即其相对于摄像头的距离)的变化来实现动态手势识别。
关键词:深度图像;骨骼图像;手部追踪;动态手势识别中图分类号:TN94文献标识码:A文章编号:1673-1255(2012)04-0055-04Dynamic Gesture Recognition Based on 3D KinectGAN Chuang(Beijing University of aeronautics and astronautics,Beijing 100191,China )Abstract :A kind of gesture recognition algorithm of image processing based on 3D Kinect is proposed.Thedynamic gesture recognition algorithm is performed by skeleton images and depth images.At first,two skeleton points which are nearest to hands are choosen from 20skeleton points in a skeleton image.The process of tracking hands is performed by tracking the positions of the two skeleton points.Then the dynamic gesture recognition pro⁃cess is realized by the change of depths of hands (the distance between a hand and a camera).Key words :depth image;skeleton image;hands tracking;dynamic gesture recognition光电技术应用第27卷1.2动态手势识别技术在静态技术基础上发展起来的是动态手势识别,即在视频流下能够对手部做出一些动作进行识别,这种识别的难度要比静态手势识别难度大很多,但却更具有实用性。
动态手势识别的方法主要有:采用Camshift算法对手势进行分割,从而达到手势识别的功能[5];通过双目视觉系统来建立数学模型,并结合图像分割技术进行手势判断[6];基于机器学习进行手势识别,首先采用AdaBoost算法遍历图像,完成静态手势的识别工作,在动态手势的识别过程中,运用了光流法结合模板匹配的方法[7]等。
虽然手势识别方法取得了一些很好的效果,但这些现存方法都无法克服当光照条件变化较大或人体肤色差异性较大时会出现系统失灵的情况,这时往往需要重新调整各种参数来使得系统正常工作,从而大大降低了系统的稳定性。
其不稳定原因主要在于根据人手的颜色进行图像分割的处理过程会受到光照、遮挡等各种因素的影响,进而对后续的手势识别产生干扰。
因此提升手在摄像头下的识别精度成为了一个研究的重点。
1.3基于Kinect体感技术的动态手势识别技术Kinect是美国微软公司于2010年推出的XBOX360游戏机体感周边外设的正式名称,起初名为Natal,意味初生。
它实际上是一种3D体感摄影机,利用即时动态捕捉、影像辨识、麦克风输入、语音辨识、社群互动等功能让玩家摆脱传统游戏手柄的束缚,通过自己的肢体控制游戏,从而实现与互联网玩家互动,分享图片和影音信息等交互功能[8]。
微软推出Kinect后,深度图像和骨骼图像技术使得手势识别进入一个全新的领域。
由于Kinect在硬件上采用了CMOS红外感应设备,可以提供关于人的骨骼图和整个镜头下的深度图像,因此在对这两种类型的图像深入研究的基础上,提出了一种可以进行动态手势识别的方法,并在识别准确度上有了较大的改进。
1.3.1深度图像的产生机理Kinect采用了基于光编码(light coding)[9]理论的技术,可以直接获取物体与摄像头之间的距离。
其基本思想是通过连续光(近红外线)对测量空间进行编码,再经过感应器得到编码的光线,在将数据传递给晶片进行运算解码后,产生一张具有深度的图像。
其核心之一就是结构光技术,它与传统的技术有很大的差异性。
它的光源打出去的并不是一幅周期性变化的二维的图像编码,而是一个具有三维纵深的“体编码”。
这种光源叫做激光散斑(laser speck⁃le),是当激光照射到粗糙物体或穿透毛玻璃后形成的随机衍射斑点。
这些散斑具有高度的随机性,而且会随着距离的不同变换图案,空间中任何两处的散斑都会是不同的图案,等于是将整个空间加上了标记,所以任何物体进入该空间以及移动时,都可确切记录物体的位置。
Kinect另一核心技术在于光源标定[10],测量前对原始空间的散斑图案做记录,先做一次光源的标定,其采用的方法是每隔一段距离,取一个参考平面,然后把参考平面上的散斑图案记录下来;假设Kinect规定的用户活动范围是距离摄像头1~4m,每隔10cm 取一个参考平面,标定后保存了30幅散斑图像;测量时拍摄一幅待测场景的散斑图案,将这幅图像和保存的30幅参考图像依次做互相关运算,得到30幅相关度图像;空间中有物体存在的位置,在相关度图像上就会显示出峰值。
把这些峰值一层层叠在一起,经过插值运算,即可得到整个场景的三维形状[11]。
1.3.2骨骼点追踪技术Kinect骨架追踪处理流程的核心是一个不受周围环境的光照影响的CMOS红外传感器。
该传感器通过黑白光谱的方式来感知环境:纯黑代表无穷远,纯白代表无穷近。
黑白间的灰色地带对应物体到传感器的物理距离。
它收集视野范围内的每一点,并形成一幅代表周围环境的景深图像。
传感器以每秒30帧的速度生成景深图像流,实时3D地再现周围环境[12]。
骨骼点追踪采用了机器学习技术,通过建立了庞大的图像资料库,形成智慧辨识能力,尽可能理解使用者的肢体动作所代表的涵义。
Kinect对深度图像进行像素级评估,来辨别人体的不同部位,其基本思想是先采用分割策略将人体从背景环境中区分出来,得到追踪对象背景物体剔除后的深度图,然后把深度图像传进一个可辨别人体部位的机器学习系统中,该系统将给出某个特定像素属于身体某个部位的可能,然后将这些数据输入到集群系统中,从而训练Kinect像素级辨认身体部位的能力。
Kinect会评估Exemplar输出的每一个可能的像素来确定关节56第4期淦创:基于3D 体感技术的动态手势识别点,然后根据追踪到的20个关节点来生成一幅人体骨骼图[13]。
两幅经辨识的人体动态骨骼如图1所示。
2基于深度图和骨骼图的动态手势识别技术动态手势识别技术主要分为两个步骤,第一个步骤是对手的部位进行追踪,即在视频流中每一帧中准确找到手的位置。
第二个步骤是识别不同的手部动态动作。
2.1基于Kinect 骨点图手部追踪要想进行手势识别,第一步要先在图像中找到手的位置,并在视频流中追踪手的位置。
传统的手势识别方法大多数都是利用肤色分割并结合一些连通域的形状在图像中寻找手的位置,这种方法需要设定阈值。
当光照变化很大或人的肤色差异性很大时都会出现问题,进而阻碍了手势识别技术的实际应用。
而Kinect 的出现解决了上述问题产生的识别干扰,通过Kinect 的骨骼图像可知,手势追踪主要就是追踪Kinect 人体控制点位置图2中的A 点和B 点。
由于Kinect 的平台本身可以提供骨骼点的地理坐标,因此可根据坐标来完成对手部的追踪。
在应用方面,Kinect 硬件可提供手在空间中的位置变化信息,可通过对该信息的比例变换,完成手势对目标物体的控制功能。
以鼠标控制为例,来验证此算法的实用性。
可实现的功能有:(1)当镜头下的手上下左右移动时,鼠标也会跟随着手进行相应幅度的上下左右晃动,即完成手对鼠标的控制;(2)当手的前后变化距离达到一定程度时,可以完成对鼠标左键的按下与抬起的操作。
实现的方法是:Kinect 本身具有可以提供骨点图的功能,通过控制(图2)所示A 点在空间上下左右变化的值从而设定相应的鼠标上下左右变化的值,进而完成对鼠标的控制。
对20个身高、体重、年龄不同的人进行了10种比例的实验。
手部与鼠标做上下移动的实验结果如表1所示,手部与鼠标做左右移动的实验结果如表2所示。
从表1、表2可知,当人手掌的上下和左右移动距离与对应鼠标的移动距离之比分别为8:1和6:1时,体感交互满意度较高。
2.2基于Kinect 深度图像的动态手势识别算法由Kinect 的深度图像技术可知某点距离摄像头的距离,因此利用Kinect 就可以完成对手势伸展的动作识别,并据此进行控制。