基于Kinect的动作捕捉系统设计与实现-第1-2章

合集下载

基于Kinect的动作捕捉系统设计与实现-第3章

基于Kinect的动作捕捉系统设计与实现-第3章

第3章系统相关技术和算法的分析与研究在第二章基于Kinect的动作捕捉系统的方案设计中,主要考虑解决以下三个问题:如何修复丢失的关节数据;如何解决运动数据中肢体末端的抖动问题;如何驱动模型,并保证模型动作与真人动作一致。

为了优化运动数据,解决运动数据中关节丢失和肢体末端抖动的问题,本章首先分析Kinect动作数据的产生原理以及骨骼数据的内部结构原理,并在此基础上针对运动数据中关节丢失问题和肢体末端抖动问题提出优化方案,具体来说,在关节丢失的问题上,先分析了人体单关节修复算法,并在此基础上提出改进,以解决多关节连续丢失的问题;在肢体末端抖动问题上,采取了预测数据与实际数据加权求和的方式进行平滑滤波处理。

为解决模型驱动问题,本章在分析了人物模型结构的基础上,使用优化后的运动数据结合正向运动学的重定向算法来实现模型的驱动。

3.1 Kinect骨骼跟踪技术研究Kinect内置的骨骼跟踪算法通过实时跟踪人体的姿势[28]获取当前的骨骼位置数据,运动数据由若干帧骨骼位置数据组成。

本节将阐述Kinect骨骼跟踪技术原理及其骨骼数据结构。

3.1.1 Kinect骨骼跟踪技术原理Kinect通过深度传感器获取到深度图像信息,并通过边缘检测、噪声阈值处理等技术将人体目标(“T”字形的物体,会被Kinect识别为人体)从环境背景中分离出来,得到一个人体的深度图像[29]。

再通过BPC算法(Body Part Classification,身体部位分割算法)进行关节定位,骨骼跟踪效果如图3.1所示。

图3.1 Kinect V2深度图像-骨骼追踪图BPC算法的原理如图3.2所示,通过深度随机决策森林分类法从人体深度图像信息中分割人体部位,并标记各部位中心的像素点。

这些标记点十分接近骨骼关节的实际位置,由此来定位骨骼的关节点[30]。

将这些关节点映射到坐标系中,连成人体骨架图。

图3.2 身体分割法定位关节点原理图3.1.2 Kinect骨骼数据结构Kinect SDK2.0的骨骼结构有25个关节点,如图3.3所示。

《2024年基于Kinect的虚拟试衣系统设计》范文

《2024年基于Kinect的虚拟试衣系统设计》范文

《基于Kinect的虚拟试衣系统设计》篇一一、引言随着科技的发展,虚拟现实技术在各个领域得到了广泛的应用。

其中,虚拟试衣系统作为一种新兴的技术,为消费者提供了更加便捷、真实的购物体验。

本文将介绍一种基于Kinect的虚拟试衣系统设计,通过该系统,用户可以在虚拟环境中试穿各种服装,实现真实的试衣效果。

二、系统设计背景与目标随着互联网的普及,线上购物已成为人们购物的重要方式之一。

然而,线上购物存在着试穿难、尺码不合适等问题,导致消费者在购买衣物时往往需要多次尝试才能找到合适的尺码和款式。

为了解决这一问题,基于Kinect的虚拟试衣系统应运而生。

该系统旨在为消费者提供一个真实、便捷的线上试衣体验,提高购物满意度。

三、系统设计原理本系统基于Kinect传感器技术,通过捕捉用户的身体动作和姿态,实现虚拟试衣功能。

具体原理如下:1. 数据采集:Kinect传感器能够捕捉用户的身体动作和姿态数据,包括骨骼关节数据、身体轮廓数据等。

2. 模型匹配:系统根据用户的数据,匹配相应的虚拟服装模型,实现试穿效果。

3. 实时渲染:系统采用三维渲染技术,将虚拟服装模型与用户的数据进行融合,实现真实、立体的试衣效果。

四、系统设计架构本系统采用模块化设计,主要包括以下模块:1. 数据采集模块:负责捕捉用户的身体动作和姿态数据,包括Kinect传感器、摄像头等设备。

2. 模型库模块:存储各种虚拟服装模型,包括上衣、裤子、鞋子等。

3. 试衣模块:根据用户的数据和模型库中的服装模型,实现虚拟试穿功能。

4. 交互界面模块:提供用户与系统交互的界面,包括试衣、浏览、购买等功能。

5. 数据库模块:存储用户数据、购买记录等信息,为后续的推荐、分析等功能提供支持。

五、系统功能实现1. 用户注册与登录:用户可以通过注册账号或使用第三方账号登录系统。

2. 试衣功能:用户可以在系统中选择喜欢的服装进行试穿,系统会自动匹配相应的虚拟服装模型,实现真实、立体的试衣效果。

《2024年基于Kinect的手势识别与机器人控制技术研究》范文

《2024年基于Kinect的手势识别与机器人控制技术研究》范文

《基于Kinect的手势识别与机器人控制技术研究》篇一一、引言随着人工智能技术的不断发展,人机交互技术已成为研究热点之一。

其中,基于Kinect的手势识别技术因其高精度、高效率、低成本的优点,得到了广泛的应用。

而将手势识别技术应用于机器人控制,则能够进一步拓展人机交互的范畴,提高机器人的智能化水平。

本文将对手势识别技术和机器人控制技术进行深入的研究和探讨,基于Kinect传感器进行实验和分析。

二、Kinect传感器及其应用Kinect是微软公司开发的一款体感设备,具有捕捉人体动作、语音和手势等功能。

在计算机视觉、人机交互、机器人控制等领域有着广泛的应用。

基于Kinect的手势识别技术,可以通过捕捉人体手部动作的信息,实现对手势的准确识别和解析。

同时,Kinect还可以实时监测人体骨骼的位置和运动状态,从而更精确地完成动作捕捉。

三、手势识别技术研究基于Kinect的手势识别技术,主要通过以下步骤实现:首先,利用Kinect传感器捕捉人体的骨骼信息;其次,通过算法对手部骨骼信息进行提取和预处理;然后,利用机器学习算法对手势进行分类和识别;最后,将识别的手势信息转化为计算机可以理解的指令或命令。

在手势识别技术中,机器学习算法的应用至关重要。

常见的机器学习算法包括支持向量机(SVM)、随机森林(Random Forest)、神经网络等。

这些算法可以通过训练大量的手势样本,提高手势识别的准确性和鲁棒性。

此外,深度学习算法在手势识别中也得到了广泛的应用,如卷积神经网络(CNN)等。

四、机器人控制技术研究机器人控制技术是实现人机交互的关键技术之一。

基于Kinect的手势识别技术可以实现对机器人的控制。

在机器人控制中,需要将识别的手势信息转化为机器人的运动指令或动作。

这需要借助于计算机视觉技术和运动规划技术。

计算机视觉技术可以实现对机器人周围环境的感知和识别,从而为机器人的运动规划提供依据。

运动规划技术则可以根据机器人的任务需求和周围环境信息,规划出最优的运动轨迹和动作。

基于Kinect体感控制的机器人全动作跟随系统设计

基于Kinect体感控制的机器人全动作跟随系统设计

• 131•我国机器人产业正处于蓬勃发展的状态,中国已成为机器人应用的最大市场。

以机械臂为代表的工业机器人已大量应用于生产一线。

随着机器人应用不断深入,具有良好交互性的仿人机器人需求前景广阔。

本项目采用Kinect体感器作为图像采集单元,利用体感技术实现人外形轮廓建模及肢体空间坐标定位,实现人体的全动作采集建模。

采用17自由度仿人机器人Roboy为执行平台,接受控制指令实现人体动作跟随。

本方案可以使机器人能够精准的进行人体动作的同步跟随,克服了遥控器、按钮、操作手柄等繁杂的控制系统,实现更好的人机交互性能。

1 引言本项目主要研究利用体感技术实现人的肢体动作精准控制一个17自由度的机器人,以ROBY人形机器人为载体,用Kinect体感器捕捉人的肢体动作,运行上位机,将人的动作解析,通过无线串口发送给机器人,单片机接收到信号并直接控制机器人,使机器人对人体工作进行精准的同步跟随。

通过体感控制机器人,解决了传统机器人机械性的按程序执行动作和克服了遥控器、按钮、操作手柄等繁杂的控制系统,可以大大的提高机器人动作的精准度和执行任务时的灵活度。

2 Kinect数据采集及机器人控制简述2.1 Kinect体感器工作原理Kinect其实是一种3D体感传感器,它兼有动态捕捉,影像识别,人脸识别,语音识别,人机互动等功能。

用户可以做出体感动作通过Kinect对游戏中的角色进行实时的控制,实现较高层次的人机互动,同时还可以通过互联网分享信息和图片给其他玩家等。

其中,摄像头起到了很大的作用,它负责捕捉人肢体的动作,并转换成相应的标数据,然后把这些数据发送到电脑。

工程师就可以通过这些数据去设计程序,识别、分析这些动作,从而达到想要的目的。

Kinect摄像头一秒可以捕捉30次人体的动作。

PS1080芯片是Kinect的核心部件,它由PrimeSense公司所提供,通过它就可以实现对红外光源投射激光散斑进行控制和通过对图像编码并采集编码后的红外光谱计算得到场景深度信息,同时也可以对深度数据进行解析得到用户关节点信息。

《2024年基于Kinect的手势识别与机器人控制技术研究》范文

《2024年基于Kinect的手势识别与机器人控制技术研究》范文

《基于Kinect的手势识别与机器人控制技术研究》篇一一、引言随着人工智能技术的不断发展,人机交互技术已成为研究热点之一。

其中,基于Kinect的手势识别技术因其高精度、实时性和非接触性等优点,在人机交互领域具有广泛的应用前景。

同时,机器人控制技术也是当前研究的重点。

本文旨在研究基于Kinect 的手势识别技术以及其与机器人控制技术的结合应用,以实现更高效、自然的人机交互。

二、Kinect手势识别技术1. Kinect简介Kinect是微软开发的一种体感摄像机,能够通过捕捉人体骨骼动作信息实现人机交互。

其核心在于对人体骨骼的精准跟踪与识别,进而推断出人的行为动作。

2. 手势识别原理基于Kinect的手势识别主要通过捕捉人体骨骼信息,分析关节角度、速度等特征,从而判断出手部动作。

此外,还可结合深度学习等技术提高识别准确率。

3. 常见手势识别方法常见的手势识别方法包括基于模板匹配的方法、基于机器学习的方法等。

其中,基于机器学习的方法通过训练大量样本,使系统能够自动学习并识别新的手势。

三、机器人控制技术1. 机器人控制技术概述机器人控制技术是实现机器人自动化、智能化的关键技术。

主要包括运动控制、轨迹规划、环境感知等技术。

2. 基于Kinect的机器人控制将Kinect与机器人控制系统相结合,通过手势识别技术实现对机器人的远程控制。

例如,通过识别手势命令,使机器人执行相应的动作。

四、基于Kinect的手势识别与机器人控制技术结合应用1. 应用场景基于Kinect的手势识别与机器人控制技术可广泛应用于智能家居、医疗康复、教育娱乐等领域。

例如,在智能家居中,用户可通过手势控制灯光、窗帘等设备;在医疗康复领域,手势识别技术可帮助患者进行康复训练;在教育娱乐领域,机器人可通过手势控制进行互动教学或游戏娱乐。

2. 技术实现技术实现过程中,首先需要搭建基于Kinect的手势识别系统,包括硬件设备选型、软件算法设计等。

《基于Kinect的虚拟试衣系统设计》范文

《基于Kinect的虚拟试衣系统设计》范文

《基于Kinect的虚拟试衣系统设计》篇一一、引言随着信息技术的快速发展,虚拟现实技术已逐渐渗透到人们生活的各个领域。

其中,虚拟试衣系统作为虚拟现实技术在服装行业的重要应用,具有极大的市场潜力和应用前景。

本文旨在设计一个基于Kinect的虚拟试衣系统,通过捕捉用户的动作和姿态,实现虚拟试衣的便捷性和实时性。

二、系统需求分析1. 用户需求:虚拟试衣系统应满足用户对试衣的便捷性、实时性和真实感的需求。

用户应能够通过简单操作,快速试穿不同款式和尺码的衣物。

2. 技术需求:系统需采用先进的动作捕捉技术,如Kinect,以实时捕捉用户的动作和姿态。

此外,系统还需具备高效的图像处理和渲染技术,以实现试衣的真实感。

三、系统设计1. 硬件设计:系统采用Kinect作为动作捕捉设备,通过其内置的深度传感器和多个摄像头,实时捕捉用户的动作和姿态。

此外,系统还需配备高性能的计算机和显示器,以支持图像处理和渲染。

2. 软件设计:(1) 动作捕捉模块:通过Kinect捕捉用户的动作和姿态,将数据传输至计算机。

(2) 图像处理模块:对捕捉到的动作和姿态进行图像处理,以实现试衣的真实感。

该模块需具备高效的算法,以实现实时处理。

(3) 虚拟试衣模块:根据用户的动作和姿态,自动匹配相应的衣物模型,并实时渲染到虚拟环境中。

用户可通过简单操作,如点击、拖拽等,实现试穿不同款式和尺码的衣物。

(4) 交互界面模块:提供友好的交互界面,使用户能够方便地操作虚拟试衣系统。

界面需具备直观、易用的特点,以满足不同用户的需求。

四、关键技术实现1. 动作捕捉技术:采用Kinect的深度传感器和多个摄像头,实时捕捉用户的动作和姿态。

通过算法处理,将捕捉到的数据转换为三维模型,以供后续处理。

2. 图像处理和渲染技术:采用高效的图像处理和渲染算法,实现试衣的真实感。

通过优化算法,提高系统的实时性,使用户能够快速试穿不同款式和尺码的衣物。

3. 虚拟试衣算法:根据用户的动作和姿态,自动匹配相应的衣物模型。

基于Kinect的动作捕捉系统设计与实现-第4章

基于Kinect的动作捕捉系统设计与实现-第4章

第4章系统的详细设计与实现第二章在需求分析的基础上,设计了基于Kinect动作捕捉系统的总体方案,第三章分析了方案中所使用的关键技术和算法的原理。

基于前文的方案、技术和算法的分析,本章将从系统总体流程着手,逐步详细阐述系统中各个模块的设计与实现。

4.1 总体流程系统的总体流程分析是系统实现的蓝本,本节将对系统实现的具体流程进行分析,并将流程按功能进行分类,完成系统模块的划分,并在此基础上进行系统类结构的设计。

4.1.1 总体流程图基于系统的功能需求分析、系统的总体方案设计以及相关技术和算法的研究,本课题设计的系统总体流程如图4.1所示。

+ Kinect、Unity3D 平台搭建动作重定向图4.1 基于Kinect动作捕捉系统的总体流程图系统的流程主要可分为人体识别、骨骼追踪、数据优化处理、动作重定向、动作数据存储以及可视化等部分,其中人体识别和骨骼追踪由Kinect来完成[41],其余流程由本课题来实现。

流程的具体内容如下:1. 人体识别。

主程序通过调用驱动程序来驱动Kinect以获取图像数据,包括彩色图像数据、红外图像数据以及深度数据。

然后根据获取的深度图像数据进行人体识别,理论上,只要摆出一个“T”字形姿势,Kinect会将其识别为人体。

通过边缘检测、噪声阀值处理、分割遮罩等技术将识别到的人体从背景中分割出来。

2. 骨骼追踪。

使用BPC算法将得到的人体深度图像数据进行部位分割、关节点定位,得到人体的骨骼每个关节的位置数据和四元数。

3. 数据优化处理。

包括丢失关节修复处理和骨骼动作平滑处理,尽量保证数据的完整性和稳定性,降低重定向后模型运动失真的可能性。

4. 可视化。

将骨骼数据进行坐标转换,并与图像数据流进行合并,在界面上显示出来,以便对骨骼的运动状态进行观察。

图像数据流包括彩色数据流、红外数据流和深度数据流。

5. 动作重定向。

对模型骨架进行一定的预处理操作,并将优化后的动作数据映射到人体骨架的关节点,并实时驱动人物模型运动。

基于kinect的自然人机交互系统的设计与实现

基于kinect的自然人机交互系统的设计与实现

基于kinect的自然人机交互系统的设计与实

简介:
本文介绍了一种基于Kinect的自然人机交互系统的设计和实现。

该系统使用Kinect作为输入设备,通过识别人类的姿势和动作,实现了自然的人机交互。

该系统可以应用于游戏、教育、医疗等领域,可以提高用户的交互体验。

设计:
该系统的设计主要包括三个部分:图像处理、人体姿态识别和人机交互控制。

1. 图像处理
该部分的主要任务是对图像进行预处理,以提高人体姿态识别的准确性。

常用的图像处理技术包括去噪、平滑、增强等。

2. 人体姿态识别
该部分的主要任务是通过Kinect获取人体所处的空间位置和姿态信息,并将其转换为计算机可以识别的数据。

常用的人体姿态识别算法包括SVM、Adaboost、神经网络等。

3. 人机交互控制
该部分的主要任务是将识别到的姿态和动作转换为计算机命令,以实现自然的人机交互。

常用的人机交互控制技术包括手势识别、语音识别、头部追踪等。

实现:
该系统的实现主要包括以下步骤:
1. 使用Kinect获取人体姿态信息,并进行图像预处理。

2. 使用OpenNI、NITE等软件库,对人体姿态进行识别和分析。

3. 将识别得到的姿态转换为命令,并发送给计算机。

4. 根据命令,控制计算机实现相应的功能。

结论:
基于Kinect的自然人机交互系统可以实现自然的人机交互,提
高用户的交互体验,具有广泛的应用前景。

同时,该系统还存在一些
问题,如姿态识别的准确性、响应时间等,需要进一步的研究和改进。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于Kinect的动作捕捉系统设计与实现
动作捕捉技术在电影特效制作、电脑动画制作、游戏制作、运动分析等领域发挥着重要作用。

传统的动作捕捉系统存在价格昂贵、穿戴复杂、实时性差、对环境要求高等问题,很难被广泛应用。

随着技术的创新,微软推出了无标记动作捕捉设备Kinect,该设备依靠低廉的价格和先进的骨骼跟踪算法有效地解决了以上问题,从而得到了广泛的应用。

现有的基于Kinect的动作捕捉系统普遍存在着运动数据抖动、骨骼数据关节缺失、动作数据无法复用等不足。

针对上述问题,本文主要研究以下内容:优化Kinect骨骼动作数据;将优化后的动作数据重定向到三维人物模型,驱动模型模仿真人的动作;录制并保存动作脚本。

在此基础上,设计并实现了基于Kinect的动作捕捉系统。

首先,本文概述了动作捕捉技术与动作重定向技术国内外发展现状,通过分析各种动作捕捉系统的优缺点,分析了系统需求,在此基础上提出了基于Kinect 的动作捕捉系统的总体方案。

根据MVC设计模式,将系统分为数据采集层、数据交互中间件、数据处理层和UI界面层,其中数据处理层是系统的关键部分,包括骨骼数据优化模块、动作重定向模块和动作录制模块。

然后,针对目前基于Kinect的动作捕捉系统存在的问题,本课题对人体单关节修复算法进行了改进,提出了丢失关节修复算法,以解决连续丢失多个关节点的问题;提出骨骼动作平滑处理算法,以解决肢体末端关节抖动问题;使用基于正向运动学重定向算法,以解决模型驱动问题;研究DAE模型结构,为录制动作脚本的实现提供理论依据。

其次,本文详细设计并实现了系统功能,包括用户界面、Kinect数据获取模块、骨骼数据优化模块、动作重定向模块、可视化模块和运动录制模块。

最后,为验证基于Kinect的动作捕捉系统的可行性和正确性,对本文所做工作进行了测试和分析。

测试结果表明,本文所做工作符合预期目标。

第1章绪论
1.1 研究背景
动作捕捉技术诞生前,在传统的三维动画、电影特效及游戏制作过程中,角色模型的动作效果基本都是由人工手动调整来完成[1]。

手工调整模型对动画师的熟练要求高、效率低、实时性差,影响制作周期。

进入二十一世纪,随着计算机图形学技术的发展和动作捕捉技术的诞生,动作捕捉系统普遍应用到多媒体领域。

动作捕捉系统不仅在电影特效和三维动画制作中被广泛应用,它在游戏界的优势也逐渐扩大。

为了使游戏人物模型的动作更加贴近真人的动作,使用动作捕捉系统提取真人的动作数据,并驱动游戏人物模型运动,能让用户感觉到身临其境,增加了游戏的沉浸感。

从技术角度可将动作捕捉系统分为两类,即光学式和非光学式动作捕捉系统。

根据标记点能否主动发光,可将光学式动作捕捉系统分为主动式系统和被动式系统。

非光学式动作捕捉系统又细为分电磁式、机械式以及惯性动作捕捉系统。

上述这些动作捕捉系统都有一个共同点,即动作表演者重要关节处需要布满标记点,这些标记点可以是光源或者传感器,表演示者在光线较好的场地进行动作表演,通过标记点来记录人体的运动数据[2]。

目前光学动作捕捉系统在商业中应用最为广泛,但是其高昂的价格和对服装、场地、光线严格的要求让许多中小型电影公司无法承担。

另外光学动作捕捉系统操作和调试复杂,并且每个光源标记点没有特定标号,在表演者运动过程中,肢体相互遮挡会造成光源点不能被识别,导致标记点错位,最终会导致模型的运动失真。

这种情况需要后期进行修复,导致工作量大幅增加。

最近几年,微软推出了无标记动作捕捉设备Kinect,该设备依靠低廉的价格和先进的骨骼跟踪算法让很多基于Kinect的动作捕捉系统应运而生,表演者不用配带任何传感器即可完成动作捕捉过程。

此外,Kinect对服装、场景以及光线没有严格要求。

Kinect革命性的操作方式颠覆了传统,受到了用户和开发者的追捧。

随着微软发布了开发工具包Kinect SDK For Windows,Kinect吸引了更多的开发者。


然Kinect的空间定位性能仅适用于小成本电影制作、游戏开发、虚拟现实以及运动分析等领域中[3],但Kinect以其低廉的价格和优秀的骨骼跟踪算法让基于Kinect 的动作捕捉系统在开发成本、运行效果以及开发效率上达到平衡。

本课题研究如何使用成本和精度较低的Kinect设备来进行动作捕捉系统的开发。

1.2 国内外相关技术研究现状
动作捕捉系统主要完成两个功能,即捕捉动作数据和使用动作数据驱动模型。

实现这两个功能需要用到动作捕捉技术和动作重定向技术,本节将概述这两个技术的国内外研究现状。

1.2.1 动作捕捉技术
在国外,动作捕捉技术最早可追溯到Fleischer于1915年发明的“Rotoscope”技术。

该技术原理是连续拍摄一段真人的动作照片,将此照片作为动画的底样,动画师按照底样逐帧绘出动画底片[4],《格列佛游记》和《超人》等早期的动画片均通过该方法制作而成。

到了19世界70年代,动画制作开始使用计算机技术来完成,随后衍生出各种动作捕捉技术[5],如光学式、机械式、电磁式动作捕捉技术。

光学捕捉技术在电影特效公司工业光魔为《星球大战》系列电影制作特效的过程中得到了很好的发展和提升,目前好莱坞大片基本都是采用这种技术来做动作特效,效果非常逼真。

图1.1是《猩球崛起》使用光学式动作捕捉系统制作特效的场景。

图1.1 光学动作捕捉系统在《猩球崛起》中的应用
随着MEMS(Micro-Electro-Mechanical System,微电子机械系统)技术的完善,惯性动作捕捉技术在欧美市场逐渐商业化[6],美国的3Dsuit与荷兰的MVN是目前比较成功的商用惯性动作捕捉系统。

3Dsuit通过传感器来定位人体关节位置,并逐帧记录运动数据,记录完成后将数据导出到计算机并绑定到模型相应的骨骼关节上[7]。

MVN使用蓝牙直接将传感器标定的人体关节的实时位置数据返回到计算机,可以做到在无摄像机的情况下实时驱动模型[8]。

最近几年,随着技术的进一步发展,自由式无标记动作捕捉技术出现了。

使用了该技术的代表有美国的LeapMotion和Kinect,LeapMotion用于手势捕捉,其原理是利用了两个高帧率灰度摄像头、三个红外发射器以及手势跟踪算法来获取手势。

Kinect则用于人体骨骼跟踪,其原理是通过深度传感器来获取深度图像信息,再利用骨骼跟踪技术来追踪骨骼运动数据。

在国内,中科院吴健康教授,浙江大学金文光副教授等人在研究人体动作捕捉相关技术。

其中吴健康团队在国内最先推出惯性捕捉系统,并将其商业化[9]。

吴健康团队研发的产品叫MMocap动作捕捉系统,并在三维动画《水浒传》中首次使用,MMocap使用16个传感器来采集人体关节点信息,并通过蓝牙将数据返回到计算机中,利用贝叶斯网络算法和人体三维模型骨骼结构特点计算每个关节点的速度,加速度和位移等参数,并结合生物力学模型来驱动人物模型。

金文光团队所研发的动作捕捉系统和吴教授产品类似,但系统利用了自主研发的姿态算法来驱动模型[10],其传感器设备使用了加速度计和磁强计,成本有所降低,但是精准度和鲁棒性不强。

1.2.2 动作重定向技术
动作重定向是利用运动数据来驱动三维模型的一种技术。

在电影或动画制作过程中,无法直接呈现的高难度动作或效果可以由动作重定向技术来完成,且效果逼真。

如何将一个模型的运动轨迹映射到目标模型上,同时保证目标模型运动的逼真性和动作一致性是动作重定向要解决的问题[11]。

在国外,Thalman从人物三维模型建模入手,并结合模型特定动作的研究,提出使用虚拟网络来模拟人物模型来实现重定向[12]。

Badler等人将关键帧技术参数化来完成模型底部的控制,并同时提出给人物模型添加骨骼来减少计算复杂度的。

相关文档
最新文档