未知环境下的机器人视觉_力觉混合控制

合集下载

了解协作机器人的力控制与触觉反馈技术

了解协作机器人的力控制与触觉反馈技术

了解协作机器人的力控制与触觉反馈技术协作机器人是一种能够与人类进行合作和互动的智能机器人。

它们的力控制与触觉反馈技术是实现与人类有效协作的关键。

力控制是协作机器人实现与人类交互的基础。

通过力控制,协作机器人能够感知和控制所施加的力量,从而调整自身的运动轨迹和力度。

这种力控制的能力使得协作机器人能够与人类进行紧密而精准的合作,例如在搬运重物、装配操作和手术等任务中。

在协作机器人的力控制中,传感器起着关键作用。

协作机器人通常配备有力传感器或扭矩传感器,用于检测机器人施加的力量。

这些传感器能够实时测量机器人作用力的大小和方向,并将这些数据传递给控制系统进行反馈。

基于这些力量反馈,协作机器人能够根据实际需求调整自身的动作,并确保与人类的合作更加安全和精准。

触觉反馈技术是协作机器人实现与人类有效协作的另一项重要技术。

触觉反馈是通过机器人模拟人类的触觉感知能力,使得机器人能够感知和理解物体的形状、硬度、纹理等信息。

协作机器人通常通过搭载触觉传感器来获得这些信息。

触觉传感器能够测量机器人触碰物体时的压力、形状变化和接触力的分布等数据,并将这些数据传递给机器人控制系统。

基于这些触觉反馈信息,协作机器人可以更好地理解和感知周围环境,以便更加精准地进行协作操作。

在实际应用中,力控制与触觉反馈技术可以结合使用,以提高协作机器人的性能和安全性。

例如,在与人类进行物体传递时,协作机器人可以通过力控制感知人类的手的位置和力度,从而根据需要调整自身的运动轨迹和力度,确保将物体准确地传递给人类。

同时,触觉反馈技术可以帮助机器人感知物体的形状和硬度等属性,从而更好地控制力度,防止对物体施加过大的力量造成损坏。

除了与人类的协作,力控制与触觉反馈技术还可以在其他领域得到应用。

例如,在工业生产中,协作机器人可与人类工人合作完成一系列工作,力控制技术可以确保机器人与人类工人的合作更加紧密、安全和高效。

在医疗领域,协作机器人可以辅助医生进行手术操作,力控制和触觉反馈技术可以帮助机器人更加准确地控制手术器械,并感知和理解人体组织的特征。

机器人与环境间力位置控制技术研究与应用

机器人与环境间力位置控制技术研究与应用

机器人与环境间力位置控制技术研究与应用一、概述随着科技的不断进步和智能化浪潮的推进,机器人技术作为现代科技的重要代表,已经深入到各个领域,并在诸多方面发挥着不可替代的作用。

机器人与环境间的力位置控制技术,作为机器人技术的核心组成部分,对于提高机器人的操作精度、增强人机交互的柔顺性、保障机器人系统的稳定性和安全性等方面都具有重要的意义。

机器人与环境间力位置控制技术主要研究如何在机器人与环境交互过程中,实现精确的位置控制和力控制。

它要求机器人在执行任务时,不仅能够按照预定的轨迹进行精确运动,还要在与环境接触时,根据环境的反馈信息进行实时的力调整,以确保任务的顺利完成。

这一技术涉及到机器人动力学、控制理论、传感器技术、人工智能等多个领域的知识,是一个综合性很强的研究领域。

在实际应用中,机器人与环境间力位置控制技术广泛应用于工业制造、医疗康复、航空航天、服务机器人等领域。

例如,在工业制造中,机器人需要精确地抓取和放置工件,这就需要对机器人进行精确的位置和力控制在医疗康复领域,机器人需要与患者进行柔性的交互,以辅助患者进行康复训练,这也需要机器人具备力位置控制的能力。

研究和发展机器人与环境间力位置控制技术,对于推动机器人技术的进一步应用和发展具有重要的意义。

本文将对机器人与环境间力位置控制技术的研究现状进行梳理,分析当前研究中存在的问题和挑战,并探讨未来的发展趋势和应用前景。

同时,本文还将介绍一些典型的力位置控制算法和实验方法,以期能够为相关领域的研究人员提供一些有益的参考和启示。

1. 机器人技术背景与发展概述随着科技的飞速进步,机器人技术已经渗透到了众多领域,从工业生产到医疗服务,从深海探索到宇宙航行,机器人的身影无处不在。

机器人技术的发展,不仅极大地提高了生产效率,降低了人力成本,还在很大程度上拓宽了人类的活动范围,增强了人类对各种复杂环境的适应能力。

机器人技术最早可以追溯到20世纪初期,当时的研究主要集中在机械臂和自动控制理论上。

机器人视觉和控制技术研究

机器人视觉和控制技术研究

机器人视觉和控制技术研究随着科技的不断进步和人类知识的不断积累,机器人领域得到了越来越广泛的关注,并且不断涌现出各种新的应用、新的技术和新的方法。

其中,机器人视觉和控制技术是机器人发展的重要组成部分,也是该领域中备受瞩目的研究方向之一。

那么,机器人视觉和控制技术具体指的是什么呢?在这篇文章中,我们将从多个方面细致地探究这个话题。

一、机器人视觉技术机器人视觉技术,顾名思义,是指让机器人通过视觉系统获取丰富的图像信息,并将其转化为计算机可以理解和处理的数字信号的一种技术。

与人类眼睛类似,机器人的视觉系统包括镜头、图像处理器、数字信号处理器等多个组成部分。

当机器人的视觉系统获取一张图像时,首先需要进行一系列的预处理工作,包括图像去噪、图像增强、边缘检测、目标分割等,以便更好地识别出目标信息。

之后,机器人将通过计算机视觉算法对图像进行分析和处理,并将结果反馈给机器人的控制系统,以便机器人采取相应的行动。

机器人视觉技术的应用范围非常广泛,包括自主导航、物体识别、场景分析、检测和测量等。

例如,现代工业机器人可以利用视觉系统来识别出不同的零部件,并对它们进行分拣、拼装等工作;自主地面和空中机器人可以利用视觉反馈和深度学习等技术来自主导航和避障,以实现预设的任务目标。

二、机器人控制技术机器人控制技术是指利用计算机和相关软件等对机器人进行控制、管理和监控的技术。

在机器人控制领域,最核心的问题是如何设计合适的机器人控制算法,并将其运用到机器人的运动控制、力控制、动作规划和轨迹跟踪等方面。

目前,机器人控制技术主要有以下几种形式:1.关节空间控制关节空间控制是一种基本的机器人控制技术,它是通过控制机器人的各个关节来实现对机器人的控制。

这种控制方式最为简单,但对机器人的硬件和运动控制算法要求比较高,适用范围有限。

2.末端执行器控制末端执行器控制是指直接控制机器人的末端执行器运动,以实现机器人的控制。

这种控制方式可以直接控制机器人的末端效应器的力和位置,适用范围比关节空间控制广泛,但也需要更加复杂的硬件和控制算法。

视觉和听觉信息融合的智能机器人控制技术研究

视觉和听觉信息融合的智能机器人控制技术研究

视觉和听觉信息融合的智能机器人控制技术研究第一章引言随着科学技术的不断发展,人工智能的应用越来越广泛。

其中,机器人技术作为一种具有智能化、自主决策、自主行为能力的技术,其发展前景十分广阔。

尤其随着机器人技术与人类认知相结合,可以使得机器人拥有更加复杂和高效的决策机制,实现更多领域中人机交互。

视觉和听觉信息的融合成为机器人技术领域内的一个热门研究方向,有利于增强机器人的感知和分析能力,提高其控制精度和自主行动能力,本文将探讨视觉和听觉信息融合的智能机器人控制技术研究。

第二章视觉信息与听觉信息的融合2.1. 视觉信息的特点视觉信息作为人类获取信息的最重要的途径之一,其获取信息的特点具有多样性、速度快、信息量大、准确性高等特点。

视觉信息通过机器人的摄像头、激光雷达等装置进行检测获取,在机器人控制中占据着重要地位。

2.2. 听觉信息的特点听觉信息作为机器人获取信息的重要来源之一,同样具有多样性、速度快、信息量大、准确性高等特点。

机器人的麦克风、声纳、激光雷达等装置可以获取听觉信息,对于机器人控制和决策具有重要的意义。

2.3. 信息融合的必要性视觉信息和听觉信息的融合可以提高机器人的感知和分析能力,减少信息之间的冲突,避免单一信息损失的问题,从而实现机器人控制的准确性和智能性。

信息融合技术不仅可以解决单一信息检测容易受到环境因素影响的问题,还可以减少信息之间的冲突,提高机器人的决策和控制能力。

第三章视觉和听觉信息融合的实现3.1. 传感器融合技术传感器融合技术是将多个传感器的信息进行集成和优化,以实现对环境信息的高质量获取和处理。

在机器人视觉和听觉信息融合中,传感器的信息融合是关键环节之一。

通过对多传感器信息的处理,可以降低误差,提高精度,从而实现机器人的高效控制。

3.2. 计算模型融合技术计算模型融合技术是将多个计算模型的结果进行集成和优化,用于提高决策的准确性和可靠性。

在机器人视觉和听觉信息融合中,使用不同的计算模型对信息进行处理,可以得到更完整和准确的数据,从而实现机器人控制的高效性和智能化。

基于HJI理论的移动机器人神经网络自适应控制

基于HJI理论的移动机器人神经网络自适应控制

基于HJI理论的移动机器人神经网络自适应控制移动机器人技术的发展给现代社会带来了许多便利和创新。

为了使移动机器人在各种环境中能够实现高效且安全的自主行为,控制算法的设计成为了一个重要的研究领域。

本文将介绍基于HJI(哈密顿-雅可比-伊凡斯)理论的移动机器人神经网络自适应控制算法,以提高移动机器人的自主性和适应性。

一、HJI理论简介HJI理论是一种在非线性系统控制中广泛应用的数学工具。

它基于动态规划和最优控制的思想,通过解决哈密顿-雅可比-伊凡斯偏微分方程,得到系统的最优控制输入。

应用HJI理论可以使得移动机器人在复杂和不确定的环境中做出最优的决策,从而实现精确而高效的控制。

二、移动机器人神经网络自适应控制的基本原理神经网络是一种模拟人脑神经元网络结构的数学模型。

通过对大量样本数据的学习和训练,神经网络可以实现对输入和输出之间的映射关系建模。

在移动机器人控制中,结合神经网络和HJI理论,可以实现自适应控制,使机器人能够根据环境的变化动态调整控制策略。

具体而言,移动机器人的控制器可以通过神经网络学习和适应环境中的变化。

神经网络的输入可以是机器人周围环境的传感器信息,如视觉、声音等,输出则为机器人的控制指令,如速度、方向等。

通过不断地更新神经网络的权重和偏置,使其能够根据环境反馈的信息调整控制策略,并在动态环境中实时响应。

三、基于HJI理论的移动机器人神经网络自适应控制方法1. 确定系统动态模型:首先需要根据移动机器人的物理特性和运动学方程建立系统的动态模型。

这个模型将用于计算HJI偏微分方程的解,并作为神经网络的训练样本。

2. 建立神经网络模型:在确定系统动态模型之后,可以构建适当的神经网络结构来建模控制器。

选择合适的网络拓扑和激活函数,并根据需要确定网络的层数和神经元个数。

3. 学习与适应:将机器人在真实环境中采集到的传感器数据作为神经网络的输入,并利用系统动态模型计算出的最优控制指令作为输出,进行神经网络的训练和学习。

机器人操作中的力触觉与控制研究

机器人操作中的力触觉与控制研究

机器人操作中的力触觉与控制研究机器人在现代社会中的应用越来越广泛。

无论是制造业、医疗领域还是服务行业,机器人都能发挥重要的作用。

而要让机器人更加智能、更加具备人类的操作能力,力触觉与控制技术是必不可少的一环。

本文将探讨机器人操作中的力触觉与控制研究的重要性以及其应用潜力。

一、力触觉技术的发展力触觉技术是指机器人通过传感器获取并感知外界对其施加的力量和接触状态的技术。

这种技术的发展与进步,使得机器人能够实现更加精准的操作和灵活的反应。

在早期,机器人只能通过编程实现简单的动作,无法感知外部环境的变化。

而随着力触觉技术的出现,机器人可以根据外界环境的反馈信息,调整自身的动作和力度,更好地适应复杂的操作场景。

二、力触觉在制造业的应用在制造业中,机器人的应用已经成为提高生产效率的重要手段。

然而,为了保证机器人能够完成复杂的加工任务,需要具备对物体进行准确感知和控制的能力。

力触觉技术的应用可以使机器人在与物体接触时,通过传感器获取物体的力学性质,从而实现精确的加工和装配。

例如,在汽车制造过程中,机器人可以通过力触觉技术准确感知汽车零部件的位置和力度要求,从而进行精确的安装,提高生产效率和产品质量。

三、力触觉在医疗领域的应用在医疗领域,机器人的应用可以帮助医生进行精确的手术操作,减少手术风险和病人的痛苦。

力触觉技术在医疗机器人中的应用,可以使机器人具备对病人身体的精确感知和控制能力。

例如,在进行微创手术时,机器人可以通过力触觉技术感知病人体内器官的位置和力度要求,从而实现精确的操作和减少手术风险。

四、力触觉在服务行业的应用在服务行业中,机器人的应用可以提供更加智能和便捷的服务。

而力触觉技术的应用可以使机器人具备对对象的感知和控制能力,更好地适应不同的操作场景。

例如,在餐厅服务中,机器人可以通过力触觉技术感知客人手中的餐具和杯子的位置和力度要求,从而实现精确的送餐服务。

这种技术的应用不仅提高了服务质量,还增加了机器人与人类的互动体验。

机器人视觉与力觉传感器融合控制技术研究

机器人视觉与力觉传感器融合控制技术研究

机器人视觉与力觉传感器融合控制技术研究机器人视觉与力觉传感器融合控制技术研究摘要:机器人视觉和力觉传感器是机器人技术中的两个重要组成部分,它们分别用于感知环境的视觉信息和物体的力学信息。

传统的机器人控制方法仅依赖于视觉传感器或力觉传感器独立地控制机器人的运动,但无法充分利用两种传感器的信息,导致机器人的控制精度和鲁棒性较低。

本文综述了机器人视觉与力觉传感器融合控制技术的研究现状,并深入探讨了常用的融合算法和控制策略。

通过综合利用视觉和力觉传感器的信息,机器人可以更精准地感知环境,并实现更灵活、精准的运动控制。

本文还介绍了机器人视觉与力觉传感器融合控制技术在物体操纵、装配和碰撞检测等方面的应用,并展望了未来的研究方向。

关键词:机器人视觉;力觉传感器;融合控制技术;运动控制;应用Abstract:Robot vision and force sensing are two important componentsof robot technology, which are used to perceive visual information from the environment and mechanical information about objects. Traditional robot control methods rely solelyon visual sensors or force sensors to control the robot's motion independently, but they cannot fully utilize the information from both sensors, resulting in low control accuracy and robustness of the robot. This paper reviews the current research status of robot visual and force sensorfusion control technology and explores in depth the commonly used fusion algorithms and control strategies. By integrating the information from vision and force sensors, robots can perceive the environment more accurately and achieve moreflexible and precise motion control. This paper also introduces the applications of robot visual and force sensor fusion control technology in object manipulation, assembly, and collision detection, and discusses the future research directions.Keywords: robot vision; force sensor; fusion control technology; motion control; applications1. 引言随着机器人技术的快速发展,机器人已广泛应用于工业制造、服务机器人和医疗等领域。

国家开放大学《机器人技术及应用》章节测试参考答案

国家开放大学《机器人技术及应用》章节测试参考答案

国家开放大学《机器人技术及应用》章节测试参考答案第一章机器人技术与应用一、判断1.机器人是在科研或工业生产中用来代替人工作的机械装置。

(√)2.19世纪60年代和20世纪70年代是机器人发展最快、最好的时期,这期间的各项研究发明有效地推动了机器人技术的发展和推广。

(×)3.对于机器人如何分类,国际上没有制定统一的标准,有的按负载量分,有的按控制方式分,有的按自由度分,有的按结构分,有的按应用领域分。

(√)4.所谓特种机器人就是面向工业领域的多关节机械手或多自由度机器人。

(×)5.机器人机械本体结构的动作是依靠关节机器人的关节驱动,而大多数机器人是基于开环控制原理进行的。

(×)6.机器人各关节伺服驱动的指令值由主计算机计算后,在各采样周期给出,由主计算机根据示教点参考坐标的空间位置、方位及速度,通过运动学逆运算把数据转变为关节的指令值。

(√)7.为了与周边系统及相应操作进行联系与应答,机器人还应有各种通信接口和人机通信装置。

(√)8.轮式机器人对于沟壑、台阶等障碍的通过能力较高。

(×)9.为提高轮式移动机器人的移动能力,研究者设计出了可实现原地转的全向轮。

(√)10.履带式机器人是在轮式机器人的基础上发展起来的,是一类具有良好越障能力的移动机构,对于野外环境中的复杂地形具有很强的适应能力。

(√)11.腿式(也称步行或者足式)机构的研究最早可以追溯到中国春秋时期鲁班设计的木车马。

(√)12.机器人定义的标准是统一的,不同国家、不同领域的学者给出的机器人定义都是相同的。

(×)13.球形机器人是一种具有球形或近似球形的外壳,通过其内部的驱动装置实现整体滚动的特殊移动机器人。

(√)14.可编程机器人可以根据操作员所编的程序,完成一些简单的重复性操作,目前在工业界已不再应用。

(×)15.感知机器人,即自适应机器人,它是在第一代机器人的基础上发展起来的,具有不同程度的“感知”能力。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第25卷第3期V ol.25No.3控 制 与 决 策Control and Decision2010年3月M ar.2010收稿日期:2009 03 02;修回日期:2009 05 31.基金项目:国家自然科学基金项目(30670529);兰州理工大学电气与控制学科团队基金项目.作者简介:李二超(1980 ),男,河北保定人,讲师,博士,从事机器人智能控制、机器视觉的研究;李战明(1962 ),男,西安人,教授,博士生导师,从事智能控制、机器视觉等研究.文章编号:1001 0920(2010)03 0430 03未知环境下的机器人视觉/力觉混合控制李二超,李战明,李 炜(兰州理工大学电气与信息工程学院,兰州730050)摘 要:在实际的接触型作业任务中,需要在控制位置的同时控制末端执行器与环境之间的接触力.针对这一问题,通过力反馈信息对未知环境中的法线方向进行估计,并采用最小二乘方法估计图像雅可比矩阵.提出一种基于视觉/力觉的混合控制算法,给出了视觉/力觉混合控制的约束条件,对视觉采用变结构控制器,力控制采用PI 控制器.实验结果表明,该策略具有较高的力控制精度和曲线跟踪能力.关键词:视觉伺服;力控制;变结构控制;未知环境中图分类号:T P273 文献标识码:AHybrid control for visual/force servoing in unknown environmentL I Er chao ,L I Zhan ming ,L I Wei(Co llege o f Electr ical and Info rmation Eng ineering ,L anzhou U niv ersity of T echnolog y,Lanzho u 730050,China.Cor respondent:L I Er chao,E mail:ysdx lec@126.co m)Abstract :In the r ea l w or ld,the contact operatio n tasks need to implement t he co ntact fo rce contr ol at the same time w ith the implementation of the position contro l.T herefor e,a hy br id contro l scheme based on vision and fo rce is pro po sed.F ir st,a method to est imate the nor mal vecto r of the unknow n constraint surface is intro duced.O n line fo rce feedback data are emplo yed to estimate the lo cal shape o f constraint.T hen,the imag e Jaco bian is estimated by using t he r ecur sive least squares alg or ithm.Finally ,an adaptive hybr id visual ser voing /fo rce contro ller is proposed.T he dir ect ion of the for ce contro l beco mes perpendicular to the visual servo ing contro l.V ar iable str uctur e contro ller is applied to v isua l serv oing and PI contr oller is a pplied to force contr ol.Experimental results show the effectiv eness of the pro po sed scheme.Key words :V isual serv oing ;F orce contr ol;V ariable str uctur e co ntr ol;U nkno wn envir onment1 引 言工业机器人所完成的典型作业任务主要有以下3种:抓取和放置工件、非接触并按既定轨迹运动和接触性作业任务.接触性的作业任务(例如插孔)已能用机器人来实现[1].然而,打磨和抛光等作业任务具有相当大的难度,既要考虑机械手末端执行器的运动轨迹,又要考虑与环境之间的接触力,即必须在控制位置的同时对机械手与环境之间的接触力进行控制.为了完成复杂的任务,需要对多传感器进行融合控制.例如在任务的初始阶段,任务对象未发生接触,利用视觉传感器对物体进行快速跟踪;在任务的末段,任务对象发生接触,利用力反馈信息维持合理的接触力,这样可使整个控制过程柔顺平滑,不会产生很强的冲击力.Namiki 等[2]提出一种分层的多传感器混合体系结构,该体系结构由控制层、规划层和管理层组成,三层并行工作,可快速抓取物体,但对体系结构的硬件条件要求高且控制复杂,并不适合于视觉/力觉反馈等数量较少传感器的信息融合.Nelso n 等[3]给出一种视觉/力觉反馈传感器融合的体系结构,采用一个管理层对不同的传感信息进行处理,体系结构简单,其缺点是要对视觉传感器、力觉传感器和环境进行精确标定.本文在文献[4]的基础上并结合文献[5],提出一种新的视觉/力觉混合控制方法.在视觉伺服控制中,该方法使用最小二乘方法估计图像雅可比矩阵,而不要求对视觉传感器进行精确标定,并且利用力反馈数据对约束环境的法线方向进行估计.实验结果表明,视觉/力觉混合控制可提高机器人对任务的适应性和工作过程的柔顺性.第3期李二超等:未知环境下的机器人视觉/力觉混合控制 2 未知环境的法线方向估计机器人与环境发生接触的主要表现形式是接触力.若能利用力反馈信号弥补机器人对环境理解的不足,在线估计环境约束的法线方向,以指导机器人的柔顺控制,便可使机器人表现出一定的触觉特征.假设外部环境相对于机器人末端位置的约束为S(x )=0,对约束微分可得e Tf x =0.(1)其中:x R n 为机器人末端位置的状态向量,e f 为位置平面的法线向量.机器人接触点处终端所受的切向力f t 和法向力f n ,可通过装在机器人终端上的腕力传感器求得.最后得到法向单位向量^e f =f n / f n .(2)3 图像雅可比矩阵的估计基于图像的视觉伺服需要描述机械手末端速度与图像特征变化的关系x =J x u .(3)其中: x 和 u 分别为图像特征变化速度和机械手末端速度,J x = x / u TR m n为图像雅可比矩阵.由此可推出图像特征的变化速度与对应关节角速度之间的关系x =J x J q ,(4)其中J q 为机器人雅可比矩阵.将J = x / T称为复合雅可比矩阵或图像雅可比矩阵.满足式(4)的图像雅可比矩阵可通过摄像机标定计算出来,但需要知道视觉伺服系统的确切参数以便标定,而它们在动态环境下对伺服系统的参数变化非常敏感.为了克服这些不利条件,现已提出多种雅可比矩阵在线估计方法.本文采用Bro yden 的方法来估计雅可比矩阵[6].假定目标在图像上的期望位置为f *,目标在图像平面上的实际位置为f ( ),其中 为机器人关节角.则此时的误差为x ( )=f ( )-f *.(5)误差函数在 k 邻域的泰勒级数展开为x ( )=x ( k )+ x ( k )( - k )+ .(6)由于雅可比矩阵J 未知,本文用估计值J ^来代替J ,即x ( k )/ = x ( k )=J ^( k ).(7)忽略高阶项并定义仿射模型M k ( )=x ( k )+ x ( k )( - k ).(8)由于仿射模型是误差函数的近似,式(8)可表示为[J ^( k )-J ^( k-1)] = x -J ^( k-1) .(9)式(9)估计的图像雅可比矩阵用于使J ^( k )-J ^( k-1)的范数最小,可得到最小范数解J ^( k )=J ^( k-1)+[ x -J ^( k-1) ] /( T).(10)式(10)估计的雅可比矩阵只是误差函数的近似,可能发散,严重影响系统的性能.若能使用过去的数据对新的雅可比矩阵进行估计,则系统的性能便会得到改善.本文采用带遗忘因子的最小二乘算法,以加强对新数据的重视,提高参数的跟踪能力[7].最后可得到J ^( k )=J ^( k-1)+[ x -J ^( k-1) ] T W (k -1)/( + TW (k -1) ).(11)其中:W (k -1)为加权矩阵; 为遗忘因子,其值越小,新数据在估计中所起的作用越大.为实现视觉/力觉正交控制,必须消除图像雅可比矩阵中J ^( k )的力控方向信息.通过下式可得到与力控方向正交的图像雅可比矩阵:j q =^j q -^e T f ^j q ^e f .(12)其中: j q (q =1,2, ,m)为 J 的列向量,^j q (q =1,2,,m)为J ^的列向量.通过式(12)可实现力控和视觉伺服正交控制而互不影响.4 视觉/力觉混合控制求解视觉伺服引起的角速度变化.根据式(4)选取切换流形D(x )=C(x -x d )=0,C =diag (c 1,c 2, ,c n ).(13)当系统进入滑模运动后,由于系统的状态轨线保持在其上,即满足D(x )=0,从而满足 D (x )=0.引入到达律D =-H D -K sgn (D).(14)其中H =diag (h 1,h 2, ,h n ),K =diag (k 1,k 2, ,k n ).通过适当选取到达律参数,可保证系统在期望的时间内到达切换流形,实现滑模运动.由式(4),(13)和(14)有C J =-HD -K sg n (D).(15)以估计值 J 取代J ,可得到变结构控制规律,即机械手视觉伺服引起的关节角速度=-pin v ( J )C -1[-HD -K sgn (D)].(16)通过选取光滑的存储函数V (D)=1/2D T D,可证明系统是渐近稳定的.对法向的接触力控制采用PI 控制器.由力控引起的角速度变化为=J -1q {^e f [K f p (f d -^e Tf f )+ K f i(f d -^e T f f )d t ]}.(17)431在未知环境参数中,本文只需已知机器人雅可比矩阵J q 即可.5 实验研究为验证本文提出的机器人视觉/力觉混合控制策略,在Adept 3机器人上进行跟踪未知轨线的实验研究.机器人控制参数详见文献[8],传感器采用中国科学院合肥智能机械研究所研制的SAFM S 11型6维腕力/力矩传感器.本文采用固定摄像头,图像尺寸为512pixel 512pix el .在机械手末端作标记抽象成点特征,用轨线上均匀分布的50个像素点来代替目标的位置,未知轨线和机械手末端的点特征全部在摄像头的视野范围内,用于采集数据并与图像特征进行比较,目的是使机械手末端的图像特征跟踪未知轨线的像素特征.视觉伺服和力伺服的采样时间分别为33ms 和4ms .权重矩阵W(k)=0.01I ,遗忘因子 =0.2,图像雅可比矩阵的初始值为J ^x (0)=-0.030.5-0.020.150.2-0.2,K f p=26.0,K f i =0.06,C =diag {0.02 0.02 0.02},K =diag {0.01 0.01 0.01},H =diag {0.01 0.01 0.01}.实验要求机器人终端夹持的球头触杆沿未知轨线运动,法向跟踪过程中保持40N 的接触力.实验结果如图1~图3所示,其中f x ,f y 和f n 分别为接触力沿X 和Y 方向坐标轴的分量及法向分量.从力变化曲线可以看出,本文提出的视觉引导的机器人图1 X 轴方向的位置/力图2 Y 轴方向的位置/力图3 Z 轴位置和法向力力/位混合控制策略的力跟踪精度较为理想.现有的工业装配机器人,只要装备腕力传感器和摄像头,提取出轨线的图像特征,并保证轨线和机械手末端的点特征全部在摄像头的视野范围内,便可用本文方法进行机器人打磨和抛光等作业任务.因此该算法具有较高的实用价值.6 结 论在实际的接触型作业任务中,由于外部限制条件的不确定性,传统的力控制方法很难得到理想的控制效果.本文对多传感器的混合控制进行研究.通过力反馈信息对未知环境中的法线方向进行估计,采用最小二乘方法估计图像雅可比矩阵,对视觉采用变结构控制器,力控制采用PI 控制器.为提高图像的处理速度,可加入卡尔曼滤波器作为预测器预测特征点的下一位置,从而准确地设置图像处理的窗口.从实验结果看,视觉/力觉反馈的混合控制具有较高的力控制精度和曲线跟踪能力,增强了对接触环境参数变化的鲁棒性.参考文献(References)[1]张锟,韦庆,常文森.一种基于力/位混合控制进行插孔作业的策略[J].机器人,2002,24(1):44 48.(Zhang K ,Wei Q ,Chang W S.An insertio n str ategy based o n fo rce/position hybr id co ntro l [J ].R obot,2002,24(1):44 48.)[2]Namiki A ,K omuro T ,Ishikaw a M .High speedsensor y moto r fusion based o n dynamics matching [J].Pro c of the IEEE,2002,90(7):1178 1187.[3]Nelso n B J,M o rro w J D,Khosla P K.F ast stableco ntact t ransitio ns w ith a stiff manipulato r using fo rce and vision feedback [C ].IEEE/RSJ Int Co nf onIntelligent Robots and Systems.P ittsburgh,1995,2:90 95.[4]Ho so da K ,Ig arashi K ,A sada M.A daptiv e hy br idco nt rol fo r visual and fo rce servo ing in an unknow n env iro nment [J].Robotics &A utomation M ag azine,1998,5(4):39 43.(下转第436页)图2 滑模控制输入u零,控制输入中没有频繁的切换现象,系统抖动被明显地削弱.因此本文提出的不确定柔性机器人的递阶快速终端滑模控制策略是有效的.5 结 论将关节电机转角和柔性模态变量的线性组合作为柔性机械手系统的输出,通过输入输出线性化,将系统分解为输入输出子系统和零动态子系统两部分.针对输入输出子系统,提出了快速终端滑模控制策略,使得输入输出子系统在有限时间内收敛,将零动态子系统在平衡点近似线性化以选择控制器的设计参数,使零动态子系统在平衡点附近渐近稳定,保证了整个柔性机械手系统的渐近稳定,提高了控制系统的实际工程应用价值,且所提出的控制策略对系统中的不确定性均具有较强的鲁棒性.参考文献(References)[1]K im K S,Par k Y.R obust sliding hyperplane desig n fo rparametr ic uncertain sy stems by riccati appr oach[C].P roc of the A merican Contr ol Conf P hiladelphia,1998: 579 583.[2]李辉,谢剑英.不满足匹配条件的非确定性系统的鲁棒滑模控制[J].自动化学报,2001,27(2):252 257.(L i H,Xie J Y.Rr obust smc o f uncer tain time v ary ing systems dissatisfy ing matching condition[J].A ct aAutomat ica Sinica,2001,27(2):252 257.)[3]Feng Y,Yu X,M an Z.No n sing ular adaptiv e terminalsliding mode contro l of rigid manipulato rs[J].Automat ica,2002,38(12):2159 2167.[4]Feng Y,Bao S,Y u,X.Inver se dynamics non sing ularterminal sliding mo de co ntro l of tw o link flexible manipulato rs[J].Int J of R obotics and A uto matio n, 2004,19(2):91 102.[5]张袅娜,张德江,冯勇.基于混沌遗传算法的柔性机械手滑模控制器优化设计[J].控制理论与应用,2008,25(3):451 455.(Zhang N N,Zhang D J,Feng Y.T he o pt imal desig n of ter minal sliding contr oller fo r flex ible manipulator s based on chaot ic g enetic algo rit hm[J].Co ntr ol T heo ry &A pplications,2008,25(3):451 455.)[6]Feng Y,Bao S,Y u X.Inverse dynamics terminalsliding mode contr ol o f two link flex ible manipulator s[C].P roc of t he T hir d Inter nat ional DCDIS Conf onEng ineer ing Applicat ions and Computatio nal Algo rithms.Watam P ress,2003:52 57.[7]Sanz A,Etxebarr ia posit e ro bust contr ol of alabor ator y flex ible manipulator[C].T he44th IEEE Co nf on Decision and Contro l.N ew Y or k:I EEE Co ntr ol Sy stems So ciety,2005:3614 3619.[8]M oallem M,P atel R V,Kho rasani K.Flex ible linkrobot manipulator s:Co nt ro l techniques and structural desig n[Z].Singapor e:Spring er,2000:57 72.[9]Wang W J,L u S S,Hsu C F.Ex per iments on thepo sition contr ol of a one link flex ible r obot ar m[J].IEEE T r ans o n R obotics and A uto matio n,1989,5(3): 373 377.[10]Wang W J,L u S S,H su C F.Experiments o n theposition co nt ro l o f a one link f lex ible robot arm[J].IEEE T rans o n Ro bo tics and A ut omatio n,1989,5(3):373 377.(上接第432页)[5]李二超,李炜.在未知环境下面向位控机器人的力/位混合控制[J].煤炭学报,2007,32(6):657 661.(Li E C,L i W.Hy brid for ce/po sitio n contro l fo r positional contr olled robot ic manipulator s in unknown envir onment[J].J o f China Coal So ciety,2007,32(6): 657 661.)[6]Fa rahmand A M,Shademan A,Jag ersand M.Globalvisual moto r estimat ion for uncalibr ated v isual ser vo ing[C].IEEE/RSJ Int Co nf on Intellig ent Ro bo ts andSystems.San Dieg o,2007:1969 1974.[7]Qing shan Fu,Z hisheng Z hang,Jinfei Shi.U ncalibratedvisual ser voing using mor e pr ecise mo del robot ics[C].2008IEEE Co nf on A ut omatio n and M echatro nics.Chengdu,2008:916 921.[8]乔兵.智能机器人主动力/位学习控制研究[D].南京:南京航空航天大学,1999.(Q iao B.T he activ e learning posit ion/fo rce co ntro l for int elligent ro bo tic manipulator s[D].N anjing:N anjing U niversit y of A er onautics and Astr onautics,1999.)。

相关文档
最新文档