基于机器视觉的工业机器人定位系统

合集下载

基于机器视觉的工业机器人抓取系统设计

基于机器视觉的工业机器人抓取系统设计

基于机器视觉的工业机器人抓取系统设计随着工业需求和技术的不断进步,机器人技术在工业领域的应用越来越广泛。

其中,基于机器视觉的工业机器人抓取系统设计成为了工业自动化过程中的重要组成部分。

本文将探讨这一设计的关键技术和要素,并提出一种可行的设计方案。

一、系统设计需求分析基于机器视觉的工业机器人抓取系统设计的主要目标是能够实现精准准确的物体识别和抓取。

具体来说,系统需要具备以下基本功能:1. 物体识别:通过机器视觉技术,能够对不同形状、大小和材质的工件进行准确快速的识别。

2. 运动规划:能够根据识别结果,确定机器人抓取路径和力度,以确保准确无误地抓取工件。

3. 抓取反馈:能够实时检测抓取结果,通过传感器获得抓取物体的重量、形变等信息,以验证抓取的准确性。

二、关键技术分析在实现基于机器视觉的工业机器人抓取系统设计过程中,涉及到一些关键技术,包括:1. 视觉传感器选择:根据工件的形状、大小和材质特性,选择合适的视觉传感器。

常用的视觉传感器包括相机、激光扫描仪等。

2. 图像处理技术:对获取的图像进行处理,包括去噪、图像增强、特征提取等,以提高工件的识别准确率。

3. 物体识别算法:采用基于机器学习的算法,对不同类型的工件进行训练和分类,以提高识别准确率和稳定性。

4. 运动规划算法:根据工件的位置、姿态和抓取要求,采用运动规划算法,确定机器人的抓取路径和力度。

5. 抓取反馈传感器:通过力传感器、形变传感器等,实时检测抓取结果,以验证抓取的准确性和稳定性。

三、设计方案基于以上需求和技术分析,我们提出了一种可行的基于机器视觉的工业机器人抓取系统设计方案。

1. 硬件配置:选择高分辨率相机作为视觉传感器,搭配高性能计算机处理图像数据,选用精准的力传感器进行抓取反馈。

2. 软件开发:使用图像处理库进行图像预处理,包括去噪、图像增强、特征提取等,以提高识别准确率。

采用深度学习算法进行工件分类,并结合传感器数据进行实时抓取规划。

基于机器视觉的机器人导航技术

基于机器视觉的机器人导航技术

基于机器视觉的机器人导航技术在当今科技飞速发展的时代,机器人已经成为了我们生活和工作中不可或缺的一部分。

从工业生产线上的自动化操作,到家庭服务中的智能助手,机器人的应用场景越来越广泛。

而在机器人能够高效、准确地完成各种任务的背后,一项关键技术起着至关重要的作用,那就是基于机器视觉的机器人导航技术。

机器视觉,简单来说,就是让机器人能够像人类一样通过“眼睛”(摄像头等视觉传感器)获取周围环境的信息,并对这些信息进行理解和分析。

而基于机器视觉的机器人导航技术,则是利用这些视觉信息,帮助机器人规划路径、避开障碍物,从而安全、准确地到达目标地点。

要实现基于机器视觉的机器人导航,首先需要解决的是环境感知的问题。

机器人的视觉传感器就像是它的“眼睛”,但与人类的眼睛不同,这些传感器获取的信息往往是大量的图像数据,需要经过复杂的处理和分析才能转化为有用的环境信息。

例如,通过图像识别技术,机器人可以识别出周围的物体是墙壁、桌椅还是其他障碍物;通过深度感知技术,机器人可以测量出与这些物体的距离和相对位置。

在获取了环境信息之后,机器人需要对这些信息进行建模和理解。

这就像是我们人类在脑海中构建出周围环境的地图一样,机器人也需要在其“大脑”中建立一个关于环境的模型。

这个模型不仅要包含物体的位置和形状等信息,还要能够动态地更新,以反映环境的变化。

例如,如果一个障碍物被移走了,机器人的模型中也要相应地删除这个障碍物的信息。

接下来,就是路径规划的环节。

路径规划就像是为机器人制定一个出行的“攻略”,告诉它如何从当前位置到达目标位置。

在这个过程中,机器人需要考虑到许多因素,比如距离的长短、路径的安全性、是否能够避开障碍物等等。

常见的路径规划算法有 A算法、Dijkstra 算法等,这些算法可以根据机器人的环境模型和目标位置,计算出一条最优的路径。

然而,仅仅规划出路径还不够,机器人在实际行走的过程中还需要实时地调整自己的行动,以应对各种突发情况。

基于机器视觉的机器人导航与定位

基于机器视觉的机器人导航与定位

基于机器视觉的机器人导航与定位在当今科技飞速发展的时代,机器人技术正逐渐渗透到我们生活的方方面面,从工业生产中的自动化装配,到医疗领域的精准手术操作,再到家庭服务中的智能清洁,机器人的身影无处不在。

而在机器人能够实现高效、准确的工作背后,基于机器视觉的导航与定位技术起着至关重要的作用。

机器视觉,简单来说,就是让机器人能够像人类一样通过“眼睛”来获取周围环境的信息,并对这些信息进行分析和理解。

对于机器人而言,这双“眼睛”通常是由摄像头、传感器等设备组成的,它们能够捕捉到图像、深度、颜色等多种信息。

在机器人的导航过程中,机器视觉首先需要对周围环境进行感知。

这就像是我们人类在陌生的地方行走时,会先观察周围的道路、建筑物、标志物等。

机器人通过摄像头获取环境的图像,然后利用图像处理技术,提取出其中的有用信息,比如障碍物的位置、道路的走向、目标物体的特征等。

为了实现准确的感知,图像的质量和获取的频率至关重要。

高质量的图像能够提供更多的细节,而高频率的获取则能够保证机器人对环境变化的及时响应。

有了环境感知的基础,接下来就是定位。

机器人需要知道自己在环境中的准确位置,才能规划出合理的行动路径。

常见的定位方法包括基于特征点的定位和基于地图的定位。

基于特征点的定位,是通过识别环境中的一些独特的特征点,比如墙角、柱子的拐角等,然后与事先建立的模型进行匹配,从而确定机器人的位置。

基于地图的定位,则是将机器人获取的环境信息与预先构建的地图进行对比,来确定自身位置。

在构建地图方面,机器视觉也发挥着重要作用。

地图可以分为栅格地图、特征地图和拓扑地图等。

栅格地图将环境划分为一个个小的栅格,每个栅格标记为可通行或不可通行,这种地图直观但数据量较大。

特征地图则侧重于提取环境中的关键特征,如直线、曲线等,数据量相对较小但可能会丢失一些细节。

拓扑地图则更注重环境中节点和连接关系的描述,适合于大规模环境的表示。

在实际应用中,机器视觉的机器人导航与定位面临着诸多挑战。

基于机器视觉的移动机器人导航与控制系统设计

基于机器视觉的移动机器人导航与控制系统设计

基于机器视觉的移动机器人导航与控制系统设计导语:移动机器人作为一种重要的机器人形态,广泛应用于Warehouse,医院,工业等领域。

为了使移动机器人能够自主导航并安全运行,基于机器视觉的导航与控制系统设计显得尤为重要。

本文将基于机器视觉的导航与控制系统设计进行详细讨论,包括系统架构、关键技术和实现方法。

一、系统架构基于机器视觉的移动机器人导航与控制系统可以分为四个主要组成部分:感知模块、定位与建图模块、导航规划模块和控制执行模块。

1. 感知模块感知模块是导航与控制系统的基础,用于实时获取环境信息。

主要包括相机传感器、激光雷达、深度相机等传感器技术。

通过感知模块,机器人能够获取到场景中的物体位置、障碍物信息等重要数据,为后续的导航决策提供依据。

2. 定位与建图模块定位与建图模块利用感知模块获取到的传感器数据进行地图建立和机器人定位。

常用的定位与建图算法包括概率定位、滤波算法、SLAM技术等。

通过该模块,机器人能够实时更新自身位置和建立环境地图,为导航规划提供准确的位置信息。

3. 导航规划模块导航规划模块根据定位与建图模块提供的环境地图和机器人位置信息,确定机器人的路径规划。

常用的导航规划算法包括A*算法、Dijkstra算法、模糊逻辑等。

通过该模块,机器人能够快速且安全地规划出到达目标位置的最优路径。

4. 控制执行模块控制执行模块将导航规划模块输出的路径转化为机器人的控制指令,控制机器人执行相应的动作。

常用的控制执行技术包括PID控制、路径跟踪算法、动态阻抗控制等。

通过该模块,机器人能够实现精准的位置控制和运动控制。

二、关键技术基于机器视觉的移动机器人导航与控制系统设计涉及到多个关键技术,以下是其中几个重要技术的介绍:1. 视觉目标识别与跟踪视觉目标识别与跟踪是感知模块的核心。

通过使用深度学习算法,将机器人所需感知的目标进行分类和定位。

常用的目标识别算法包括卷积神经网络(CNN)、特征匹配等。

通过目标跟踪算法,机器人能够实时追踪目标的位置信息,为导航规划提供准确的参考数据。

基于机器视觉的工业机器人定位系统研究

基于机器视觉的工业机器人定位系统研究

Science and Technology &Innovation ┃科技与创新2020年第14期·69·文章编号:2095-6835(2020)14-0069-02基于机器视觉的工业机器人定位系统研究曹诚诚(南京理工大学泰州科技学院,江苏泰州225300)摘要:当前工厂对智能设备的制造要求逐渐提升,同时机器视觉技术的的发展对于高精度的定位性能要求较高,并逐渐向机器人领域拓展。

基于机器视觉技术,通过概述工业机器人定位系统组成,围绕动作过程等方面探究工业机器人定位系统的具体内容,进而将定位信息向机器人控制器进行传输,完成定位任务。

关键词:机器视觉;工业机器人;定位系统;定位抓取技术中图分类号:TP242.2文献标识码:ADOI :10.15913/ki.kjycx.2020.14.025工业机器人是制造业的高端制造设备,对于稳定性、定位精准度的要求较高,因此需要借助机器视觉技术处理图像,通过工业相机实现引导定位和模式识别等操作,快速获取物体的质心和边界,满足工业机器人系统运行的自定位需求,缩短其期望位置和末端位置间的差距,进而促进机器视觉技术的创新和发展。

1定位系统组成依托机器视觉的机器人定位系统包含摄像机系统和控制系统,其中摄像机系统中包括计算机(具有图像采集卡)、摄像机,主要收集视觉图像,并应用机器视觉算法。

控制系统包含控制箱和计算机,对计算机末端具体位置完成控制。

工作区利用CCD 摄像机进行拍摄,并使用计算机识别图像,得到跟踪特征,完成数据的计算和识别,借助逆运动学方式获取机器人每一位置的误差,再对高精度末端执行模块进行控制,科学调整机器人的位置和位姿。

2工作原理机器人系统较为复杂,其中包含工业计算机、伺服电机、伺服控制器等部件,借助“人类引导思想”工艺,对人类的行为习惯、肢体动作、决策方式、表达模式进行展示和控制[1]。

依托机器视觉技术的机器人定位系统工作原理包含以下内容。

基于机器视觉的机械手臂精确定位控制研究

基于机器视觉的机械手臂精确定位控制研究

基于机器视觉的机械手臂精确定位控制研究引言近年来,随着机器人技术的不断发展,机器视觉成为了一个热门的研究领域。

机器视觉能够为机器人提供感知和理解环境的能力,使其能够更加精确地执行任务。

机械手臂作为一种常见的工业机器人,其精确定位控制对于实现高质量的任务执行至关重要。

因此,基于机器视觉的机械手臂精确定位控制成为了一个备受关注的研究课题。

一、机器视觉在机械手臂精确定位控制中的应用1. 机器视觉在目标检测中的应用机器视觉可以通过图像处理和分析技术,实现对目标物体的检测和识别。

在机械手臂的精确定位控制中,机器视觉可以帮助机械手臂实时感知和定位需要抓取的目标物体。

通过在图像中提取目标物体的特征,机器视觉可以准确地定位目标物体的位置,并传递给机械手臂进行抓取。

2. 机器视觉在目标跟踪中的应用在机械手臂的任务执行过程中,目标物体可能会发生移动。

机器视觉可以通过实时的目标跟踪技术,实现对目标物体的实时跟踪和位置更新。

通过不断地获取目标物体的位置信息,机器视觉可以帮助机械手臂及时调整自身的位置和姿态,确保对目标物体的精确定位,从而实现稳定和准确的抓取。

3. 机器视觉在三维重建中的应用机器视觉不仅可以实现对目标物体在二维平面上的检测和定位,还可以通过相机的多视图组合,实现对目标物体在三维空间中的重建。

在机械手臂的精确定位控制中,三维重建技术可以帮助机械手臂更加精确地感知目标物体的形状、大小和位姿。

通过获得更全面和准确的目标物体信息,机器人可以更好地执行抓取任务,避免碰撞和误判。

二、精确定位控制算法研究与应用1. 基于特征匹配的精确定位控制算法特征匹配是一种常见的机器视觉算法,它通过提取目标物体的特征点,并在图像中进行匹配,从而实现对目标物体的精确定位。

在机械手臂的精确定位控制中,特征匹配算法可以帮助机械手臂准确地定位目标物体的位置和姿态。

通过将机器视觉的检测结果与机械手臂的控制指令相结合,可以实现对机械手臂的实时控制和调整。

《基于机器视觉的工件识别与定位系统的设计与实现》

《基于机器视觉的工件识别与定位系统的设计与实现》

《基于机器视觉的工件识别与定位系统的设计与实现》一、引言随着工业自动化和智能制造的快速发展,工件识别与定位技术在生产线上扮演着越来越重要的角色。

传统的人工识别与定位方式不仅效率低下,而且易受人为因素的影响。

因此,基于机器视觉的工件识别与定位系统应运而生,其通过计算机视觉技术实现对工件的快速、准确识别与定位,从而提高生产效率和质量。

本文将介绍一种基于机器视觉的工件识别与定位系统的设计与实现。

二、系统设计1. 硬件设计本系统硬件部分主要包括工业相机、光源、工控机等。

其中,工业相机负责捕捉工件图像,光源提供合适的照明条件,以保证图像质量,工控机则负责图像处理和算法运行。

硬件设备需具备高稳定性、高精度和高速度的特点,以满足生产线上的实时性要求。

2. 软件设计软件部分主要包括图像预处理、工件识别和工件定位三个模块。

图像预处理模块负责对原始图像进行去噪、增强等处理,以提高图像质量。

工件识别模块通过训练好的机器学习模型对预处理后的图像进行识别,提取出工件的特征信息。

工件定位模块则根据识别结果,确定工件在图像中的位置信息。

三、算法实现1. 图像预处理图像预处理是工件识别与定位的前提。

本系统采用去噪、二值化、边缘检测等算法对原始图像进行处理,以提高图像质量和特征提取的准确性。

其中,去噪算法用于消除图像中的噪声干扰,二值化算法将图像转化为黑白二值图像,便于后续的特征提取和识别。

2. 工件识别工件识别是本系统的核心部分。

本系统采用深度学习算法训练机器学习模型,实现对工件的快速、准确识别。

具体而言,我们使用卷积神经网络(CNN)对大量工件图像进行训练,提取出工件的特征信息,并建立特征库。

在识别过程中,系统将预处理后的图像与特征库中的特征信息进行比对,找出最匹配的工件类型。

3. 工件定位工件定位是在识别的基础上,确定工件在图像中的具体位置。

本系统采用模板匹配算法实现工件定位。

具体而言,我们首先在特征库中选取与待定位工件相似的模板图像,然后在预处理后的图像中搜索与模板图像相匹配的区域,从而确定工件的位置信息。

基于机器视觉的检测与定位系统设计

基于机器视觉的检测与定位系统设计

基于机器视觉的检测与定位系统设计在现代社会中,基于机器视觉的检测与定位系统已经成为许多领域中必不可少的技术手段。

比如,在生产制造领域中,机器视觉技术被广泛应用于产品质量检测、流水线自动化等方面;在无人驾驶领域中,机器视觉技术的应用则涉及车辆感知、行驶路径规划等方面。

因此,本文将从机器视觉的基本原理、检测与定位的实现过程以及相关技术的应用案例等方面,对基于机器视觉的检测与定位系统的设计进行介绍和探讨。

一、机器视觉的基本原理机器视觉是指通过计算机对图像进行处理和分析,从而达到识别、检测、分类等目的的技术手段。

在机器视觉技术中,通常需要使用图像的一些固有特征,如边缘、纹理、颜色和形状等特性,来对图像进行分析和处理。

机器视觉的基本原理主要包括图像采集、图像预处理、特征提取和分类识别等步骤。

其中,图像采集是指通过传感器等设备,将环境中的图像数据转换成数字信号,从而实现数字化处理;图像预处理则是对图像进行滤波、去噪、灰度变换等操作,以提高后续处理的精度和鲁棒性;特征提取则是从图像中筛选出具有代表性的特征,并进行计算和描述化,以供后续分类和识别等操作使用;分类识别则是将特征和模型进行匹配比较,从而确定物体属性和所属类别等信息。

二、基于机器视觉的检测与定位实现过程基于机器视觉的检测与定位系统的实现过程主要包括图像采集与处理、特征提取与描述化、目标检测和定位、目标分类和识别等环节。

其中,每个环节都是相互关联的,需要通过不断的迭代和优化,才能达到良好的检测和定位效果。

首先,图像采集是基于机器视觉检测与定位系统的第一步,通过扫描仪、相机、激光雷达等设备,将环境中的目标进行数字化处理,以便后续的特征提取和分类识别等操作。

其次,特征提取和描述化是针对图像中存在的多种特征,通过各种算法方法,将其转化为具有代表性的特征向量和描述符。

例如,在人脸识别中,可以通过分析人脸的眼、鼻、口等特征区域,提取出物理特征;在车牌识别中,则可以通过对字母、数字的形状、颜色等特征进行分析,提取出数字化的形式。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于机器视觉的工业机器人定位系统
基于机器视觉的工业机器人定位系统
类别:传感与控制
摘要:建立了一个主动机器视觉定位系统,用于工业机器人对零件工位的精确定位。

采用基于区域的匹配和形状特征识别相结合的图像处理方法,该方法经过阈值和形状判据,识别出物体特征。

经实验验证,该方法能够快速准确地得到物体的边界和质心,进行数据识别和计算,再结合机器人运动学原理控制机器人实时运动以消除此误差,满足工业机器人自定位的要求。

1.引言目前工业机器人仅能在严格定义的结构化环境中执行预定指令动作,缺乏对环境的感知与应变能力,这极大地限制了机器人的应用。

利用机器人的视觉控制,不需要预先对工业机器人的运动轨迹进行示教或离线编程,可节约大量的编程时间,提高生产效率和加工质量。

Hagger 等人提出通过基于机器人末端与目标物体之间的误差进行视觉反馈的方法;Mezouar 等人提出通过图像空间的路径规划和基于图像的控制方法。

国内这方面主要应用于焊接机器人对焊缝的跟踪。

本文利用基于位置的视觉伺服思想,以六自由度垂直关节型喷涂机器人为载体,提出一种基于机器视觉的工业机器人自定位控制方法,解决了机器人末端实际位置与期望位置相距较远的问题,改善了喷涂机器人的定位精度。

2.视觉定位系统的组成机器人视觉定位系统构成如图 1 所示,在关节型机器人末端安装喷涂工具、单个摄像机,使工件能完全出现在摄像机的图像中。

系统包括摄像机系统和控制系统:(1)摄像机系统:由单个摄像机和计算机(包括图像采集卡)组成,负责视觉图像的采集和机器视觉算法;(2)控制系统:由计算机和控制箱组成,用来控制机器人末端的实际位置;经 CCD 摄像机对工作区进行拍摄,计算机通过本文使用的图像识别方法,提取跟踪特征,进行数据识别和计算,通过逆运动学求解得到机器人各关节位置误差值,最后控制高精度的末端执行机构,调整机器人的位姿。

图1 喷涂机器人视觉定位系统组成 3.视觉定位系统工作原理 3.1 视觉定位系统的工作原理使用 CCD 摄像机和1394 系列采集卡,将视频信号输入计算机,并对其快速处理。

首先选取被跟踪物体的局部图像,该步骤相当于离线学习的过程,在图像中建立坐标系以及训练系统寻找跟踪物。

学习结束后,图像卡不停地采集图像,提取跟踪特征,进行数据识别和计算,通过逆运动学求解得到机器人各关节位置给定值,最后控制高精度的末端执行机构,调整机器人的位姿。

工作流程如图2 所示。

图 2 视觉定位系统软件流程图 3.2 基于区域的匹配本文采用的就是基于区域的相关匹配方法。

它是把一幅图像中的某一点的灰度领域作为模板,在另一幅图像中搜索具有相同(或相似)灰度值分布的对应点领域,从而实现两幅图像的匹配。

在基于区域相关的算法中,要匹配的元素是固定尺寸的图像窗口,相似准则是两幅图像中窗口间的相关性度量。

当搜索区域中的元素使相似性准则最大化时,则认为元素是匹配的。

定义P (i, j) P 是模板图像中一点,取以P (i, j) P 为中心的某一邻域作为相关窗口K ,大小为(2w +1),假设K 在原始图中,水
平方向平移Δu ,垂直方向平移Δu 后,K 所覆盖下的那块搜索区域叫做子图S k ,若K 和S k 相同,则它们的差为零,否则不为零。

由此定义K 和S k 的相关函数为:当D(K, S k )达到最小,K 与S k 达到最佳匹配。

3.3 图像的特征提取工作台上的工件与工作台背景在颜色方面具有很大的差别,即工件呈现为黑色,将这一信息作为识别工件的重要特征。

工件的边缘处灰度有急剧的变化,可以以此判断出工件的边界点。

采用扫描线的方法,扫描方向上灰度剧变的像素点就是边界点。

最后,通过最小二乘法把找到的边界点拟合出圆周,并计算出圆心位置。

3.4 实验与分析实验目的是通过机器视觉,快速识别出工件的特征(这里是圆孔的圆心)。

(1)首先在原始图像(图3)选取被跟踪工件的局部图像作为模板图像template(图4)。

(2)以局部图像template 为模板,在原始图像中进行基于区域的匹配,并以template 的左下角为原点,建立坐标系。

然后定义一个搜索区域ROI(region of interest),根据要提取的特征选择区域的形状,这里选择环形区域。

搜索区域必须包含全部目标特征。

在ROI 中提取工件的特征,如图3 所示。

图 3 圆心识别该步骤相当于离线学习的过程。

每次使用前只需要学习一次即可。

通过离线学习,系统得到ROI 与工件的相对位置关系,以便实时识别中工件出现偏移、翻转等,ROI 都可以准确出现在合适位置。

(3)离线学习后,视觉系统经过区域匹配、阀值分割和边缘提取等步骤找到需要识别的特征(这里是圆孔的圆点),如图4 所示。

图4 实时识别(3)离线学习后,视觉系统经过区域匹配、阀值分割和边缘提取等步骤找到需要识别的特征(这里是圆孔的圆点),如图4 所示。

3.5 结果分析如下:(1)识别率分析:第一步通过离线学习,训练提取形状特征。

第二步使用离线学习得到的坐标关系,实时跟踪工件,得到需要跟踪的形状特征信息。

只要离线学习恰当,目标特征就准确识别并且得到相关信息。

(2)实时处理结果分析:图像采集卡的采集速度是25 帧/s,每幅图采集时间为40ms。

摄像头采集一幅图像需要20ms,该图像处理的速度为
10ms/幅。

通过程序优化,在采集的同时进行图像处理,而且图像处理的速度比采集的时间要短,就避免了图像的失真和抖动。

在物体运动不超过极限速度时,能够较准确地找到圆心的位置。

4.空间坐标的获取由一幅图像得到的信息是二维信息,程序中使用的坐标是以像素为单位的,机器人在空间运动需要将图像的信息换算成三维空间坐标。

其计算过程如下:(1)以工件上圆孔的圆心为机器人定位基准,A(X ,Y, Z)圆心的世界坐标。

当圆心与视觉图像的中心重合时,机器人定位完成。

(2)标定摄像机,得到投影矩阵ce M ,即图像中两个像素间的距离与世界坐标系的转换关系。

(3)摄像机拍摄图像后,经过特征识别得到圆心在图像中坐标a(x, y),计算出与图像中心的偏移量Δx、Δy。

(4)以A(X ,Y, Z)为基准,按照下式计算机器人末端的世界坐标B(X ',Y ', Z'):其中,Mc是摄像机与机器人末端的坐标转换参数。

注意,本文使用单目视觉,所以这里假设 Z 坐标不变;如果使用双目视觉,就可以通过立体视觉计算出Z’。

5.误差分析与补偿本项目的喷涂机器人是六自由度的旋转关节操作臂,与Unimation PUMA560相似,关节4、5、6 的轴线相互垂直,且相交与一点。

应用参考文献3 的方法计算如下:(1)通过机器视觉可以得到机器人末端的空间位置坐标B(X ',Y ', Z')。

(2)确定机器人的连杆参数表,如下表:
(3)运用DH 法计算各关节的转角θi : 6.结论本文描述了基于机
器视觉的工业机器人定位系统,该系统将基于区域的匹配和形状特征识别结合,进行数据识别和计算,能够快速准确地识别出物体特征的边界与质心,机器人控制系统通过逆运动学求解得到机器人各关节位置的转角误差,最后控制高精度的末端执行机构,调整机器人的位姿以消除此误差。

从而解决了机器人末端实际位置与期望位置相距较远的问题,改善了喷涂机器人的定位精度。

该方法计算量小,定位准确,具有工程实用性。

本系统是使用 C#在Visual Studio 2003 环境中编写。

相关文档
最新文档