机器人插件作业的视觉导引方法研究

合集下载

工业机器人视觉引导系统设计

工业机器人视觉引导系统设计

工业机器人视觉引导系统设计随着现代工业的发展,工业机器人在生产线上扮演着越来越重要的角色。

工业机器人的自动化以及高精度操作需求对其视觉引导系统的设计提出了更高的要求。

本文将探讨工业机器人视觉引导系统的设计原理、关键技术以及相关应用。

一、设计原理:工业机器人视觉引导系统是指利用计算机视觉技术,通过相机和图像处理算法对机器人进行引导和定位的系统。

其设计原理可以分为两个主要部分:图像采集和图像处理。

1. 图像采集:图像采集是工业机器人视觉引导系统的基础,主要通过相机获取现场图像。

相机的选择应根据具体应用场景和要求进行,包括分辨率、帧率、焦距等参数的考虑。

同时,还需考虑相机的安装位置、视野范围等因素,以保证采集到的图像满足后续图像处理的需求。

2. 图像处理:图像处理是工业机器人视觉引导系统的核心,通过对采集到的图像进行处理和分析,提取出所需的信息。

常见的图像处理技术包括边缘检测、图像分割、目标识别与定位等。

二、关键技术:1. 边缘检测:边缘检测是图像处理的基本技术,通过检测出图像中物体的边缘轮廓,为后续目标识别和定位提供基础。

常用的边缘检测算法有Sobel算子、Canny算子等。

2. 图像分割:图像分割是将图像划分成若干个连通区域的过程,可以将不同的物体分割开来,以便进行后续的目标识别和定位。

常见的图像分割算法有阈值分割、区域生长法等。

3. 目标识别与定位:目标识别与定位是工业机器人视觉引导系统的关键技术,通过对图像中的目标进行识别和定位,从而实现机器人的引导和操作。

常见的目标识别与定位算法有模板匹配法、特征匹配法等。

三、相关应用:1. 自动装配:工业机器人视觉引导系统在自动装配过程中发挥着重要作用。

通过对图像中的零件进行识别和定位,机器人可以准确地进行零件的抓取和装配操作,提高生产线的效率和精度。

2. 检测和质检:工业机器人视觉引导系统可以用于对产品的表面缺陷、尺寸偏差等进行检测和质检。

通过对图像中的产品进行分析,机器人可以及时发现问题并做出相应的处理,确保产品质量。

机器人视觉导航技术的研究与应用

机器人视觉导航技术的研究与应用

机器人视觉导航技术的研究与应用第一章介绍机器人视觉导航技术的背景和意义随着人工智能和机器人技术的飞速发展,机器人越来越多地应用于各个领域,如工业生产、医疗服务、农业等。

而机器人的导航能力是实现其自主工作的重要基础,而视觉导航技术则是其中最为重要的方法之一。

本章将简要介绍机器人视觉导航技术的研究背景和应用意义,为后续章节的具体内容做铺垫。

第二章机器人视觉导航技术的基本原理机器人视觉导航技术的核心是通过摄像头等传感器感知环境,并将感知到的信息进行处理和分析,从而帮助机器人判断自身的位置和姿态以及周围环境情况。

本章将介绍机器人视觉导航技术的基本原理,包括图像识别、目标跟踪、地标识别等关键技术。

第三章机器人视觉导航技术的研究方法和算法机器人视觉导航技术是一门综合性的学科,其中涉及到众多的研究方法和算法。

本章将重点介绍机器人视觉导航技术的常用研究方法和算法,包括特征提取与描述、图像匹配和跟踪、三维重建等关键技术,为后续章节的应用案例做准备。

第四章机器人视觉导航在工业生产中的应用在工业生产领域,机器人的导航能力对于提高生产效率和质量至关重要。

本章将以工业生产为例,介绍机器人视觉导航技术在工厂自动化、零件装配、物料搬运等环节的应用,并重点阐述其中的技术挑战和解决方案。

第五章机器人视觉导航在医疗服务中的应用在医疗服务领域,机器人的导航能力可以帮助医生进行精确的手术操作、辅助病人运动恢复等工作。

本章将以医疗服务为例,介绍机器人视觉导航技术在手术机器人、康复机器人等领域的应用,并探讨其中的技术挑战和前景。

第六章机器人视觉导航在农业领域的应用在农业领域,机器人的导航能力可以帮助农民实现精准农业、自动化种植等目标。

本章将以农业领域为例,介绍机器人视觉导航技术在农田测绘、农作物识别、无人农机等方面的应用,并展望其在农业现代化中的潜力。

第七章机器人视觉导航技术的挑战和发展趋势本章将总结机器人视觉导航技术的研究现状和挑战,并展望其未来的发展趋势。

机器人视觉测控技术的研究进展

机器人视觉测控技术的研究进展

机器人视觉测控技术的研究进展在当今科技飞速发展的时代,机器人视觉测控技术作为一项关键的前沿技术,正日益展现出其巨大的潜力和广泛的应用前景。

这项技术使得机器人能够像人类一样通过“眼睛”感知和理解周围的世界,并在此基础上进行精确的测量和控制,从而实现各种复杂的任务。

机器人视觉测控技术的核心在于让机器人能够获取、处理和分析视觉信息。

这就好比给机器人装上了一双敏锐的“眼睛”,使其能够识别物体的形状、颜色、大小和位置等特征。

为了实现这一目标,需要一系列的硬件设备和软件算法协同工作。

在硬件方面,高分辨率的摄像头是关键组件之一。

这些摄像头能够捕捉到清晰、准确的图像,为后续的处理提供优质的原始数据。

此外,照明系统的设计也至关重要,合适的光照条件可以增强图像的对比度和清晰度,有助于提高物体识别的准确性。

在软件算法方面,图像处理技术是基础。

通过对采集到的图像进行去噪、增强、分割等操作,提取出有用的信息。

特征提取算法则能够从图像中识别出关键的特征点,如边缘、角点等,这些特征对于物体的识别和定位非常重要。

目标检测与识别是机器人视觉测控技术的重要应用之一。

通过训练模型,机器人能够识别出不同的物体,并确定它们在空间中的位置和姿态。

这在工业生产中具有广泛的应用,例如在自动化装配线上,机器人可以准确地抓取和装配零件。

在测量方面,机器人视觉可以实现高精度的尺寸测量和三维建模。

通过多视角的图像采集和处理,能够构建出物体的三维模型,从而获取物体的详细尺寸和形状信息。

这对于质量检测、逆向工程等领域具有重要意义。

在控制方面,机器人视觉测控技术能够实现实时的反馈控制。

例如,在机器人的运动控制中,通过视觉系统实时监测机器人的位置和姿态,与预设的轨迹进行对比,及时调整控制参数,确保机器人的运动精度和稳定性。

近年来,深度学习技术的发展为机器人视觉测控技术带来了新的突破。

基于深度学习的神经网络模型,如卷积神经网络(CNN),在图像识别和目标检测方面取得了显著的成果。

基于ROS的机器人视觉导航系统研究

基于ROS的机器人视觉导航系统研究

基于ROS的机器人视觉导航系统研究现代科技的快速发展,给人们的生活带来了极大的方便。

机器人技术也是其中的一个重要方面,它不仅改变了人们的生活方式,还为各个行业提供了丰富的选择。

在机器人中,机器人的视觉导航系统是非常关键的,因为它可以将机器人有效地引导到指定的地点,实现各种任务。

本文将着重介绍基于ROS的机器人视觉导航系统的研究。

一、ROS机器人系统介绍ROS(Robot Operating System)是一个用于机器人应用程序开发的开源软件框架,它提供了一系列的工具和库,可以使机器人快速、安全、稳定地运行。

ROS的主要特点是分布式架构和模块化设计,可以将一个复杂的系统分解成多个可重用的模块。

ROS 节点:ROS系统中的一个进程,可以与其他节点通信。

ROS消息:用于节点之间传递信息的数据格式。

ROS主题:用于节点之间传递消息的通道。

ROS服务:一种在节点之间进行直接通信的机制,用于调用特定功能。

二、机器人视觉导航系统概述机器人视觉导航系统是一种利用摄像头或激光雷达等传感器,对环境进行三维建模,实现自主移动和定位的智能系统。

机器人在导航时需要实时感知环境,并对环境进行建模与分析,不断更新自身的位置与姿态。

视觉导航系统主要分为三个模块:感知、定位与规划。

其中,感知模块负责采集环境信息,包括图像和深度数据等;定位模块负责确定机器人在环境中的位置和姿态,并不断更新;规划模块负责根据环境地图和机器人位置,生成可行的路径和动作。

三、ROS机器人视觉导航系统的设计ROS机器人视觉导航系统涉及到多个模块,需要结合多种技术和算法,并进行有效的集成。

因此,在设计ROS机器人视觉导航系统时,需要考虑以下几个方面:1.摄像头和激光雷达的选择摄像头和激光雷达是感知模块的核心设备,需要根据具体应用场景的不同选择合适的设备。

一般而言,使用深度相机能够获得更加精确的深度信息,而使用激光雷达能够获取更远距离的距离数据。

在选择设备时,需要综合考虑系统性能和成本等因素。

机器人视觉引导系统设计与实现

机器人视觉引导系统设计与实现

机器人视觉引导系统设计与实现随着科技的飞跃发展,机械制造业、智能电子等领域的需求也在飞速增长。

机器人成为了其中的一种重要设备,并在日常生产和生活中得到广泛应用。

与此同时,伴随着机器人的普及,机器人视觉引导系统的需求也日渐突出。

本文将介绍机器人视觉引导系统的设计和实现,为读者提供值得借鉴的思路。

一、机器人视觉引导系统的概述机器人视觉引导系统是指利用摄像头及其他传感器获取现场信息,通过图像处理和分析技术来控制机器人运动,完成目标任务的系统。

一般机器人视觉引导系统包括四个模块:图像采集模块、图像处理模块、控制算法及执行器模块和人机界面模块。

图像采集模块:主要由摄像头或激光光电传感器等组成,负责对现场环境进行监控和信息采集,将采集到的信息上传至图像处理模块。

图像处理模块:负责对采集的图像进行处理和分析,以提供足够的信息供控制算法和执行器模块使用。

控制算法及执行器模块:是机器人视觉引导系统的核心部分,通过对图像信息进行判断,控制执行器模块进行相应行动。

执行器模块一般由电动机、伺服系统等组成。

人机界面模块:为用户提供机器人的操作界面,用户通过该模块可以对机器人视觉引导系统进行控制、监控、信息反馈等。

二、机器人视觉引导系统的设计思路1、图像采集模块的设计思路图像采集模块在机器人视觉引导系统中的作用极为重要,直接影响后续图像处理模块和控制算法及执行器模块的性能。

因此,在设计过程中应预估好所需的图像质量和数据流量,选定合适的摄像头或激光光电传感器,并确定好其放置位置和角度,以保证图像质量和拍摄范围的完整性。

2、图像处理模块的设计思路图像处理模块是机器人视觉引导系统的“大脑”,对采集的图像进行处理和分析,为后续控制算法和执行器模块提供关键性信息。

图像处理模块设计的核心是选定合适的算法,可根据具体需求选择较为常见的算法如卷积神经网络CNN、支持向量机SVM等,也可根据具体情况选择其他算法或进行算法创新;此外,为提高算法运行效率和稳定性,可采用图像预处理如降噪、均衡化、滤波等操作。

机器人视觉导航及路径规划研究

机器人视觉导航及路径规划研究

机器人视觉导航及路径规划研究一、引言机器人的发展给我们的生活带来了许多便利和惊喜,其中机器人的视觉导航和路径规划技术是影响机器人性能的重要因素之一。

视觉导航(Visual Navigation)是指利用机器视觉技术,通过对环境中的图像进行处理和分析,使机器人在复杂和未知的环境中自主地进行导航。

路径规划(Path Planning)是指根据机器人的起点和终点,并考虑到障碍物和机器人的运动能力,规划一条有效和安全的行动轨迹。

二、机器人视觉导航技术1.机器视觉技术机器视觉技术是指让机器具有人眼类似的能力去理解和分析图像的过程。

它包括图像预处理、特征提取、视觉匹配等过程。

其中,图像预处理是一项基础性工作,通过消除噪点、增强图像对比度等方式,使图像更加易于理解和处理。

而特征提取是指从图像中提取出具有代表性的特征,如边缘线、角点等。

视觉匹配则是将特征进行匹配,确定图像的位置和姿态。

2.基于视觉的定位与导航基于视觉的定位与导航是通过机器人对环境进行感知,利用视觉传感器获取环境信息,然后根据机器人运动模型和环境信息,计算机器人在场景中的位置和姿态。

而视觉导航则是将定位和导航技术结合起来,实现机器人在环境中的有效移动。

基于视觉的定位和导航已经广泛应用于室内和室外的自主导航场景中,如机器人巡逻、仓库巡视等。

三、机器人路径规划技术1.路径规划目标和评价指标机器人路径规划的目标是在保证安全和达到目标点的前提下,规划一条最短或最优的路径。

对于路径优化问题,通常采用评价指标来衡量路径好坏。

主要包括路径长度、路径可行性、路径平滑度等。

2.机器人路径规划算法(1)全局路径规划全局路径规划是指在机器人起点和目标点的基础上,根据环境信息和规划目标,采用优化算法生成一条全局路径。

常用算法包括A*算法、Dijkstra算法、最小生成树算法等。

(2)局部路径规划局部路径规划是指在机器人移动过程中,计算机器人在接下来一段时间内行进的最佳路径。

机器人自主导航方法及应用综述

机器人自主导航方法及应用综述

机器人自主导航方法及应用综述概述机器人的自主导航是指机器人能够在未知或多变的环境中自主地规划路径并实现导航的能力。

这是机器人领域的一个重要研究方向,也是实现智能机器人的关键一环。

本文将对机器人自主导航的方法及应用进行综述。

一、基于传感器的导航方法基于传感器的导航方法是机器人自主导航中常用的方法之一。

该方法通过机器人搭载各种传感器,如激光雷达、摄像头、超声波传感器等,获取周围环境的信息,并根据信息进行路径规划和导航。

1.1 激光雷达导航激光雷达是一种能够通过发射激光束并测量反射回来的信号来感知环境的传感器。

机器人通过激光雷达扫描周围环境,获取环境中物体的距离和方位等信息,并根据这些信息进行路径规划和导航。

激光雷达导航方法在室内环境中表现出较高的精度和可靠性,广泛应用于仓储、清洁等机器人领域。

1.2 视觉导航视觉导航是机器人自主导航中另一种常用方法。

机器人搭载摄像头,并通过图像处理算法对摄像头捕捉到的图像进行分析和识别。

通过识别环境中的特征物体、路标或者地标,机器人可以计算出自身位置并进行路径规划和导航。

视觉导航方法在室外环境或者需要特定标志的室内环境中具有广泛的应用潜力。

二、基于地图的导航方法基于地图的导航方法是另一种常用的机器人自主导航方法。

该方法通过预先构建环境地图,并将地图与机器人的传感器数据进行对比,从而实现机器人的路径规划和导航。

2.1 基于占据地图的导航占据地图是一种常用的环境地图表示方法。

它通过将环境划分为一系列小的网格单元,每个单元表示一个可达或不可达状态,进而构建出环境的地图。

机器人在导航过程中通过传感器数据更新这个地图,并根据地图信息进行路径规划和导航。

2.2 基于拓扑地图的导航拓扑地图是另一种环境地图表示方法。

它通过识别环境中的关键地点和连接关系,构建出地图的拓扑结构。

机器人在导航过程中,通过判断当前所在地点和目标地点之间的关系,从而确定下一步的导航目标。

拓扑地图导航方法在大规模环境中表现出较高的效率和鲁棒性。

机器人视觉导航系统的设计与实现

机器人视觉导航系统的设计与实现

机器人视觉导航系统的设计与实现一、导言近年来,机器人技术的快速发展,为人们带来了更多的便利和创新。

机器人替代人工以及协助人类完成一系列工作的想法也逐渐变成现实。

然而,机器人必须具备感知环境以及做出正确的反应的能力,这就要求机器人必须拥有视觉导航系统作为其最基本的感知模块。

本文就是对机器人视觉导航系统的设计和实现进行详细的阐述,为机器人的研究和实践提供可行的灵感以及理论指导。

二、机器人视觉导航系统设计2.1 机器人感知模式机器人感知模式是机器人视觉导航系统的关键部分之一。

在现实环境中,机器人必须能够感知自己所处的环境。

机器人的感知模式分为主动感知和被动感知两种方式。

主动感知机器人是指可以通过发射光线或电磁波等方式来获取它所处环境的信息;被动感知机器人则通过接受环境向其传递的信息来感知周围环境。

其中,被动感知模式是机器人视觉导航系统中主要的感知模式之一。

机器人通过搭载摄像头或者激光雷达等设备感知周围环境,从而获得环境信息,实现导航功能。

2.2 机器人定位模式机器人定位模式是机器人视觉导航系统的又一个重要组成部分。

本质上,机器人定位模式也是一种感知模式,该模式用来描述机器人在某一时刻自己所处的位置以及朝向。

机器人定位主要分为二维定位和三维定位。

2.3 机器人导航模式机器人导航模式是机器人视觉导航系统中的运动控制模式。

该模式用来描述机器人如何移动并实现自主导航。

机器人导航分为局部导航和全局导航两种方式。

局部导航主要解决机器人如何避开障碍物并实现精确的位置调整,全局导航则主要解决机器人如何规划一条合适的路径来达到目标点。

三、机器人视觉导航系统的实现三、 1 基于激光雷达的SLAM实现SLAM(Simultaneous Localization and Mapping)在机器人相关研究领域中扮演着重要的角色。

其思想是在机器人在未知环境下,同时定位自己的位置并绘制出周围环境的地图。

SLAM常使用激光雷达和摄像头等装置作为主要的感知模式。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

主动工件高
距离
年月
Ζ 方向转角 β 距离误差
5 结语
本文将经典的双目立体视觉方法用于导引机器人插件作业 通过引进人的智慧 以人机交 互方式克服了自动立体视觉计算复杂!鲁棒性差的缺点 实验表明 当两个插件间的缝隙大于
时 该方法是完全可行的 因为机器人插件作业中主动工件和被动工件的模型都是已 知的 还可以利用这些先验知识对立体视觉的计算结果进行优化 我们的仿真实验已经表明这 样可以大大提高立体视觉导引的位姿计算精度 本方法的应用有赖于人机交互效率的提高和 优化图像处理方法 对于虚拟环境下的机器人遥操作具有实际意义
机器人
年月
量 为保证由 Μ ατ提供修正量的正确性 建立在 Ω 下 Α 和 Τ 的空间状态模型是必要的 依靠这 种模型可提供的特征或特征点 域 计算匹配和位姿 以提高三维持位姿计算精度和可靠性
3 3 作业对象模型的建立
假设作业对象由基本模型如长方体!球体!圆柱体
和锥体等组成 由人机交互方式可将任一物体分解为
定的矩形的中心作为主动工件坐标系的原
点 点 指向点 为坐标 ξτ 正方向 点
指向点 为 ψτ 正向 背向被动工件的方向
为 ζτ 正向
立体视觉采用两台 ≤ ≤ ⁄ 配以
镜头 主动工件的宽为
高为
图 机器人插件作业实验
被动工件中孔的宽为
高为
图 给出了视觉导引插件作业的几个视觉处理过程 其中图 为人机交互方式下的边缘
检出结果 图中的方框表示由人给定的检出边缘范围 方框中的白线为检出的边缘 图 为直
线拟合结果 图 为作业对象的相互位姿关系建模结果 图中的十字线表示通过直线相交得
到的顶点 由主动工件指向被动工件的直线表示将主动工件投影到被动工件上 表 给出了一
组实验的几个中间结果 该组实验主动工件在接近被动工件的过程中只有 ζ 方向的位移而没
Ρ ατ
Ρ ατ
Τ ατψ
Ρ ατ
Ρ ατ
Ρ ατ
Τ ατζ
其中 Ρ ατ和 Τ ατ即是在 Ω 下主动工件 Α 与被动工件 Τ 之间相对旋转和位移 Ρ ατ根据 分解成在 Ω 下的三个方向旋转角 Αατ Βατ Χατ
χχ
χσ
σ
χ
Αατ σ
Αατ
Ρ ατ σ σ χ χ σ σ σ σ χ χ σ χ 其中 χ
Βατ σ
Βατ
式可
χ σχ σσ χ σσ σχ χ χ
χ
Χατ σ
Χατ
令≈Αατ Βατ Χατ Τ Ηατ 当 Μ ρω 和 Μ ρα已知时 在 Ω 下的 Τ ατ和 Ηατ可转换为 Ρ 下的移动轨迹参数
以控制机器人完成插件作业 由于 Μ ρω 和 Μ ρα的不确定性 作业时 需要时时由 Μ ατ提供修正
≠2

2•
2
Ρ οβοτιχσ λαβ Σ ηενψανγ Ι νστιτυτε οφ Α υτομ ατιον Χηινεσε Α χαδ εμ ψ οφ Σ χιενχεσ
Αβστραχτ ×




¬∏ 下转第 页
3 插件作业的视觉导引实现方法
首先 通过预标定技术确定 Μ σω !Μ ρω 将双目视觉系统相对世界坐标系的定义在任一个摄 像机坐标系 Μ σω 或相应的图像坐标系上 3 1 建立视觉系统与世界坐标系间的关系
令 Χλ Χρ 分别表示两个图像坐标系与世界坐标系的关系 预标定时 先确定这两个变换矩 阵 则有
有其它方向的位移和旋转 表 给出了另外一组实验的几个中间结果 该组实验主动工件在接
近被动工件的过程中 既有 Ζ 方向的位移又有绕 ζ 方向的旋转
图 视觉处理过程
位置 孔宽
孔高
表 1 第一组实验结果
主动工件宽
主动工件高
距离
Ζ 方向转角 β 距离误差
位置 宽孔
孔高
机器人
表 2 第二组实验结果
主动工件宽
系统 Σ 与世界坐标 Ω 间的关系
3 2 主动工件与被动工件间的位姿关系
建立主动工件与被动工件在 Ω 下的变换关系 Μ αω 和 Μ τω 再将其换算到机器人坐标系下
导引机器人形成动作序列 完成插件作业
Μ αω 和 Μ τω 的确定由立体视觉完成 当作业对象 包括主动工件与被动工件 同时出现在左 右两个像机中时 通过人机交互方式完成 Α 与 Τ 的图像特征点在左右两个图像中的提取和匹 配 然后利用式 计算它们在世界坐标系中的坐标
4 实验结果
我们用于机器人插件作业实验的工件如图 所示 以
三个特征点来描述主动工件
第 卷第 期
郝颖明等 机器人插件作业的视觉导引方法研究
并以该三点所确定的矩形的中心作为主动
工件坐标系的原点 点 指向点 为 ξ α 坐 标正方向 点 指向点 为 ψα 正向 由主 动工件指向被动工件为 ζα 正向 以 三个点来描述被动工件 并以该三点所确
取和匹配的准确性和可靠性!可直观准确地给出插件作业的动作参数 克服了自动视觉计算复杂!鲁
棒性差的缺点 适用于机器人遥操作作业 实验表明 基于人机交互的机器人插件作业在立体视觉导
引下是完全可行的
关键词 机器人 插件作业 视觉导引 立体视觉
中图分类号 × °
文献标识码
1 引言
插件作业是机器人学研究的一个重要内容 旨在研究机器人在典型作业方式下 通过力!
如果可同时求出 Α 与 Τ 的多于 个不在同一平面上的特征点 即可根据旋动算法≈ 求得 二者之间的位姿关系矩阵 Μ ατ以及 Μ αω 和 Μ τω
Μ ατ由一个 ≅ 的旋转矩阵 Ρ Τ ατ和一个 ≅ 的位移矩阵 Ρ ατ构成 即
Ρ ατ
Ρ ατ
Ρ ατ
Τ ατξ
Μ ατ ≈Ρ ατ Τ ατ
Ρ ατ
第 卷第 期 年月
文章编号
2
22
机器人 ΡΟΒΟΤ
∂ ∏
机器人插件作业的视觉导引方法研究Ξ
郝颖明 董再励 王建刚
中国科学院沈阳自动化研究所 中国科学院机器人学开放研究实验室
摘 要 插件作业
是装配机器人的一项基本作业环节 本文介绍了以双目立体视
觉实现该作业的视觉导引方法 该方法通过采用人机交互方式 借助于人的智慧 提高了图像特征提
τλυλ τλϖλ τ Τ
Χλ ξ ω ψω ζω
Τ
τρυρ τρϖρ τρ Τ
Χρ ξ ω ψω ζω
Τ
对于空间任何一点 Π 如果在两个摄像机中成像的图像坐标 υλ ϖλ υρ ϖρ 已知 即可根据 式求得其在世界坐标系中的坐标 ξ ω ψω ζω 这里 Χλ 和 Χρ 可以作为 Μ σω 来使用 建立起视觉
2 1 几个关键坐标系 为建立作业环境和作业对象的模型 首先需要建立几个关键的坐标系 如图 所示 包
括 世界坐标系 Ω ξ ω ψω ζω 机器人坐标系 Ρ ξ ρ ψρ ζρ 主动工件坐标系 Α ξ α ψα ζα 被动 工件坐标系 Τ ξ τ ψτ ζτ 立体视觉坐标系 Σ ξ σ ψσ ζσ 图像坐标系 Ι λ υλ ϖλ Ι ρ υρ ϖρ 在这个 基础上 建立各坐标系之间的相互关系
互的方式实现作业对象的建模 人机交互中人的作用就是确定观测对象在左右图像中的对应
位置 然后用图像处理方法得到匹配点 其实现过程可分为四步 首先通过人机交互的方式选
定图像中各特征边所在的窗口 在选定的窗口中做自动边缘检测和直线或曲线拟合 其次建
模所需的顶点的图像坐标由经过该点的直线或曲线的方程联立求解而得到 然后由人确定左
基本模型的组合 先对物体含有的基本模型建模 然后
组合得到观测作业对象的模型 基本模型的建模 例如
长方体可以用图 所示的
个相邻的顶点来
描述 至于其它基本模型的建模方法 在文献中 有详
细介绍 这里不再赘述
立体视觉的难点在于特征点的匹配 为避免自动 视觉建模计算复杂!鲁棒性差的缺点 我们采用人机交
图 长方体的建模
Ξ 收稿日期
机器人
年月
图 机器人插件作业装置示意图
图 几个关键坐标系
图 各坐标系间的关系
2 2 坐标系间的变换关系
定义各坐标系间的相互关系如图 所示 Μ ρω Ρ 与 Ω 间的关系矩阵 Μ ρα Ρ 与 Α 间的 关系矩阵 Μ αω Α 与 Ω 间的关系矩阵 Μ τω Τ 与 Ω 间的关系矩阵 Μ σα Σ 与 Α 间的关系矩阵 Μ σω Σ 与 Ω 间的关系矩阵 Μ στ Σ 与 Τ 间的关系矩阵 这些变换矩阵都是 ≅ 的矩阵 其中
下标的第一个字母表示源坐标系 第二个字母表示目标坐标系 设源坐标系为 Σ ξ σ ψσ ζσ 目 标坐标系为 Δ ξ δ ψδ ζδ 则有
ξ δ ψδ ζδ Τ
Μ σδ ξ σ ψσ ζσ Τ
此外 尚有图像坐标系与 Σ 和 Ω 的关系等 这些坐标系之间的变换关系在插件作业前应
明确
在某些方法中 简化了机器人插件作业的预处理 直接利用视觉信息计算出 Μ σω !Μ στ和 Μ σα 根据连续的位姿变化规律 建立机器人在 Ω 下的运动模式 再利用视觉信息导引机器人 的插件作业
√ 又提出了一种基
于主动视觉的机器人控制框架 将视觉信息反馈引入机器人装配作业
本文研究了一种实现机器人插件作业的视觉导引方法 如图 所示 该方法中被动工件
放置在固定位置 主动工件由机器人的机械手夹持 双像机固定在三角架上 用于获取工件的
视觉图像 应用立体视觉技术 通过图像采集和数据处理系统 建立作业环境和作 Nhomakorabea对象的局
部立体模型和各坐标系之间的关系 通过坐标变换建立两个工件间的位姿对应关系 进而不断
形成机器人的动作序列 传给机器人控制器 控制机器人实现插件作业
本文首先就建立插件作业的数学模型和关键技术进行讨论 然后给出实现过程 包括图像
相关文档
最新文档