关于Epson机器人视觉引导

合集下载

EPSON机器人视觉培训

EPSON机器人视觉培训

EPSON机器人视觉培训随着科技的不断发展,机器人技术已经成为了现代工业生产中不可或缺的一部分。

作为全球知名的科技企业,EPSON公司一直致力于为全球用户提供更加高效、精确和可靠的机器人解决方案。

为了帮助用户更好地应用EPSON机器人技术,EPSON公司特别推出了机器人视觉培训课程。

EPSON机器人视觉培训课程主要涵盖了机器人视觉系统的基本原理、应用和发展趋势等方面。

通过系统地讲解机器视觉系统的基本组成、工作原理和特点,帮助学员全面了解机器人视觉技术的核心概念和知识。

同时,课程还结合实际案例,深入剖析了机器视觉系统在不同领域的应用场景和优势,让学员更加直观地了解机器视觉技术的实际应用价值。

专业师资:EPSON机器人视觉培训课程由经验丰富的专业教师授课,他们不仅具备扎实的理论功底,而且在实际应用方面也有着丰富的经验。

通过与教师的交流和讨论,学员可以更好地掌握机器人视觉技术的核心知识和技能。

实践操作:课程不仅注重理论知识的传授,还通过实践操作帮助学员更好地掌握机器视觉系统的应用技巧。

学员可以通过实地操作EPSON机器人,深入了解机器人的操作流程和调试方法,提高实际操作能力。

互动学习:课程采用互动式学习模式,鼓励学员与教师进行交流和讨论,分享彼此的经验和见解。

通过这种方式,学员可以更加深入地了解机器人视觉技术的内涵和应用价值,提高学习效果。

全面覆盖:课程涵盖了机器人视觉系统的各个方面,包括硬件组成、软件算法、应用案例等。

通过全面系统的学习,学员可以建立起完整的机器人视觉知识体系,为日后的实际应用打下坚实的基础。

通过EPSON机器人视觉培训课程的学习,学员可以全面掌握机器人视觉技术的原理和应用方法,了解机器视觉系统在不同领域的应用场景和优势,提高实际操作能力和应用水平。

同时,学员还可以建立起完整的机器人视觉知识体系,为日后的实际应用打下坚实的基础。

EPSON机器人视觉培训课程是EPSON公司为全球用户提供的专业培训课程之一。

机器人视觉引导理论基础精选全文完整版

机器人视觉引导理论基础精选全文完整版
P2在机器人坐标系下的值:PW 2 PW1 (P2 P1)
《机器视觉技术与应用实战》
第一节 机器人2D引导视觉
坐标的旋转偏移:当定位的Mark点与机器人的旋转中心不重合时,如图所示,Mark点随着旋转中心旋转时, Mark点的XY坐标也会发生改变
坐标旋转偏移坐标关系示意图
假设P1点为旋转中心: P3点为P2点绕P1点旋转一定角度之后的位置; 在已知P1点、P2点坐标和旋转角度时,就可以通过几何公
(camH base
),再通过3D匹配得到
产品对象在相机坐标系位置
H cam obj
,最后根据坐标转换计算产品对象在机器人基坐标系位

H base obj
。综合计算对象/产品在机器人的相对坐标位置时,还要考虑3D传感器的安装方式,
目前有3D传感器固定在机器人末端和相机固定位置安装两种形式。
《机器视觉技术与应用实战》
(a)相机安装在机器人末端
(a)相机安装在机器人末端
《机器视觉技术与应用实战》
第一节 机器人2D引导视觉
相对位置标定完成后的图像坐标系与机器人坐标系关系如图所示,XY轴平行,原点不重合。
备注:(Xw,Yw)表示机器人坐标系 (X1,Y1)表示相机坐标系 相机坐标与机器人坐标标定的前后关系图
《机器视觉技术与应用实战》
根据
cam H
cal
=
H cam base
·
baseH
tool
·
ba se H
cal
,即可以求出
H cam base

各个坐标系位置图
《机器视觉技术与应用实战》
第二节 机器人3D引导视觉
(三)3D定位识别
3D定位,主要是对采集到的点运数据,利用3D模板对点云数据进行搜索从而匹配得到产品的空间坐标位置。

机器人视觉引导系统设计与实现

机器人视觉引导系统设计与实现

机器人视觉引导系统设计与实现摘要:本文介绍了机器人视觉引导系统的设计与实现。

机器人视觉引导系统是一种利用计算机视觉技术和机器学习算法,将机器人的感知能力与导航能力相结合,实现对环境的感知和路径规划,以达到引导机器人在复杂环境中准确导航的目的。

本文首先介绍了机器人视觉引导系统的应用背景和意义,然后详细阐述了系统的总体设计思路和关键技术,包括环境感知、目标检测与识别、路径规划与导航等模块的设计要点和实现方法。

最后,本文对系统的实验结果进行了评估与分析,并对未来的研究方向进行了展望。

1. 引言机器人视觉引导系统是一种利用计算机视觉和机器学习技术,使机器人能够准确感知环境并规划路径来引导机器人在复杂环境中进行导航的系统。

该系统在工业生产、服务机器人等领域具有广阔的应用前景。

2. 系统总体设计思路机器人视觉引导系统的总体设计思路包括环境感知、目标检测与识别、路径规划与导航三个核心模块。

2.1 环境感知环境感知是机器人视觉引导系统的基础,主要通过激光雷达、相机等传感器获取环境中的各种数据,并对数据进行处理和分析。

其中,激光雷达主要用于获取环境的几何信息,比如障碍物的位置和形状;相机则用于获取环境的图像信息,通过对图像的处理和分析可以提取目标物体的特征。

2.2 目标检测与识别目标检测与识别是机器人视觉引导系统的核心技术之一,通过对环境中的图像进行处理和分析,可以检测并识别出目标物体,比如人、物体等。

在目标检测和识别的过程中,可以采用传统的机器学习算法,比如支持向量机和随机森林,也可以采用深度学习算法,比如卷积神经网络。

2.3 路径规划与导航路径规划与导航是机器人视觉引导系统的核心技术之二,通过对环境中的障碍物位置和形状进行分析和处理,可以规划出一条安全且有效的路径来引导机器人进行导航。

在路径规划和导航的过程中,可以采用传统的规划算法,比如A*算法和Dijkstra算法,也可以采用深度强化学习算法,比如深度Q网络。

2024版02060_EPSON机器人视觉培训讲座教学PPT课件

2024版02060_EPSON机器人视觉培训讲座教学PPT课件

EPSON机器人视觉培训讲座教学PPT课件REPORTING2023 WORK SUMMARY目录•EPSON机器人视觉概述•EPSON机器人视觉系统组成•EPSON机器人视觉图像处理技术•EPSON机器人视觉识别与定位技术•EPSON机器人视觉检测与测量技术•EPSON机器人视觉系统集成与应用案例PART01 EPSON机器人视觉概述EPSON机器人视觉定义与发展定义EPSON机器人视觉是EPSON公司研发的一种基于图像处理和计算机视觉技术的自动化检测系统,旨在通过模拟人类视觉功能,实现对物体形状、颜色、纹理等特征的识别、定位和测量。

发展历程自20世纪80年代起,EPSON开始致力于机器人视觉技术的研究与应用。

随着计算机技术和图像处理技术的不断发展,EPSON机器人视觉系统逐渐实现了从二维到三维、从静态到动态、从单一到多元的检测与识别能力。

智能家居在家庭环境中,EPSON 机器人视觉技术可实现家居设备的自动识别和控制、家庭安全的自动监控和报警等,提高家居生活的便捷性和安全性。

工业制造在自动化生产线中,EPSON 机器人视觉系统可用于零部件的自动识别和定位、产品质量的自动检测等,提高生产效率和产品质量。

物流仓储在智能仓储系统中,EPSON 机器人视觉技术可实现货物的自动识别和分类、库位的自动规划和优化等,提高物流效率和准确性。

医疗卫生EPSON 机器人视觉系统可用于医疗影像的自动分析和诊断、手术机器人的自动导航和定位等,提高医疗水平和效率。

高精度识别高速处理灵活配置易用性EPSON机器人视觉系统采用先进的图像处理和计算机视觉算法,可实现高精度的物体识别和定位。

EPSON机器人视觉系统支持多种硬件配置和软件定制,可根据用户需求进行灵活配置和扩展。

EPSON机器人视觉系统具备高性能的计算能力,可实现高速的图像处理和数据分析。

EPSON机器人视觉系统提供友好的用户界面和简单易用的操作方式,方便用户进行使用和维护。

机械制造行业的机器人视觉引导技术

机械制造行业的机器人视觉引导技术

机械制造行业的机器人视觉引导技术机器人在现代制造业中发挥着越来越重要的作用,成为提高生产效率、减少劳动力成本的重要工具。

而机器人视觉引导技术作为机器人的一项关键技术,更是在各个领域得到广泛应用。

本文将介绍机械制造行业中机器人视觉引导技术的应用和发展。

一、机器人视觉引导技术的概念和定义机器人视觉引导技术是指通过摄像头、传感器等设备获取图像信息,并通过图像处理、特征识别等算法对图像进行分析和处理,从而引导机器人进行定位、识别、测量等操作的技术。

它可以帮助机器人实现准确定位、精确操作等功能,提高机器人的智能化水平,克服传统机器人只能进行简单重复任务的局限性。

二、机器人视觉引导技术在机械制造行业中的应用1. 零件识别和装配机器人视觉引导技术可以对零件进行识别和分类,根据产品规格进行准确装配。

通过摄像头获取零件图像,利用图像处理算法提取关键特征,确定零件的位置和姿态,并引导机器人进行自动装配。

这样可以提高装配的准确性和效率,并减少人工操作的成本。

2. 检测与质量控制利用机器人视觉引导技术,可以对产品进行自动检测和质量控制。

通过摄像头获取产品图像,对产品进行形状、尺寸、表面缺陷等方面的检测,并利用图像处理算法进行分析和判断。

在生产过程中,机器人可以根据检测结果进行分类、剔除次品产品,从而提高产品质量和减少不良品率。

3. 导航与定位在机械制造过程中,机器人需要进行精确定位和导航,以完成需要进行操作的工作。

机器人视觉引导技术通过对环境进行感知和分析,可以实现机器人的自主导航和定位。

通过识别地标或场景中的特征,机器人可以准确地确定自己的位置,并规划合适的行动路径,提高工作效率和安全性。

4. 手眼协调机器人视觉引导技术还可以实现机器人的手眼协调功能,在执行复杂任务时,机器人可以通过视觉引导实现手部和眼部的精确协调。

例如,在装配过程中,机器人可以通过视觉引导来确定零件的位置和姿态,然后调整手部的姿态和力度,实现精确的装配。

视觉引导机器人原理-概述说明以及解释

视觉引导机器人原理-概述说明以及解释

视觉引导机器人原理-概述说明以及解释1.引言1.1 概述在当今科技快速发展的时代,机器人技术已经在各个领域得到广泛应用,机器人的视觉引导技术更是其中的重要组成部分。

视觉引导机器人是一种能够通过视觉感知环境并作出相应行动的智能机器人,其原理是通过摄像头捕捉环境中的图像,通过图像处理算法识别物体、场景等信息,为机器人提供导航、避障、抓取等功能。

视觉引导机器人的出现,极大地拓展了机器人在各行各业的应用范围,例如在工业生产中用于自动化生产线、在医疗领域用于手术辅助、在农业领域用于植物识别等。

同时,视觉引导机器人也在无人驾驶汽车、无人机等领域得到广泛应用,为人类生活带来了便利和安全。

本文将从机器人视觉技术概述、视觉引导原理、视觉引导在机器人中的应用等方面进行探讨,旨在深入了解视觉引导机器人的重要性以及展望未来发展方向。

1.2 文章结构文章结构部分的内容:本文主要分为引言、正文和结论三部分。

在引言部分,会概述整篇文章的主题及重要性,介绍文章的结构和目的,引导读者对本文内容有一个整体的了解。

正文部分包括三个部分:机器人视觉技术概述、视觉引导原理以及视觉引导在机器人中的应用。

其中机器人视觉技术概述部分将介绍机器人视觉技术的基本概念和发展历程,为后续内容打下基础;视觉引导原理部分将详细解释视觉引导的工作原理,包括影像处理、目标检测和跟踪等技术原理;视觉引导在机器人中的应用部分将展示视觉引导技术在不同类型机器人中的实际应用场景和效果。

最后,在结论部分将对整篇文章进行总结,强调视觉引导机器人的重要性,并展望未来发展方向,以及对本文的结论做出概括性的总结。

整篇文章的结构清晰,内容完整,旨在帮助读者深入了解和掌握视觉引导机器人的原理和应用。

1.3 目的视觉引导机器人是一种利用摄像头和视觉算法来对周围环境进行感知和导航的智能系统。

本文旨在探讨视觉引导机器人的原理,分析其在现代工业和科技领域中的重要性与应用场景。

通过深入了解视觉引导机器人的工作原理和技术特点,可以帮助我们更好地认识和理解这一前沿科技的发展现状和未来趋势,为实现机器人在自动化生产、智能驾驶等领域的更广泛应用提供理论支持和技术指导。

2024年EPSON机器人视觉培训(多应用)

EPSON机器人视觉培训(多应用)EPSON视觉培训一、引言随着工业4.0的深入推进,视觉技术在工业自动化领域中的应用越来越广泛。

EPSON作为全球领先的工业制造商,其视觉系统具有高精度、高速度、高稳定性等特点,为我国制造业的转型升级提供了有力支持。

为了使广大用户更好地了解和掌握EPSON视觉技术,本文将对EPSON视觉培训进行详细介绍。

二、EPSON视觉系统简介1.高精度:EPSON视觉系统采用先进的图像处理算法,能够实现高精度的图像识别和定位。

2.高速度:EPSON视觉系统具有快速图像处理能力,能够满足高速生产线的需求。

3.高稳定性:EPSON视觉系统采用稳定的硬件平台和成熟的软件算法,确保系统长期稳定运行。

4.易于集成:EPSON视觉系统可以方便地与其他自动化设备集成,实现完整的自动化解决方案。

三、EPSON视觉培训内容1.视觉系统原理:介绍视觉系统的基本原理,包括图像传感器、光源、镜头等组成部分,以及图像处理的基本流程。

2.视觉系统硬件:介绍EPSON视觉系统的硬件组成,包括视觉传感器、图像处理单元、控制器等。

3.视觉系统软件:介绍EPSON视觉系统的软件组成,包括视觉处理软件、编程软件等。

4.视觉系统应用:通过实际案例,介绍EPSON视觉系统在工业自动化领域的应用,如组装、检测、搬运等。

5.视觉系统调试与优化:介绍视觉系统的调试方法和优化技巧,提高视觉系统的性能和稳定性。

6.视觉系统维护与故障排除:介绍视觉系统的日常维护方法和常见故障的排除方法。

四、EPSON视觉培训形式EPSON视觉培训采用理论教学与实践操作相结合的方式,具体包括:1.理论课程:通过PPT讲解、视频演示等形式,使学员掌握视觉系统的基本原理和操作方法。

2.实践操作:学员在培训讲师的指导下,进行视觉系统的实际操作,包括硬件连接、软件配置、程序编写等。

3.案例分析:通过分析实际案例,使学员了解视觉系统在不同场景下的应用方法。

视觉引导系统在无人机导航中的应用

视觉引导系统在无人机导航中的应用无人机(Unmanned Aerial Vehicle,简称无人机)作为一种新型的飞行器,近年来在各个领域得到广泛的应用。

为了提高无人机导航的安全性和精确性,视觉引导系统的运用变得越来越重要。

视觉引导系统通过图像识别和处理技术,能够帮助无人机准确定位、规避障碍物、执行任务等。

首先,视觉引导系统在无人机导航中能够提供精确的定位信息。

无人机通过搭载摄像头或激光雷达等设备,能够获取周围环境的图像和相关数据。

利用图像处理算法,无人机可以识别并提取出关键地标物体,如建筑物、道路、水域等,进而辅助进行定位。

与传统的GPS定位相比,视觉引导系统能够在室内或密集建筑区域等无法接收到GPS信号的环境中提供更精确的定位。

其次,视觉引导系统能够帮助无人机避开障碍物。

传统的避障技术主要依靠雷达或红外线传感器等设备进行测距,然而这些设备对于障碍物的识别和分辨率有一定的限制。

而视觉引导系统通过实时采集图像,并利用图像处理技术进行障碍物分析和识别,可以更准确地探测和定位障碍物。

通过实时控制无人机的航向和高度,视觉引导系统能够使无人机自动避开障碍物,并保证导航的安全性。

此外,视觉引导系统在无人机导航中还可以执行特定的任务。

无人机在农业、环境监测、物流等领域有着广泛的应用,而视觉引导系统的运用可以使无人机更加智能化地执行任务。

例如,在农业领域,通过图像识别技术,无人机能够检测作物的生长状况、病虫害情况等,从而提供精准的农业管理方案。

在物流领域,视觉引导系统能够识别货物并精确投放,提高物流效率和准确性。

然而,视觉引导系统在无人机导航中也存在一些挑战和限制。

首先,图像算法的性能和深度学习模型的训练需要大量的计算资源和时间。

此外,复杂的环境和光线条件可能会影响图像的质量和识别准确性。

此外,风、雨、雾等天气条件也会影响视觉引导系统的工作效果。

为应对这些挑战,无人机导航中的视觉引导系统需要结合多种传感器,如红外线、超声波等,来提供更全面和可靠的导航信息。

机器人视觉引导技术研究及应用

机器人视觉引导技术研究及应用机器人技术已经在各行各业内发挥着越来越大的作用,而机器人视觉引导技术就是其中的重要组成部分之一。

机器人视觉引导技术可以将机器人的感知能力与控制系统相结合,实现机器人自主地完成精细操作。

在制造、医疗、军事、家庭服务等领域都有着广泛的应用。

机器人视觉引导技术的发展历程随着传感器、计算机及成像技术的不断进步,机器人视觉引导技术也不断发展。

从最初的基于机器人点云的三维重建,到后来的深度学习技术和图像识别技术的应用,机器人的感知能力得到了大大提高。

在发展过程中,机器人视觉引导技术的应用也日益广泛。

在制造领域,机器人视觉引导技术可用于自动化装配、品质检查等任务;在医疗领域,机器人视觉引导技术可以进行手术辅助、疾病诊断等工作;在军事领域,则可以用于无人机、卫星等无人攻击系统的精确定位与识别。

机器人视觉引导技术的实现原理机器人视觉引导技术是将机器人的感知能力与控制系统相结合,让机器人自主地完成某些任务。

其基本实现原理是通过机器视觉算法对图像进行处理,从而实现对物体的识别、定位和跟踪等功能。

这里需要提到的是深度学习技术。

深度学习技术是一种基于人工神经网络的机器学习技术,能够对海量数据进行学习和模式识别,进而实现人工智能。

机器人视觉引导技术所用到的图像识别、目标识别等基础算法,都是基于深度学习技术实现的。

机器人视觉引导技术的应用案例机器人视觉引导技术在各领域的应用已经越来越广泛,下面列举几个具体的应用案例。

1. 精密加工领域机器人视觉引导技术可以用于精密加工领域的机器人操作。

例如,利用机器人进行对铝型材的切割和加工,需将铝型材进行三维重建后再进行定位和跟踪,并且进行精度误差的校准。

2. 军事领域机器人视觉引导技术可以用于无人机、卫星等无人攻击系统的精确定位与识别。

例如,在无人机上安装相机进行图像采集,再通过图像识别技术,可以对特定目标进行自动定位和跟踪。

3. 家庭服务领域机器人视觉引导技术可以用于家庭服务领域。

EPSON机器人视觉培训


图像采集设备选型及参数设置
选型原则
根据应用场景和需求,选择适合的相机类型(如工业相机 、智能相机等)、传感器类型(如CCD、CMOS等)以及 分辨率、帧率等关键参数。
参数设置
针对选定的图像采集设备,进行详细的参数设置,包括曝 光时间、增益、白平衡、色彩空间等,以获得最佳的图像 质量。
设备调试
在实际应用中,对图像采集设备进行调试和优化,确保图 像采集的稳定性和准确性。
04
机器人视觉定位与导航技术
基于视觉的定位方法
特征点提取与匹配
01
利用图像处理技术提取环境中的特征点,并通过匹配算法确定
机器人在环境中的位置。
深度学习定位
02
利用深度学习技术训练模型,使机器人能够通过视觉信息识别
自身位置。
视觉里程计
03
通过连续拍摄图像并计算相邻图像间的变化,推算出机器人的
移动距离和方向。
SLAM技术在机器人视觉中的应用
激光SLAM
利用激光雷达获取环境信息,结合SLAM算法实现机器人的定位 和地图构建。
视觉SLAM
通过摄像头获取环境图像信息,结合SLAM算法实现机器人的定位 和地图构建。
多传感器融合SLAM
融合多种传感器信息,如摄像头、激光雷达等,提高SLAM系统的 鲁棒性和精度。
缺陷识别
EPSON机器人视觉系统能够识别产品中的缺陷和不良品,实现 自动分拣和剔除,提高生产效率和产品质量。
06
EPSON机器人视觉编程与开发实 践
开发环境搭建及工具介绍
01
安装EPSON机器人视觉开发软件
包括EPSON Robot Vision Guide和EPSON RC+等软件开发工具。
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1、建立TCPIP通信,从视觉系统获取可使用的像素坐标字符串,一般机器人控制器作为客户端client,而视觉系统作为server。

涉及指令【OpenNet WaitNet LineInput Print # Parsestr Val】Function TCPIPOpenNet #201 As ClientWaitNet #201LineInput #201……Parsestr…………..FEND2、确定相机的安装位置,此处以相机安装在#4 joint为例子,此时吸嘴也不在原来的Tool0中心,所以此时需要确立新的两个坐标系,此中最必要的是确立吸嘴的工具坐标系Tool1,在机器人控制中的工具坐标系向导进行示教保存,这是前期必要的准备工作。

3、有了以上步骤作为辅助后,根据Epson视觉标定的需求,具体见VxClib函数,需要9个机器人坐标系下的点,总而言之就是,在新建的Tool1下示教9个点,且获取这九个点下的像素坐标,这样的就可以生成具体的视觉标定caa文件了涉及指令【VxClib LoadPoints SavePoints VxCalSav VxCalInfo】4、利用上面生成的标定caa文件就可以进行之后的操作了,标定文件是之后坐标转换的基准,也就是说,像素坐标对应的机器人坐标均由此产生。

涉及指令【VxCalLoad VxTrans XY CX CY CZ CU CV CW】5、基于以上步骤,要注意实际运行时工具的选用,以免造成工具坐标系的不匹配而位置错误6、关机触发拍照,最好使用视觉系统触发,这样的话配合内部存储IO指令指令即可形成循环的逻辑判断,知道相机的进程,以及对拍照失败等情况做出反应7、其他需要注意的地方是程序的容错性,不能中途进行不下去就一直等待或者没有别的相应操作,全局变量和局部变量的使用'该项目中相机固定在机器人的4#轴上,为移动相机,利用相机拍照识别托盘中的工件'放在一固定的模具内,每次放置为角度位置确保一致Global String pixel_string$;Global String rec_string$(10);Global Real data_x, data_y, data_u;Integer camara_id;Function main'Call intializationCall TCPIPCall creat_calib_dataCall point_transCall workingFend'初始化Function intializationIf Motor = Off ThenMotor OnEndIfSpeedS 500; AccelS 1000, 1000Home; Reset;Power High; Speed 60; Accel 60, 60SpeedS 500; AccelS 1000, 1000Fend'[点位的对应关系,计算出来的是否足够准确]'创建标定数据,准备好标定需要的像素坐标,机械坐标各9个点,[参考点的使用与否]Function creat_calib_dataInteger i, j, k;Real info(10);LoadPoints ""Pallet 1, robot_cal1, robot_cal3, robot_cal7, robot_cal9, 3, 3'生成9个机器人坐标点P20-P28,换顺序For i = 1 To 9P(i + 19) = Pallet(1, i)Next iP13 = Pallet(1, 6)P15 = Pallet(1, 4)SavePoints ""'基于刚才生成的9个机器人坐标点,拍照9次,获取对应点的像素坐标P10-P18For j = 20 To 28Go P(j)On light1, ; On camara1, '执行拍照Call parsestr_str '拍完照后进行解析P(j - 10) = XY(data_x, data_y, 0, data_u)Print "P(j-10)", P(j - 10)Next jSavePoints ""'开始生成标定数据'vxcalib 0[1-15标定数据ID号],5[安装方式:mobile on joint#4],P[指定的像素坐标xy only],P[指定的机器人坐标],P[参考点,也不一定要]VxCalib 0, 5, P(10:18), P(20:28), P9If (VxCalInfo(0, 1) = True) ThenFor k = 0 To 7info(k) = VxCalInfo(0, k + 2)Next kPrint "Calibration_0 result:"Print "X Avg Error [mm]:", info(0)Print "X Max error [mm]:", info(1)Print "X mm per pixel [mm]:", info(2)Print "X tilt [deg]:", info(3)Print "Y Avg error [mm]:", info(4)Print "Y Max error [mm]:", info(5)Print "Y mm per pixel [mm]:", info(6)Print "Y tilt [deg]", info(7)ElsePrint "calibration failed!"EndIfVxCalSave ""Fend'创建TCP/IP通信,解析发送来的像素坐标字符串Function TCPIPpixel_string$ = "12000,,2121212,";OpenNet #201 As ClientPrint "waiting for connect"WaitNet #201Print #201, "test"; Print "test"Print "connection success"Line Input #201, pixel_string$Print "Receive info: ", pixel_string$ParseStr pixel_string$, rec_string$(), ","data_x = Val(rec_string$(0))data_y = Val(rec_string$(1))data_u = Val(rec_string$(2))FendFunction parsestr_strLine Input #201, pixel_string$Print "receive info :", pixel_string$ParseStr pixel_string$, rec_string$(), ","data_x = Val(rec_string$(0))data_y = Val(rec_string$(1))data_u = Val(rec_string$(2))FendFunction vision_crl(camara_id As Integer) OpenNet #202 As Client;WaitNet #202;If camara_id = 0 ThenOn light1, ; Print #202, "C1";;EndIfIf camara_id = 1 ThenOn light2, ; Print #202, "C2";EndIfLine Input #202, pixel_string$Print "receive info :", pixel_string$ParseStr pixel_string$, rec_string$(), ","data_x = Val(rec_string$(0))data_y = Val(rec_string$(1))data_u = Val(rec_string$(2))Fend'坐标转换,根据标定数据,将像素坐标转换为机器人坐标Function point_trans'只是用转化后的XY值,高度Z值进行人为指定,角度U值进行偏移处理VxCalLoad "";P30 = XY(data_x, data_y, 0, 0)Tool 2;P31 = VxTrans(0, P30)P31 = XY(CX(P31), CY(P31), -50, data_u) '吸料点坐标P32 = XY(CX(P31), CY(P31), 0, data_u) '吸料上方点坐标'P33 = XY(CX(P31), CY(P31), -50, data_u) '模具放料点坐标P34 = XY(CX(P31), CY(P31), 0, data_u) '模具上方点坐标SavePoints ""Fend'工艺流程程序Function workingInteger l;Pallet 2, robot_cal1, robot_cal3, robot_cal7, robot_cal7, 3, 3;For l = 1 To 9Go Pallet(2, 1); On light1, ; On camara1, ; '前往指定点拍照Call parsestr_str(0);Call point_trans;Call parsestr_str(1);Call point_trans;Go P31; On vocaum; Go P32; '校正姿态取料Go P33 ! D20; On light1, ; On camara1, !;Off vocaum; Go P34; '前往固定模具处放料Next lFend'拍照的时候仍然要注意的是要检测模具处究竟有没有物料,模具上放置点的圆心位置也是通过'拍照发送过来的,这样的话每次来说要移动的仅仅是工具中心的位置,把整体当做工具中心'那么基于规律,发过来的角度用于放置工件时的计算,因为不同角度过来的姿态都是根据0度调整而来的'控制拍照的方法,最好是一直执行的,但是要有衔接,这样就涉及内存IO的同步,也就是标志位'把拍照选择分支写在前面,字符串处理写在后面。

相关文档
最新文档