小杨说事-基于海康机器视觉算法平台的对位贴合项目个人理解

合集下载

机械视觉实训报告范文(3篇)

机械视觉实训报告范文(3篇)

第1篇一、实训背景与目的随着科技的飞速发展,机械视觉技术在工业自动化、机器人、安防监控等领域得到了广泛应用。

为了提高学生对机械视觉技术的理解与应用能力,本实训旨在通过理论学习和实践操作,使学生掌握机械视觉的基本原理、系统设计以及在实际工程中的应用。

二、实训内容1. 机械视觉基本原理- 光学成像原理- 数字图像处理基础- 图像识别与特征提取- 深度学习与机器学习在机械视觉中的应用2. 机械视觉系统设计- 系统架构设计- 摄像头选择与标定- 照明系统设计- 图像预处理与增强- 目标检测与跟踪3. 实践操作- 实验平台搭建- 软件编程与调试- 实验数据采集与分析- 实验结果验证与优化三、实训过程1. 理论学习- 通过课堂讲解、文献阅读等方式,系统学习机械视觉的基本原理、系统设计等相关知识。

- 掌握图像处理、模式识别、机器学习等基础理论。

2. 实验平台搭建- 选择合适的实验平台,如计算机视觉开发板、机器人等。

- 搭建实验环境,包括摄像头、光源、图像采集卡等硬件设备。

3. 软件编程与调试- 使用OpenCV、MATLAB等软件进行图像处理、特征提取等操作。

- 调试程序,确保程序运行稳定、准确。

4. 实验数据采集与分析- 设计实验方案,采集实验数据。

- 对采集到的数据进行预处理、增强、特征提取等操作。

- 分析实验结果,验证实验方案的有效性。

5. 实验结果验证与优化- 根据实验结果,对实验方案进行优化。

- 比较不同算法的性能,选择最优方案。

四、实训成果1. 理论知识掌握- 学生掌握了机械视觉的基本原理、系统设计等相关知识。

- 掌握了图像处理、模式识别、机器学习等基础理论。

2. 实践操作能力- 学生能够独立搭建实验平台,进行软件编程与调试。

- 能够对实验数据进行采集、处理和分析。

3. 创新能力- 学生在实验过程中,提出了多种优化方案,提高了实验效果。

- 结合实际应用,设计了具有创新性的实验方案。

五、实训总结1. 实训收获- 通过本次实训,学生对机械视觉技术有了更深入的理解,提高了实践操作能力。

列举1~2个机器视觉应用案例,并解释其工作原理。

列举1~2个机器视觉应用案例,并解释其工作原理。

机器视觉技术是一种能够使机器“看”的技术,通过摄像头、图像处理器和相关的算法,使机器能够模拟人眼的功能,实现对物体、场景等视觉信息的感知和理解。

在众多领域中,机器视觉技术都得到了广泛的应用,本文将结合实际案例,介绍机器视觉技术在工业和医疗领域中的应用,并阐述其工作原理。

一、工业领域中的机器视觉应用案例1. 自动化生产线中的质量检测在工业生产中,产品质量的稳定性和一致性对于企业的生产效率和产品质量都至关重要。

传统的质量检测需要大量的人力和时间,而且不够准确,难以满足大规模工业生产需求。

机器视觉技术的应用,可以实现对产品表面、尺寸、外观等多个维度的快速检测,大大提高了检测效率和准确性。

具体工作原理是通过摄像头获取产品的图像信息,然后借助图像处理算法对图像进行分析和处理,最终实现对产品各项指标的检测和评估。

2. 无人驾驶车辆中的视觉感知技术无人驾驶汽车作为近年来智能交通领域的一项重要技术突破,其中的视觉感知技术是实现无人驾驶的重要一环。

通过激光雷达、摄像头等设备,无人驾驶汽车可以实时感知周围环境的图像信息,包括道路、交通标志、车辆、行人等,然后利用机器学习和深度学习算法对这些图像信息进行分析和理解,从而实现车辆的自主导航和智能决策。

这一技术的应用,将对未来交通、出行和城市规划等领域产生深远的影响。

二、医疗领域中的机器视觉应用案例1. 医学影像诊断在医学影像诊断领域,机器视觉技术发挥了巨大作用。

医学影像如CT、MRI等传统上需要医生凭借经验和专业知识进行诊断,费时费力且存在一定主观性,而引入机器视觉技术后,可以实现对医学影像的自动分析和诊断,辅助医生进行更准确、更快速的临床诊断。

其工作原理是通过机器学习算法对大量医学影像数据进行学习和训练,从而建立起对各种疾病、病变的自动识别和分析能力,大大提高了医学影像诊断的准确性和效率。

2. 手术辅助系统在微创手术和精准手术领域,机器视觉技术的应用也成为了一大亮点。

基于OpenCV的视觉SLAM算法研究与实现

基于OpenCV的视觉SLAM算法研究与实现

基于OpenCV的视觉SLAM算法研究与实现SLAM(Simultaneous Localization and Mapping)即同时定位与地图构建,是指机器人或无人系统在未知环境中实现自身定位和环境地图构建的过程。

视觉SLAM是一种基于视觉传感器(如摄像头)进行定位和地图构建的技术,近年来得到了广泛的关注和研究。

本文将重点探讨基于OpenCV的视觉SLAM算法研究与实现。

一、SLAM技术概述SLAM技术是机器人领域中的核心问题之一,它要求机器人在未知环境中实现自身的定位和地图构建,这对于机器人导航、环境感知等任务至关重要。

传统的SLAM方法主要基于激光雷达、惯性测量单元(IMU)等传感器,而视觉SLAM则是利用摄像头等视觉传感器获取环境信息进行定位和地图构建。

二、OpenCV简介OpenCV是一个开源的计算机视觉库,提供了丰富的图像处理和计算机视觉算法。

由于其功能强大、易用性高以及跨平台特性,OpenCV 被广泛应用于各种计算机视觉任务中,包括SLAM算法的研究与实现。

三、视觉SLAM算法原理视觉SLAM算法主要包括特征提取与匹配、相机姿态估计、地图构建等步骤。

在基于OpenCV的视觉SLAM算法中,通常会使用特征点(如SIFT、SURF、ORB等)进行特征提取,并通过特征匹配来估计相邻帧之间的相机运动,进而实现定位和地图构建。

四、基于OpenCV的视觉SLAM算法实现1. 数据预处理在实现视觉SLAM算法之前,首先需要准备好相机采集的图像数据,并对图像进行去畸变、降噪等预处理操作,以提高后续特征提取和匹配的准确性。

2. 特征提取与匹配利用OpenCV提供的特征提取算法(如ORB特征)从图像中提取关键点,并计算它们的描述子。

然后通过特征匹配算法(如基于暴力匹配或FLANN匹配)找到相邻帧之间的对应关系。

3. 相机姿态估计通过对特征点进行三角化,结合PnP(Perspective-n-Point)等方法估计相机的姿态变换,即相机在不同帧之间的运动信息。

2024 机器视觉与plc配合

2024      机器视觉与plc配合

2024 机器视觉与plc配合2024年,机器视觉与PLC(可编程逻辑控制器)的配合已经成为工业领域的一种常见实践。

随着技术的不断发展和创新,机器视觉系统与PLC的集成应用为企业提供了更高效、精确和可靠的生产解决方案。

在生产线上,机器视觉系统能够通过高分辨率的摄像头和先进的图像处理算法,实时地捕捉和分析产品的特征和质量。

通过与PLC的连接,机器视觉系统可以将检测结果和分析数据直接传输给PLC进行进一步的处理和决策。

具体来说,机器视觉系统可以通过PLC控制机械手臂、传送带等设备,实现自动化的产品检测、分拣和装配。

例如,当机器视觉系统检测到产品存在缺陷或错误装配时,它可以即时发送信号给PLC,PLC就会通过控制机械手臂将该产品从生产线上移除或进行修复。

此外,机器视觉系统与PLC的结合还能提高生产过程的稳定性和一致性。

机器视觉系统可以对生产环境进行监测,如温度、湿度、光照等参数,并将数据传输给PLC进行实时调控。

这样,PLC可以根据机器视觉系统提供的信息调整生产参数,确保产品的质量和一致性。

在制造业中,机器视觉系统与PLC的配合还可以优化生产效率和降低成本。

例如,通过机器视觉系统的帮助,PLC可以实时调整生产速度和工艺参数,以适应不同产品的要求。

同时,机器视觉系统可以准确地检测和计量原材料的使用量,帮助企业避免浪费和减少成本。

综上所述,机器视觉系统与PLC的配合将成为未来工业领域的重要趋势。

通过集成应用,企业可以实现自动化、精确和高效的生产过程,提高产品质量和降低生产成本。

这将为企业带来巨大的竞争优势和发展机会。

基于机器视觉的货物识别系统算法优化研究

基于机器视觉的货物识别系统算法优化研究

基于机器视觉的货物识别系统算法优化研究摘要:随着物流行业的快速发展,货物识别系统在自动化和智能化领域中扮演着重要的角色。

本文旨在针对基于机器视觉的货物识别系统中的算法优化问题展开研究。

首先,介绍了机器视觉的基本原理和应用背景。

随后,详细探讨了货物识别系统中常用的算法,并分析了各自的优缺点。

在此基础上,提出了一种基于深度学习的算法优化方案,并对其进行了实验验证。

实验结果表明,改进后的算法在货物识别准确率和处理速度等方面都有显著提高。

最后,对该研究的局限性和未来发展方向进行了讨论。

关键词:机器视觉、货物识别、算法优化、深度学习、准确率、处理速度1. 引言货物识别系统是物流行业中的重要组成部分,其目的是通过图像处理和分析技术,自动识别和分类不同类型的货物。

传统的货物识别系统通常依赖于人工标注的特征和规则,但这种方法具有人力成本高、易受主观因素的影响等缺点。

近年来,随着机器视觉技术和深度学习算法的不断发展,基于机器视觉的货物识别系统取得了显著的进展。

然而,目前仍存在一些算法优化问题,如准确率不高、处理速度慢等。

因此,本文旨在研究基于机器视觉的货物识别系统中的算法优化问题。

2. 货物识别系统中的算法2.1 传统算法传统的货物识别系统中常用的算法包括边缘检测、颜色特征提取和形状匹配等。

边缘检测算法通过检测图像中边缘的变化来识别物体的轮廓,但在处理复杂背景和光照不均匀的情况下效果较差。

颜色特征提取算法通过提取物体的颜色信息来进行识别,但对于颜色相似的物体容易产生混淆。

形状匹配算法通过对物体的形状进行匹配来进行识别,但对于形状变化较大或者遮挡的物体不适用。

2.2 深度学习算法深度学习算法是近年来在机器视觉领域获得广泛应用的一种算法,其通过构建多层神经网络模型来实现对图像的特征学习和分类。

深度学习算法具有能够自动学习图像中的抽象特征、具备较高识别准确率的优点,因此在货物识别系统中有着广泛的应用前景。

3. 基于深度学习的算法优化方案本节提出一种基于深度学习的算法优化方案,主要包括网络结构设计和数据增强两个方面。

海康威视教学实践总结(3篇)

海康威视教学实践总结(3篇)

第1篇一、前言随着我国经济的快速发展和科技的不断进步,视频监控技术已经广泛应用于各行各业,成为保障国家安全、维护社会稳定、提升企业安全管理水平的重要手段。

海康威视作为我国视频监控领域的领军企业,一直致力于为用户提供高质量、高性能的监控产品和服务。

为了更好地培养专业人才,提升我国视频监控行业的整体水平,我们组织了一次海康威视教学实践活动。

现将本次实践活动总结如下:二、实践背景1. 市场需求:随着我国视频监控市场的不断扩大,对专业人才的需求日益增长。

然而,目前我国视频监控行业的人才储备不足,尤其是具备实际操作能力和创新能力的专业人才。

2. 企业需求:海康威视作为视频监控领域的领军企业,需要大量具备实际操作能力和创新能力的专业人才来支持企业的发展。

3. 政策支持:我国政府高度重视人才培养工作,出台了一系列政策支持企业开展人才培养活动。

三、实践内容1. 理论学习:邀请海康威视技术专家为学员讲解视频监控基础知识、系统架构、产品应用等方面的内容。

2. 实践操作:组织学员参观海康威视生产基地,了解产品生产流程;参观监控工程案例,学习实际应用经验。

3. 技能培训:开展技能培训课程,包括监控设备安装、调试、维护、故障排除等。

4. 创新创业:鼓励学员结合实际需求,开展创新创业项目,提升自身综合能力。

四、实践成果1. 学员技能提升:通过本次实践活动,学员们掌握了视频监控基础知识、系统架构、产品应用等方面的知识,提高了实际操作能力。

2. 人才培养:为我国视频监控行业培养了一批具备实际操作能力和创新能力的专业人才。

3. 企业合作:与海康威视建立了长期合作关系,为学员提供更多实习和就业机会。

4. 社会效益:通过本次实践活动,提高了我国视频监控行业的整体水平,为我国社会稳定和经济发展做出了贡献。

五、实践总结1. 加强校企合作,共同培养专业人才。

企业要充分发挥自身优势,与高校、职业院校等开展合作,共同培养具备实际操作能力和创新能力的专业人才。

单相机机械手贴合算法

单相机机械手贴合算法【单相机机械手贴合算法】1. 引言在工业自动化领域,机械手贴合是一种重要的操作技术,广泛应用于零部件的组装、焊接、粘接等工艺过程中。

为了提高生产效率和质量,在机械手贴合过程中,精确定位和精确控制是至关重要的。

然而,由于工业环境的不确定性和传感器限制,机械手贴合常常面临位置偏差、姿态误差和震动等问题。

为了克服这些挑战,研究人员提出了许多贴合算法,其中单相机机械手贴合算法是一种有效的解决方案。

2. 单相机机械手贴合算法的原理单相机机械手贴合算法基于计算机视觉技术,通过从单个相机获取的图像数据,实现对待贴合目标的测量和控制。

其基本原理包括图像获取、角点检测、角点匹配和位姿估计等关键步骤。

2.1 图像获取在单相机机械手贴合算法中,首先需要获取待贴合目标的图像数据。

这可以通过在机械手的末端安装一台高分辨率的摄像头来实现。

摄像头可以实时采集待贴合目标的图像,并将其传输到算法的处理单元。

2.2 角点检测角点检测是单相机机械手贴合算法的第二个关键步骤。

它通过对图像进行特征提取,找到待贴合目标上几何结构的边缘点。

常用的角点检测算法包括Harris角点检测、Shi-Tomasi角点检测和FAST角点检测等。

2.3 角点匹配角点匹配是单相机机械手贴合算法的第三个关键步骤。

它通过对待贴合目标和模板图像进行角点匹配,确定待贴合目标在模板图像中的位置。

常用的角点匹配算法包括基于距离的匹配和基于特征描述子的匹配等。

2.4 位姿估计位姿估计是单相机机械手贴合算法的第四个关键步骤。

它通过分析待贴合目标在图像上的位置和角度信息,估计机械手末端执行器的位置和姿态。

常用的位姿估计算法包括基于二维-三维匹配和基于特征点对齐的算法等。

3. 单相机机械手贴合算法的优点相较于其他贴合算法,单相机机械手贴合算法具有以下优点:3.1 系统成本低由于单相机机械手贴合算法只需要一台相机进行图像获取,相较于多相机系统而言,系统成本更低,布线更方便。

机器视觉解决方案

机器视觉解决方案第1篇机器视觉解决方案一、项目背景随着工业4.0时代的到来,智能制造成为发展趋势。

机器视觉作为智能制造领域的关键技术,其在生产过程中的作用愈发重要。

为提高生产效率,降低成本,确保产品质量,我国众多企业正逐步引入机器视觉系统。

本方案旨在为某制造企业提供一套合法合规的机器视觉解决方案,以提高生产自动化水平,提升产品质量。

二、项目目标1. 提高生产效率,减少人力成本。

2. 提升产品检测精度,降低不良品率。

3. 确保生产过程合法合规,满足行业标准和要求。

4. 提升企业竞争力,助力企业发展。

三、解决方案1. 系统架构本方案采用模块化设计,主要包括以下部分:- 图像采集模块:负责采集生产过程中的图像数据。

- 图像处理模块:对采集到的图像进行预处理、特征提取等操作。

- 识别与判断模块:根据预设的算法模型,对图像进行处理,实现对目标物体的识别与判断。

- 控制与执行模块:根据识别结果,对生产设备进行控制,实现自动化生产。

2. 技术路线- 图像采集:采用高分辨率工业相机,确保图像质量。

- 图像处理:运用数字图像处理技术,对图像进行去噪、增强、分割等操作。

- 特征提取:结合实际需求,选取合适的特征提取算法,提取目标物体的特征。

- 识别与判断:采用深度学习等人工智能算法,实现对目标物体的精确识别。

- 控制与执行:通过工业以太网与生产设备进行通信,实现实时控制。

3. 合法合规性- 系统设计遵循我国相关法律法规,确保生产过程合法合规。

- 选用国内外知名品牌的设备,保证产品质量。

- 严格按照行业标准进行系统设计、开发、调试和验收,确保系统稳定可靠。

4. 人性化设计- 界面友好:系统界面简洁易用,便于操作人员进行监控和管理。

- 报警提示:设置多种报警功能,实时提醒操作人员处理异常情况。

- 数据统计:实时统计生产数据,便于企业进行生产管理。

四、项目实施与验收1. 项目实施:按照设计方案,分阶段进行系统开发、设备安装和调试。

机器视觉的原理及其应用

机器视觉的原理及其应用随着科技的发展和进步,机器视觉已经成为了许多领域中不可或缺的重要技术。

然而,对于大多数人来说,机器视觉仅仅是一个陌生而神秘的词汇,很少有人对其真正的原理及其应用有所了解。

因此,本文将深入探讨机器视觉的原理及其应用,让读者对其有更深入的认识。

一、机器视觉的原理机器视觉是基于计算机技术和图像处理技术开发的一种技术,通过模拟人类视觉系统对图像进行处理和分析,实现对图像的识别、分类、分割、三维重建、跟踪等功能。

机器视觉的原理主要分为以下三个部分:1. 输入图像的采集:机器视觉的输入是数字信号,这个信号是通过摄像头、激光雷达、雷达、热红外等设备来采集的。

如何把图像转化为数字信号,是机器视觉的重要一步。

2. 图像预处理:机器视觉的原理就是通过对图像进行处理,提取出目标区域的特征。

这其中的主要处理方式包括图像去噪、图像增强、几何校正、颜色分割等等。

3. 特征提取和分类:当图像预处理完成后,机器视觉就可以对图像进行特征提取和分类了。

特征提取是对图像中目标区域的特殊特征进行抽取和描述,分类是根据这些特征将目标区域与其他区域进行区分。

二、机器视觉的应用1. 工业智能工业智能是机器视觉最广泛的应用之一。

例如,在工业生产线上,机器视觉可以用来检测产品的质量问题,比如检测产品的大小、形状、颜色、表面外观等。

另外,机器视觉还可以用于机器人的导航、识别等,提高工业生产的效率和质量。

2. 医疗保健机器视觉还可以应用于医疗保健领域。

例如,医生可以利用机器视觉技术来进行口腔疾病的诊断和治疗,通过图像处理技术得到精确和准确的疾病诊断结果。

此外,机器视觉还可以用于协助医生进行手术操作和治疗等一系列问题。

3. 安防监控机器视觉在安防监控领域也有了广泛的应用。

例如,通过机器视觉技术可以实现人脸识别、指纹识别、虹膜识别等,保证安全事故的最小化。

另外,机器视觉还可以通过红外夜视技术来监测夜间活动,控制潜在危险。

4. 智慧城市随着城市的现代化,智慧城市的建设已经越来越普遍。

2024 机器视觉与伺服定位系统

2024 机器视觉与伺服定位系统
2024年,机器视觉与伺服定位系统迈入新阶段。

机器视觉技
术在工业领域将扮演更为重要的角色,其与伺服定位系统的结合将带来更高效和精确的自动化生产。

机器视觉技术通过高清摄像头和算法的结合,可以实时识别和分析物体的形状、颜色和位置等信息。

而伺服定位系统则可以通过控制电机或液压驱动,实现对工作台或工作件的精确位置控制。

将这两种技术结合起来,就可以在工业生产中实现更高水平的自动化、智能化和精确度的控制。

例如,在汽车生产线上,机器视觉系统可以通过识别汽车车身的不同部位,以及检测缺陷和瑕疵,从而实现智能化的质量控制。

而伺服定位系统则可以根据机器视觉系统的反馈,准确定位汽车零部件的位置,并将其精确地安装在正确的位置上。

在电子制造业中,机器视觉与伺服定位系统的结合也可以发挥巨大作用。

机器视觉系统可以用于组装和焊接电子元件,准确判断元件的位置和方向,以及检测焊接瑕疵。

而伺服定位系统则可以根据机器视觉系统的指导,精确地定位和操作工作平台,以完成复杂的组装任务。

此外,机器视觉与伺服定位系统的结合还可以应用于食品加工、医药制造、物流和仓储等领域。

通过使用机器视觉系统进行产品质量检测和分拣,再利用伺服定位系统对产品进行准确的定位和处理,可以实现生产效率和质量的提升。

总的来说,机器视觉与伺服定位系统的结合将推动自动化生产技术的发展,为工业生产带来更高效、精确和智能的解决方案。

在2024年,我们可以期待这一领域的进一步突破和创新。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

都说“纸上得来终觉浅,绝知此事要躬行”,可惜咱没这条件呀,没项目咱也不能干坐着呀,那咱发挥主观能动性,咱不是学机械的么,还好还记得一点CAD的知识,今天小杨说事,咱就“纸上谈兵”,用CAD结合公司的视觉算法平台VisionMaster来说说相机映射和对位贴合的事,如果有错误的地方,还请各位自动化前辈多多指教,毕竟网上的关于这个知识太少了。

实际的生产过程中,我们常常会碰到这样的情况,机械手从工位一吸着对象到工位二进行贴合,但是工位二我们不方便执行标定,通常的做法是在工位一执行一次标定流程,然后使用两点映射或者四点映射把工位二的相机坐标映射到工位一的相机一中。

说起来很轻松,咱没实战过呀,但是咱可以模拟呀,说干就干,咱开始动手吧。

如上图所示,咱们为了验证一般性,把机械手坐标系,工位一的相机1坐标系,工位二的相机2坐标系画的夸张一些,但是在CAD图上我们是通过旋转的方式来改变两个相机的坐标系和机械手坐标系的夹角的,事先是知道相机1坐标系X轴和相机2坐标系X轴和机械手坐标系X轴的夹角分别是10°和45°。

当然关于单像素精度,这里是采用一比一的方式,因为现实成像比这个更复杂,为了方便描述而已,不影响咱的用户体验。

现实场景中,咱一般碰到的都是机械手末端吸盘和末端中心不共轴的情况,那这边咱就选用最通用的12点标定来求出这个旋转中心,啥,你不知道什么是不共轴,啥是旋转中心,那你out了,赶紧看看这个博主的博客,人家讲的很详细,地址如下:
https:///KayChanGEEK/article/details/73878994
看完了那咱继续,吸盘吸着带MARK点的标定板,在相机视野里面平移9次,旋转3次,当然尽量贴近实际对象所在的平面,移动范围尽量覆盖实际对象可能出现的范围。

以X方向每次平移640.3044,Y方向每次平移389.3736,角度每次旋转30°,使用海康的算法平台呢,咱一般使用相对坐标系,尽量不使用绝对坐标系。

咱一般是以平移的第5点作为基准哈,所以有了下图的12点的关系以及在CAD里面的坐标数据,机械手的绝对坐标是可以从机械手的示教器读出来的,相对坐标呢,都是相对第5点的坐标哈,至于像素坐标,这里咱取的是标定板上的那个圆Mark点的圆心,这个使用一个模板匹配,位置修正,圆查找工具就完事哈。

由于咱是使用的CAD模拟,那只能使用N点标定工具,手动输入啦,对应着输入就行啦,如下图:
可以看到输完执行之后,像素精度确实是1.0,由于点是完全一一对应的,所以标定平移和旋转误差都是0,实际生产中,这里是有标定误差值的。

同时,这边也算出了机械手末端中心在图像中的理论像素坐标(891.371,970.815),咱回到CAD图中,把图纸的坐标系从机械手坐标系切换到相机1坐标系,看看第五点时刻,机械手的旋转中心的像素坐标是多少,没错就是下图粗红色圆圈出来的地方,查看坐标发现是一致的。

好啦,相机1标定完成之后,咱紧接着该对两个相机进行相机映射,制作一个映射板,上面做4个Mark点,这里咱采用4个圆来模拟,同样用机械手吸盘吸着映射板,在相机1视野中进行拍摄,记录当前机械手的位置,这个地方其实是以后对象每次在相机1处的拍照位,就是图中的蓝色直线交点处,然后机械手进行平移,咱这里只进行一个X方向平移,到红色直线的交点处,记录当前的机械手位置,这是以为每次对象到相机2处的,可以叫做贴合的基准位置(但是实际上是不用建立基准的,这里可以理解为以后每次在这里对对象进行偏移贴合就行,明白的人一看就明白了哈)。

注意每次采集4个Mark点的圆心坐标,在CAD里面要切换对应的坐标系,圆心点也需要对应哈,采集的坐标如下:
然后使用相机映射模块,将四和个圆心坐标对应输入进去,注意对象点和目标点的关系即可,生成相机映射文件,其实就是一个坐标系之间的变换矩阵,如下:
当然咱可以使用工具打开这个文件可以看到矩阵的参数,里面包含了坐标系变换的旋转角度
信息和平移量信息:
这里咱尝试改变映射板在相机2中的X和Y的位置,发现自始至终旋转矩阵是不变的,变化的只是平移量,可见咱之前要确定机械手的两个位置的重要性,否则平移量发生变化了,要自己修正旋转矩阵的平移量呀。

那为了进一步加深理解这个映射的关系咱来看看这个映射关系表示的是啥呗,既然是把相机2中的4点映射到相机1,那么我们直接把相机2带着4个点移动到相机1处,然后来手动检验一下,如下图:
打开映射文件,看到映射矩阵如下:
CAD切换坐标系到相机1坐标系,查看平移之后的相机2坐标系的原点在相机1中的坐标如下:
关于旋转矩阵,前面我们知道两个相机坐标系分别是逆时针转10°和顺时针转45°,那么它们之间的夹角就是55°,求解余弦值和正弦值如下,和矩阵是一致的:
至此咱所有的准备工作都结束了,那咱就开始验证贴合呗:
下图是机械手吸着实际对象进行贴合过程模拟,咱用一个矩形方便描述,注意此时机械手的吸盘并没有吸到对象的中心,由于咱刚才记住了两个固定的机械手的拍照位置,那么首先要做的是吸着对象到刚才的相机1拍照位进行图像采集,建立模板,贴合点我们模拟的对象的十字线交叉点。

然后在相机2的拍照位处,假设有个目标和对象是一样的,注意此时我们只需要确保对象移动到相机2的拍照点时,目标对象的角度是一样的,我们要建立一个角度基准,然后对目标建模版,也是选择矩形的中心作为贴合点,后面做映射的时候,咱就是把这个点的像素坐标映射到相机1,再加上目标的旋转角度就可以算出机械手贴合需要走到的位置。

那咱先看最简单的情况,目标不发生角度旋转,只有平移的情况:
目标位置相对于原始位置Y方向移动了439.85,然后切换坐标系读出,当前的目标矩形中心贴合点的像素坐标为:
对象还是基准状态,切换到相机1读出对象矩形中心点的像素坐标为:
和之前映射验证一样,咱把此时的目标也映射到相机1中,也就是上图中的蓝色矩形的位置,然后搭建如下图的方案,查看使用相机映射文件进行标定转换之后的像素坐标和实际的CAD测量结果进行对比:
切换到相机1坐标系,读出目标映射过来的贴合点的坐标如下:
可见理论计算和实际结果是一致的,然后咱们使用单点对位模块来计算贴合的偏移量,输入对象和目标对应的贴合点标定转换之后的坐标以及角度偏差,计算出来的贴合偏差如下:
发现和之前的假设的偏移量是一致的,那么此时咱可以在相机1的拍照位进行便宜然后再走之前相机映射的时候的固定偏移量去到相机2处进行贴合,也可以先到相机2的拍照位然后再直接走偏移量也能实现贴合。

以上模拟的是一个简单的情况,目标和对象都有角度旋转以及XY方向偏移,这个就当做作业留给各位看官们自己验证吧,反正咱自己是验证了。

当然实际生产过程更加复杂,比如相机安装反了导致坐标系之间旋转了180或者90,机械手左右手坐标系的选择,实际贴合点和拍照得到mark点是不一样的等等问题,有兴趣想探讨或者觉得咱说的不对的,可以相互探讨。

好了,今天的小杨说事就到这里,第一次写博客,主要是为了攒积分呀,各位看官记得打赏奥,写的不好请见谅。

————————————————
版权声明:本文为CSDN博主「果汁分你一半哈哈」的原创文章,遵循CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。

原文链接:https:///qq_34836838/article/details/102856605。

相关文档
最新文档