基于并联理论的单目视觉位姿估计

合集下载

单目视觉SLAM技术研究

单目视觉SLAM技术研究

单目视觉SLAM技术研究随着科技的发展,无人驾驶、智能机器人等领域日益受到人们的关注,这些应用离不开定位和建图技术。

而在此之中,SLAM技术是最基础的技术之一,主要用于实时定位和建图。

SLAM(Simultaneous Localization and Mapping),即同时定位和建图,是一个综合类的问题,它是通过机器人的传感器获取周边环境的信息,建立地图且能够实时自主定位机器人的一种技术。

而单目视觉SLAM技术则是根据相机采集的单目图像,通过算法得到相邻两帧图像间的相对位姿关系并计算地图,从而实现机器人的实时定位和建图。

单目视觉SLAM技术常用的方法有很多种,各有特点。

下面笔者就来一一介绍。

一、基于特征点的SLAM基于特征点的SLAM是一种基于图像特征点的SLAM算法,它的核心思想是通过检测和匹配相邻两帧图像之间的特征点,来求得相邻两帧之间的相对位姿关系,从而实现机器人的实时定位和建图。

该算法主要包括以下几个步骤:1. 特征点提取:采用特定的特征提取器,从图像中提取出一些具有代表性的关键点。

2. 特征点匹配:根据特征点的描述子,对相邻两帧图像之间的特征点进行匹配,以求得相邻两帧之间的运动信息。

3. 位姿估计:根据匹配成功的特征点,使用非线性优化算法求解相邻两帧之间的位姿变换。

4. 地图更新:将已经求得的相邻两帧之间的位姿变换作用到地图中,从而实现地图的实时更新。

基于特征点的SLAM算法具有鲁棒性强、定位精度高等优点,在工程应用中被广泛采用。

不过它也存在一些不足之处,例如当环境较为单一时,特征点提取效果可能会较差,从而导致算法的性能下降。

二、基于直接法的SLAM基于直接法的SLAM是一种不需要特征点提取匹配的SLAM算法,它直接使用图像灰度信息进行像素级别的匹配,以求解相邻两帧之间的位姿关系。

虽然基于直接法的SLAM算法比基于特征点的算法开销更大,但它也具有一些优点,比如能够处理光照变化、纹理差异等复杂场景,并且可以快速地处理高分辨率图像。

基于视觉的并联机器人位姿检测方法研究

基于视觉的并联机器人位姿检测方法研究

研究内容与方法
研究内容
本研究旨在研究基于视觉的并联机器人位姿检测方法,解决现有位姿检测方法的 问题,提高机器人的运动精度和稳定性。具体研究内容包括:视觉系统的设计与 优化、图像处理与位姿解算算法的开发、实验平台的搭建与测试等。
研究方法
本研究采用理论分析和实验验证相结合的方法,首先设计并优化视觉系统,然后 开发图像处理与位姿解算算法,最后搭建实验平台进行测试和验证。同时,将采 用文献综述和实验对比等方法,对研究成果进行全进一步探索深度学习、 强化学习等先进技术在并联机器人位 姿检测中的应用,提高检测的精度和
自动化程度。
应用前景与展望
基于视觉的并联机器人位姿检测方法具有广泛的应用前景 ,可用于工业自动化、航空航天、医疗等领域。
随着计算机视觉技术和机器人技术的不断发展,该方法有 望在更多应用场景中得到推广和应用,为智能制造、智慧 医疗等领域的发展提供有力支持。
图像获取与处理
图像获取
使用相机拍摄目标物体的图像,获取原始图像数据。
图像处理
对获取的原始图像进行预处理,如滤波、去噪、增强等操作,以提高图像的质量和清晰度,为后续的 特征提取和匹配提供更好的基础。
特征提取与匹配
特征提取
从预处理后的图像中提取出目标物体的特 征信息,如边缘、角点、纹理等,这些特 征信息可以有效地描述目标物体的形状和 位置。
THANKS
感谢观看
特征提取方法包括SIFT、SURF、ORB等,这些方法可以提取出图像中的关键点及 其描述子。
匹配过程通常采用最近邻匹配或最小二乘法等算法实现。
基于深度学习的位姿检测算法
01
基于深度学习的位姿检测算法 是利用深度神经网络对图像进 行学习,从而直接估计机器人 位姿的方法。

基于点特征的单目视觉位姿测量算法

基于点特征的单目视觉位姿测量算法

收稿日期:2018-12-05; 修订日期:2019-01-03 基金项目:国家重点研发计划(2016YFF02()3801);国家自然科学基金(51575032 );北京市自然科学基金(3172020) 作者简介:王中宇(1963-),男,教授,博士生导师,主要从事光机电一体化技术与仪器方面的研究。Email:mewan@ 通讯作者:李亚茹(1990-),女,博士生,主要从事机器视觉测量技术与应用方面的研究。Email:Liyr022518@
Abstract: Aiming at the problems that the solutions were not unique, the correct solution was difficult to select and the accuracy was not high during processing the solution, an monocular vision pose measurement algorithm based on point features was proposed. Firstly, accornship between the four coplanar feature points, the parallel and the intersection conditions were analyzed respectively; Secondly, according to the spatial coordinates, image coordinates and spatial position relationships of the feature points, the corresponding unit vectors in the camera coordinate of the three coordinate axes in the world coordinate were derived, then the initial pose of the object to the camera was obtained; Finally, the initial pose was optimized with the LM algorithm to obtain the final pose. The experimental results show that the synthesis error of the article algorithm is 0.54 mm, the errors of the synthesis of the existing EPnP algorithm, two-point one-line algorithm and P3P algorithm are 1.28 mm, 1.52 mm and 4.26 mm, respectively. The synthesis error of the article algorithm is reduced by 57.8%,

并联机床的设计理论与关键技术

并联机床的设计理论与关键技术

详解并联机床的设计理论与关键技术1 概述为了提高对生产环境的适应性,满足快速多变的市场需求,近年来全球机床制造业都在积极探索和研制新型多功能的制造装备与系统,其中在机床结构技术上的突破性进展当属90年代中期问世的并联机床(Parallel Machine Tool),又称虚(拟)轴机床(Virtual Axis Machine Tool) 或并联运动学机器(Parallel Kinem atics Machine)。

并联机床实质上是机器人技术与机床结构技术结合的产物,其原型是并联机器人操作机。

与实现等同功能的传统五坐标数控机床相比,并联机床具有如下优点:刚度重量比大:因采用并联闭环静定或非静定杆系结构,且在准静态情况下,传动构件理论上为仅受拉压载荷的二力杆,故传动机构的单位重量具有很高的承载能力。

响应速度快:运动部件惯性的大幅度降低有效地改善了伺服控制器的动态品质,允许动平台获得很高的进给速度和加速度,因而特别适于各种高速数控作业。

环境适应性强:便于可重组和模块化设计,且可构成形式多样的布局和自由度组合。

在动平台上安装刀具可进行多坐标铣、钻、磨、抛光,以及异型刀具刃磨等加工。

装备机械手腕、高能束源或CCD摄像机等末端执行器,还可完成精密装配、特种加工与测量等作业。

技术附加值高:并联机床具有“硬件”简单,“软件”复杂的特点,是一种技术附加值很高的机电一体化产品,因此可望获得高额的经济回报。

目前,国际学术界和工程界对研究与开发并联机床非常重视,并于90年代中期相继推出结构形式各异的产品化样机。

1994年在芝加哥国际机床博览会上,美国Ingersoll铣床公司、Giddings & Lewis公司和Hexal公司首次展出了称为“六足虫”(Hexapod)和“变异型”(VARIAX)的数控机床与加工中心,引起轰动。

此后,英国Geodetic公司,俄罗斯Lapik公司,挪威Multicraft公司,日本丰田、日立、三菱等公司, 瑞士ETZH和IFW研究所,瑞典Neos Robotics公司,丹麦Braunschweig公司,德国亚琛工业大学、汉诺威大学和斯图加特大学等单位也研制出不同结构形式的数控铣床、激光加工和水射流机床、坐标测量机和加工中心。

基于单目视觉的相机位姿解算

基于单目视觉的相机位姿解算

随着计算机技术与人工智能技术的发展,在工厂、 [7]提 出 使 用 单 个 天 花 板 视 觉 传 感 器 的 快 速 和 鲁 棒
生活当中出现了许多种类的自主移动机器人[1-3]。 自 的技术,所 提 出 的 算 法 适 用 于 需 要 非 常 高 的 定 位 精
主移动机器人视觉定位是近些来发展起来的一种定位 度的系 统 [7]。为 实 现 快 速 、鲁 棒 性 高 的 自 主 移 动 机 方 法 ,该方法在实时数字摄影测量、机器人运动导航、 器人 定 位 ,本 文 使 用 单 目 相 机 ,采 取 顶 视 方 案 ,利用
image feature m atching
is w id e ly used. Selection system has sim ple
s tr u c tu r e ,lo w
cost
and
easy
u la r v is io n . Select on
the roof structure lig h t
m onocular
cam era
th e e x p e rim e n t,th e re su lts s h o w th a t th is m ethod fo r to p m o n o c u la r v is io n ro b o t lo c a liz a tio n is an e ffe c tiv e m e th om ous m o b ile ro b o t is one o f tlie m ost b a s ic ,th e m ost im p o rta n t fu n c tio n o f. In d o o r s ,such as GPS sa te l­

单目视觉定位原理

单目视觉定位原理

单目视觉定位原理
首先,单目视觉定位需要从输入的图像序列中提取出具有独特性的特
征点。

特征点可以是图像中的角点、边缘点、棋盘格交叉点等。

特征提取
的目的是从图像中获取一些具有独特性的特征信息,以便后续的特征匹配
和位姿估计。

最后,通过特征点的匹配结果,可以进行位姿估计。

位姿估计是通过
分析特征点之间的空间关系,来估计相机在场景中的位置和朝向。

一种常
用的位姿估计方法是通过计算本质矩阵或基础矩阵来得到相机的运动信息。

还可以使用PnP算法,通过解决外点问题来估计相机的位姿。

单目视觉定位还可以通过结合其他传感器来提高定位的准确性和鲁棒性。

例如,可以使用惯性测量单元(IMU)来获取相机的加速度和角速度
信息,从而提供更精确的姿态估计。

另外,使用全球定位系统(GPS)等
位置传感器也可以为单目视觉定位提供参考信息。

单目视觉定位的应用广泛,包括自动驾驶、无人机导航、增强现实等等。

它具有成本低、易实现等优点,但也存在一些挑战和限制。

例如,光
照变化、遮挡、噪声等因素可能对定位结果产生影响,需要在算法中进行
充分处理。

此外,单目视觉定位方法对于场景中特征点的要求比较高,对
于结构复杂、缺乏独特特征的场景,可能无法准确定位。

总之,单目视觉定位通过利用图像处理和计算机视觉技术,通过特征
提取、特征匹配和位姿估计等步骤来确定自身位置。

它具有灵活性和通用性,广泛应用于各种领域。

未来随着技术的不断发展,单目视觉定位有望
在更多的场景中发挥重要作用。

基于自适应算法的单目视觉系统的姿态解算

基于自适应算法的单目视觉系统的姿态解算周婧;高印寒;刘长英;张也弛【摘要】An adaptive total least square algorithm was proposed to further improve the attitude calculation accuracy of optical characteristic points, and the total least square algorithm and adaptive total least square algorithm were researched and compared. Firstly , the coordinate system and 3D model a-mong optical characteristic points , image points and the position of camera were established according to the space position relationship , and the matrix equation between optical characteristic points and image points was created. Then, the two algorithms mentioned above were used to get an optimization solution. Finally , the attitude of optical characteristic points relative to the word coordinate system was obtained based on the optimization solution. The simulation comparison experiment was performed in a coordinate measuring machine,and the experimental result indicates that the standard tolerance of attitude coordinate calculated by total least squares is 0. 055 7 mm, and that by adaptive total least squares is 0. 041 4 mm. The compared results show that the adaptive total least square algorithm has higher convergence rate and precision , and its calculation speed is better than that of total least square algorithm. It satisfies the system requirements for stabilization, reliability and high precision.%提出了自适应总体最小二乘算法,以进一步提高单摄像机视觉测量系统光学特征点的姿态解算精度,研究并对比了常用的总体最小二乘算法及自适应总体最小二乘算法在测量系统中的应用.首先,根据空间几何位置关系构建光学特征点、像点及摄像机位置的系统坐标系及三维空间模型,并建立关于光学特征点及像点的矩阵方程.然后,应用常用的总体最小二乘法及自适应总体最小二乘法进行优化求解.最后,基于优化的总体最小二乘解确定光学特征点相对世界坐标系的姿态.应用三坐标测量机进行仿真对比实验,结果表明:常用的总体最小二乘算法得出的姿态坐标的标准差为0.055 7 mm,自适应总体最小二乘算法得出的姿态坐标的标准差为0.041 4 mm.相比之下,自适应总体最小二乘算法有更高的收敛速度及收敛精度,且解算速度优于常用总体最小二乘算法,满足单目视觉测量系统的稳定、可靠和精度高等要求.【期刊名称】《光学精密工程》【年(卷),期】2012(020)012【总页数】8页(P2796-2803)【关键词】视觉测量;单目视觉系统;光学特征点;总体最小二乘法;姿态解算;自适应算法【作者】周婧;高印寒;刘长英;张也弛【作者单位】吉林大学仪器科学与电气工程学院,吉林长春130022;吉林农业大学信息技术学院,吉林长春130118;吉林大学汽车仿真与控制国家重点实验室,吉林长春130022;吉林大学仪器科学与电气工程学院,吉林长春130022;中国电信有限公司吉林省分公司公众客户部,吉林长春130033【正文语种】中文【中图分类】TP246;TP3911 引言视觉测量技术[1]是基于计算机坐标测量和视觉技术的一门新的测量技术,其任务是从获取的二维图像信息出发,计算出三维世界信息,重点研究物体的几何尺寸及物体的位置测量。

基于视觉的并联机器人位姿检测方法研究

基于视觉的并联机器人位姿检测方法研究随着机器人技术的发展,机器人在制造、医疗、军事等各个领域的应用越来越广泛。

并联机器人是其中的一种重要形式,它由多个支链并联而成,具有较高的刚度和精度。

然而,在使用并联机器人时,位姿检测是一个非常重要的任务,因为位姿检测的准确性直接影响着机器人的精度和性能。

传统的位姿检测方法主要基于传感器,如编码器、陀螺仪和加速度计等。

然而,这些传感器存在一些缺点,比如精度受到环境条件的影响,易受外部干扰等。

因此,基于视觉的位姿检测方法受到了越来越多的关注。

首先,图像采集是基于视觉位姿检测方法的前提。

一般地,通过相机捕捉到的物体图像包含了物体的位置和姿态信息。

然后,特征提取是将物体图像转化为特征向量的过程,常用的特征有SURF、SIFT和ORB等。

特征匹配是将物体图像中的特征与模板图像中的特征进行匹配的过程。

通过特征匹配,可以获取到物体的姿态信息。

接下来,位姿计算是基于特征匹配结果来计算物体的位姿信息。

一般地,可以通过求解PnP问题来获得物体的位姿。

PnP问题是指根据一组已知的物体特征点和对应的图像特征点,求解出物体的位姿矩阵。

最后,为了提高位姿检测的准确性,需要对位姿进行误差校正。

常用的方法有基于滤波器的校正方法和基于优化的校正方法。

基于视觉的并联机器人位姿检测方法具有以下几个优点:首先,相比于传感器,相机能够提供更多的信息,如颜色、纹理等,从而提高位姿检测的准确性和稳定性。

其次,基于视觉的位姿检测方法无需额外的传感器装置,减少了系统的成本。

再次,相机可以实时采集物体的图像,实现实时的位姿检测。

然而,基于视觉的位姿检测方法存在一些挑战和限制。

首先,物体的形状、光照条件和纹理等因素都会对位姿检测的准确性产生影响。

其次,特征的提取和匹配过程需要较高的计算能力,对计算资源要求较高。

最后,基于视觉的位姿检测方法对相机的标定要求较高,标定不准确会导致位姿检测的误差增大。

综上所述,基于视觉的并联机器人位姿检测方法是当前研究的热点之一、随着计算能力的提高和图像处理技术的发展,基于视觉的位姿检测方法将在未来得到更广泛的应用。

并联机器人视觉盲区末端位姿检测方法

测试与故障诊断・100・计算 机测 量与控制 2020 28(9)Computer Measurement & Control文章编号:1671 - 4598(2020)09 - 0100 -06DOI : 10.16526/ki.11 — 4762/tp.2020. 09.020 中图分类号:TP242. 2文献标识码:A并联机器人视觉盲区末端位姿检测方法高国琴,韩滢(江苏大学电气信息工程学院,江苏镇江212013)摘要:为解决并联机器人末端执行器受机构支路遮挡造成的双目视觉盲区末端位姿错误检测问题,提出一种运动学正解结合混合优化RBF 神经网络(RBFNN )误差补偿的视觉盲区末端位姿检测方法;首先在非视觉盲区采集RBFNN 训练样本,其中运 动学正解为输入样本,运动学正解和视觉检测位姿的差值为输出样本;然后进行训练,并采用GWO (Grey Wolf Optimization )算法和LM (Levenberg —Marquardt)算法混合优化权值;最后将训练好的网络用于视觉盲区,通过对运动学正解进行误差补偿 以提高末端位姿检测精度;实验结果表明,与未补偿的检测方法相比,混合优化RBFNN 补偿后的末端位姿检测方法,其末端位 姿分量狓,y ,狕y 的误差平均绝对值分别降低了 54.4%、 67.7%、 54.7%和52.9% ,误差标准差分别降低了 52.9%、 62.8%、51.9%和58.8% ,验证了所提方法的有效性。

关键词:并联机器人;视觉盲区;运动学正解;RBF 神经网络;GWO 算法;末端位姿检测Pose Detection For Visual Blindness of Parallel RobotGao Guoqin , Han Ying(School of Electrical and Information Engineering, Jiangsu University, Zhenjiang 212013, China)Abstract :Intheposedetectionforapara l elrobotbasedonbinocularvision ,errordetectioncanbecausedbyend —e f ectorbeingobscuredbythebranchofthemechanism Tosolvetheproblem ,aposedetectionmethodforvisualblindnessbasedonthedirectki- nematicscompensatedbyahybridoptimizationRBFneuralnetwork (RBFNN )isproposed Firstly ,RBFNNtrainingsamplesarecol-lectedinnon —visualblindness , wherethedirectkinematicsistheinputsample , andthedi f erencevaluebetweendirectkinematics and pose detected by binocular vision is the output sample. Then , grey wolf optimization (GWO ) algorithm and Levenberg 一 Mar ­quardt (LM ) algorithm optimize the weights in the training process Fina l y ,thehybridoptimizedRBFNNhavingbeentrainedisap-pliedtocompensatetheerrorofdirectkinematicstoimprovetheaccuracyofposedetectionforvisualblindness Experimentalresultsshowthatcomparedwiththeuncompensatedposedetectionmethod ,whentheposedetectionmethodcompensatedbyahybridoptimi-zation RBFNN is applied , the mean absolute value of error for pose component x , pose component y , pose component z and pose com ­ponent Y are reduced by 54. 4% , 67. 7% , 54. 7% and 52. 9% , respectively ; the standard deviation of error for pose component 狓,pose component y , pose component 狕 and pose component y are reduced by 52. 9 % , 62. 8 % , 51. 9 % and 58. 8 % , respectively. Theresultsverifythee f ectivenessoftheproposed methodKeywords : para l elrobot ;visualblindness ;directkinematics ; RBFneuralnetwork ;greywolfoptimizationalgorithm ;posede-tectiono 引言目前,机器人在水果分拣中的应用越来越广泛,而并 联机构具有结构稳定、精度高、动态性能好等优点,因此研制了一种水果分拣并联机器人。

基于合作目标的快速单目视觉位姿测量方法及测量系统

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910993526.7(22)申请日 2019.10.18(71)申请人 华中科技大学地址 430074 湖北省武汉市珞瑜路1037号(72)发明人 唐小琦 刘永兴 宋宝 李鹏帅 周向东 李含嫣 王国栋 徐迪炜 肖千红 (74)专利代理机构 北京金智普华知识产权代理有限公司 11401代理人 杨采良(51)Int.Cl.G06T 7/73(2017.01)G06T 7/11(2017.01)G06T 7/136(2017.01)G06T 7/194(2017.01)G06T 7/13(2017.01)G06T 7/80(2017.01)(54)发明名称基于合作目标的快速单目视觉位姿测量方法及测量系统(57)摘要本发明属于光电测量技术领域,公开了一种基于合作目标的快速单目视觉位姿测量方法及测量系统,标定相机内参并记录;实时获取合作目标物的图像;依实时性要求进行图像缩放;基于颜色提取的方法进行目标分割;定位色框角点,使用二维线性插值确定棋盘格角点初始位置并放大至原始尺寸;依据缩放比例进行棋盘格角点亚像素定位;依据PnP算法实现坐标转换获得棋盘格靶标位姿信息。

本发明使用特殊设计的含有定位色框与高精度棋盘格的合作靶标作为目标物,其角点坐标精度高,对多点位进行均值处理可减小随机误差,通过降低分辨率的方法,结合依据靶标特性实现的快速定位算法,实现角点识别,再进行亚像素识别,提升精度。

权利要求书2页 说明书10页 附图4页CN 110689579 A 2020.01.14C N 110689579A1.一种基于合作目标的快速单目视觉位姿测量方法,其特征在于,所述基于合作目标的快速单目视觉位姿测量方法包括以下步骤:步骤一,位姿测量前的相机标定;步骤二,获取合作目标物的图像;步骤三,确定缩放比例进行图像缩放;步骤四,基于颜色提取的图像分割;步骤五,使用快速角点定位方法确定棋盘格角点的初始位置;步骤六,棋盘格角点亚像素定位;步骤七,位姿计算。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第 2 1卷 第 1 O期 2 0 1 3年 l O月
光 学 精 密 工 程
Op t i c s a nd Pr e c i s i on Engi ne e r i ng
V0 1 . 2 1 NO . 1 0
0c t .2 O1 3
文 章 编 号 1 0 0 4 — 9 2 4 X( 2 0 1 3 ) 1 0 ~ 2 6 1 7 — 1 0
f o r m .On t he b a s i s o f t h e s y s t e m ,a n e w p o s e e s t i ma t i o n me t h o d o f mo n o c u l a r v i s i o n wa s p r o p os e d a c c o r d i n g t o t he p a r a l l e l t h e o r y .Fi r s t ,t h e h a r d wa r e c o mp o s i t i o n a n d me a s u r i n g p r i n c i p l e o f t h e s y s t e m we r e i n t r o d u c e d a n d i t s r e s o l u t i o n wa s a n a l y z e d . Th e c a l c u l a t i o n p r i nc i pl e a nd c a l c u l a t i o n p r o c e s s o f t he wo r l d c o o r d i n a t e s o f l a s e r p o i nt s we r e g i v e n .The n,f r o m t h e f r e e d o m of a p a r a l l e l me c ha n i s m ,t h e v i s u a l me a s u r e me n t s y s t e m wa s t r a n s f o r me d i n t o a p a r a l l e l me c h a n i s m e q u i v a l e n t l y,a nd t he p os e e s t i ma t i o n p r o b l e m wa s t r a ns f o r me d i n t o a f o r wa r d s o l u t i o n p r o b l e m o f p a r a l l e l me c h a ni s m.Fu r t he r mo r e,t he k i n e ma t i c s i n f l u e n c e c o e f f i c i e nt o f t he p a r — a l l e l me c h a n i s m wa s u s e d t o e s t i ma t e t h e p o s e o f t h e s y s t e m.I n s t e a d o f c o mp l e x d e r i v a t i o n s ,t h e ki n e ma t i c s i nf l u e n c e c o e f f i c i e n t c o u l d b e ob t a i n e d d i r e c t l y .Th e s i mu l a t i o n a n d e xp e r i me nt a l r e s u l t s s h o w t h a t t h e o r i e nt a —
3 . 上海航天电子技术研究所 , 上海 2 0 1 1 0 9 )
摘要 : 搭 建 了一 种 主 动 式 测 量 系 统 用 于 测 试 伺 服 稳 定 平 台的 伺 服 精 度 。 以此 系 统 为 基 础 , 提 出 了 基 于 并 联 理 论 的单 目视 觉 位 姿 测 量 方 法 。介 绍 了 系统 的硬 件组 成 和 系统 测 量 原理 , 分 析 了系 统 的 分 辨 率 。给 出 了 激 光 点 在 投 影 靶 坐 标 系 下 的 计 算 原 理 及 过 程 。然 后 , 从 并 联 机 构 的 自 由度 出发 , 将 视觉 测 量 系 统 等 效 地 转 化 为 一 个 并 联 机 构 , 将 视 觉 测 量 系 统 的 位 姿 估 计 问题 转 换 为并 联 机 构 的 正解 问题 。 利 用 并 联 机 构 的 运 动 影 响 系 数 迭 代 求 解 系 统 的 位 姿 , 由 并 联 机 构 关 节 螺 旋 直 接 得 到 影 响 系数 , 由 此 简 化 了推 导 过 程 。仿 真 和 实 验 结 果 表 明 : 系 统 的 姿 态 测 量 精 度 为 士0 . 0 5 。 。该 方 法 能 够 快 速 稳 定 的收敛 , 基本 达 到 了 系 统 的 设 计 要 求 。 关 键 词: 单 目视 觉 ; 位姿测 量; 并联机构 ; 运 动 影 响 系数 ;激 光 点
Ab s t r a c t :An a c t i v e me a s u r e me n t s y s t e m wa s pu t u p t o me a s u r e t h e s e r v o a c c u r a c y o f a s e r v o s t a bl e p l a t —
3 .S h a n g h a i Ae r o s p a c e El e c t r o n i c Te c h n o l o g y I n s t i t u t e, S h a n g h a i 2 0 1 1 0 9 ,C h i n a )
*C o r r e s po n di n g a u t h o r, E - ma i l : t s z h a o @y s u . e du . c n
GENG Mi n g — c h a o ~,ZHAO Ti e — s h i ’ ,B I AN Hu i ~,TANG Qi — j i n g 。
( 1 .He b e i Pr o v i n c i a l Ke y L a b o r a t o r y o f P a r a l l e l Ro b o t a n d Me c h a t r o n i c S y s t e m, Y a n s a n U n i v e r s i t y,
基 于并 联 理 论 的单 目视 觉位 姿 估 计
耿明超 。 , 赵铁石 , 边 辉 , 唐启敬。
( 1 . 燕山大学 河北省并联机器人与机电系统实验室, 河北 秦皇岛 0 6 6 0 0 4 ;
2 . 先进锻压成形技术与科学教育部重点实验室, 河北 秦皇岛 0 6 6 0 0 4 ;
Q i n h u a n g d a o 0 6 6 0 0 4 ,C h i n a ; 2 .Ke y L a b o r a t o r y o f Ad v a n c e d F o r g i n g& S t a mg y a n d S c i e n c e o f t h e Mi n i s t r y o f E d u c a t i o n ,Q i n h u a n g d a o 0 6 6 0 0 4 , C h i n a ;
文献标识码 : A d o i : 1 0 . 3 7 8 8 / O P E . 2 0 1 3 2 1 i 0 . 2 6 1 7
中 图分 类 号 : T P 2 4 2 . 6 2 ; T P 2 7 3
Po s e e s t i ma t i o n o f mo no c u l a r v i s i o n b a s e d o n p a r a l l e l t he o r y
相关文档
最新文档