视觉伺服控制
基于图像的机器人视觉伺服系统

基于图像的机器人视觉伺服系统基于图像的机器人视觉伺服系统对工作在未知环境中的机器人,在其位置控制和运动控制中引入视觉反馈信息是一种很有吸引力的解决方案。
利用视觉传感器得到的图像作为反馈信息,构造机器人的位置和运动闭环控制,即视觉伺服[1]。
本文主要研究手部摄像机视觉机器人的控制问题,采用基于图像的直接视觉伺服。
它的控制算法不需要求解逆像问题以及机器人运动学,同时它的结构不依赖于机器人惯量以及科里奥利矩阵。
机器人视觉伺服系统的物理结构机器人视觉伺服系统的结构可分为摄像机固定和手部摄像机两种。
在摄像机位置固定的机器人系统中,有多个摄像机安装在机器人周围的环境中,可同时获得机器人和周围环境的图像,这种方法的目标是控制机器人末端执行器的运动直至触碰到期望目标。
而手部摄像机机器人的摄像机安装在机器人手部,只能获取机器人周围环境的信息,这种方法的目标是控制机器人的运动,使运动或静止的目标在摄像机图像平面上到达期望位置。
摄像机固定的安装方式可获得固定的图像分辨率,并同时获得机器人和机器人周围环境的信息,便于将视觉系统集成到控制中。
但在机器人运动过程中,可能发生图像特征遮盖现象,观察灵活性差。
而手部摄像机方式具有较大的工作范围,不存在图像特征遮盖问题。
同时,随着手爪接近目标物体,可获得较高的图像分辨率,从而提高图像精度。
本文建立的机器人系统采用较低的运动速率,避免了因摄像机运动引起的图像的模糊,同时能够保证目标处于摄像机视场范围内,故采用手部摄像机的安装方式[2]。
视觉伺服的方式根据反馈信号表达方式,分为基于位置的视觉伺服和基于图像的视觉伺服。
基于位置的视觉伺服其反馈信号在三维任务空间中以直角坐标形式定义。
基本原理是通过对图像特征的抽取,并结合已知的目标几何模型及摄像机模型,在三维笛卡尔坐标系中对目标位姿进行估计,然后以机械手当前位姿与目标位姿之差作为视觉控制器的输入,进行轨迹规划并计算出控制量,驱动机械手向目标运动,最终实现定位、抓取功能。
视觉伺服控制

有约束的无标定模型预测控制在视觉伺服控制器的设计中,图像雅可比矩阵是建立运动学模型的关键。
经典的IBVS采用比例控制律,它利用图像雅可比矩阵的逆(或伪逆)。
然而,比例控制器可能存在局部极小问题。
也就是说,如果视觉特征数大于3,则图像雅可比矩阵不是满秩的,图像误差可能存在于图像雅可比矩阵的逆(或伪逆)的零空间中,从而导致局部收敛,使得最终的图像特征远离期望的图像特征。
另外,系统约束处理困难,尤其是可见性约束。
当相机的初始位置和所需位置之间的距离较大时,图像特征将不可见。
在视觉伺服控制过程中,可能会违反关节的物理限制和机器人的工作空间。
此外,比例控制器的主要缺点是需要知道摄像机内参数、摄像机外参数和特征点的深度参数,而这些特征点的精确值很难获得。
为了避免使用图像雅可比矩阵中元素的精确值,人们对图像雅可比矩阵的数值估计进行了广泛的研究,如神经网络、迭代学习、拟牛顿方法和模糊控制。
文献提出了许多基于深度无关交互(或图像雅可比)矩阵的自适应控制器,以克服深度限制问题。
文献首次针对摄像机参数未知且深度随时间变化的固定摄像机构型,提出了与深度无关的交互矩阵。
文献提出了眼在手和固定眼构型的自适应视觉跟踪控制的统一设计方法。
然而,这些方案没有明确考虑系统约束,而这些约束对于视觉伺服控制器的设计是至关重要的。
已经提出了许多方法来处理有约束的视觉伺服任务。
例如路径规划、非线性反馈等,但大多需要给定摄像机的外部参数,并且假定摄像机的内部参数和深度信息是已知的。
在IBVS中,通常采用模型预测控制(Model Predictive Control,MPC)来处理系统约束,且MPC控制器具有在未知影响和模型误差的情况下对系统进行控制的能力。
因此,MPC算法可以用来设计无标定环境下的视觉伺服控制器。
本章主要提出了一种新的基于MPC的IBVS设计方法,该方法明确地考虑了系统的约束条件,能够有效地处理未知的摄像机参数和深度参数。
通过模型预测控制获得控制输入,通过参数估计算法在线更新预测模型的未知参数,完成视觉伺服任务。
机器人视觉伺服系统的控制结构

机器人视觉伺服系统的控制结构1 前言对机器人视觉伺服系统的研究是机器人领域中的重要内容之一,其研究成果可直接用于机器人手—眼系统、移动机器人的自动避障及对周围环境的自适应、轨线跟踪等问题中。
通常所说的机器视觉是指:自动获取并分析图像,以得到一组可对景物描述的数据或控制某种动作的数据。
而视觉伺服则不同于机器视觉,它利用机器视觉的原理对图像进行自动获取与分析,以实现对机器人的某项控制为目的。
正是由于系统以实现某种控制为目的,所以视觉伺服系统中的图像处理过程必须快速准确。
视觉伺服系统采用视觉反馈环形成闭环,在视觉反馈环中抽取某种图像特征。
图像特征可以是点、曲线、图像上的某一区域等,比如,它可以是点在图像平面的坐标位置,或投影面的形心及其惯量的高次幂。
2 视觉伺服系统的分类视觉伺服的控制策略主要基于以下两个问题:1)是否采用分层控制结构?即机器人是否需要闭环关节控制器?进一步说,就是系统的视觉反馈是为机器人的关节控制闭环提供输入量,还是由视觉控制器直接控制机器人各关节。
2)误差输入量是以机器人所在空间的三维坐标表示,还是以图像特征?按控制策略2)区分,视觉伺服系统分为两类:基于位置的控制系统(position-based control,又称3D视觉伺服,3Dvisualservoing),基于图像的控制系统(image-base control,或称2D视觉伺服,2Dvisualservoing)。
由于基于位置和基于图像的视觉伺服各有其优缺点,于是近年有学者综合上述两类视觉伺服系统的优点,设计出2-1/2D视觉伺服系统。
按控制策略1)区分,视觉伺服系统可分为动态观察—移动系统和直接视觉伺服。
前者采用机器人关节反馈内环稳定机械臂,由图像处理模块计算出摄像机应具有的速度或位置增量,反馈至机器人关节控制器;后者则由图像处理模块直接计算机械壁各关节运动的控制量。
3 视觉伺服系统的控制结构3.1 基于位置的视觉伺服控制结构在基于位置的控制系统中,输入量以三维笛卡尔坐标表示(又称3D伺服控制),多数基于位置的视觉伺服系统采用一具有5~6个自由度的机械臂作为摄像机的运动载体。
机器人视觉伺服系统

机器人视觉伺服系统主要由图像采集设备、图像处理单元、目标识别与定位模块 、伺服控制器和机器人执行机构等部分组成。
02
视觉伺服系统的关键技术
图像获取
相机选择
根据应用需求选择合适的相机类 型,如CCD或CMOS,以及相应 的分辨率。
照明条件
确保足够的照明以获得清晰、对 比度高的图像,并考虑使用红外 或紫外光谱的特殊照明。
图像处理
预处理
包括噪声去除、对比度增强和图像缩放等,以提高图像质量 。
特征提取
利用算法检测和提取图像中的关键特征,如边缘、角点或纹 理。
目标识别与跟踪
目标检测
利用模式识别和机器学习技术检测图像中的目标物体。
目标跟踪
连续帧间跟踪目标,处理目标运动、遮挡等问题。
姿态估计与控制
姿态估计
通过分析图像特征和相机参数,计算 机器人与目标之间的相对姿态。
拓展应用领域
将机器人视觉伺服系统应用到更多领域,如 医疗、农业、工业等。
未来趋势
深度学习技术
利用深度学习技术提高机器人视觉伺 服系统的识别和分类能力。
多模态融合
将图像信息与其他传感器信息融合, 提高机器人视觉伺服系统的感知能力 。
强化学习
利用强化学习技术训练机器人视觉伺 服系统,使其能够自主适应不同环境 和任务。
特点
具有高精度、高速度和高可靠性的特 点,能够实现快速、准确的视觉伺服 控制,提高机器人作业的自动化和智 能化水平。
工作原理
工作流程
图像采集
机器人视觉伺服系统的工作流程主要包括 图像采集、图像处理、目标识别与定位、 伺服控制等步骤。
通过相机等图像采集设备获取目标物体的 图像。
图像处理
基于位置的机器人视觉伺服控制

03 。 . 1
3 仿真结果 . 3
根 据 前 面 介 绍 的 方 法 , 构 建 系 统 模 型 图 如
图7 、图8 所示 。其 中前 面部 分实现 了视 觉信息 的获 取 , 即给机 器 人长 了 眼睛 ,后面 部 分 是P D控 制 器
学特 性 的 。
结合机 器人 的运动 学特性 和动 力学 特性 ,采 用
基于位置 的视觉 伺服方法 ,来 完成机 器人对 目标 运 动信 息 的获取 :又结 合通 用 P 控 制 器 实现对 包 含 D 动力学模 型的机器 人位 置控制 。为 了验证 算法 的有
效性 ,针对 一个 一连杆视 觉伺服 定位 系统进 行 了仿
了一个坐标 示 意 图。图 中基 坐标 系被定义 t 界坐标 f { = 系W,为 不失 一般性 , 目标 轨迹 定义在基 坐标 系 下
示 ,二连杆 P 控制 响应 曲线如 图2 D 所示 。
收稿 日期:20 -51 0 8 —6 0
作 者 简 介 : 艳 花 (9 2) , 南 濮 阳人 , 士 , , 研 赵 18 一女 河 , 硕 助教 主要
2 基于位置的视觉伺服控制
在基 于位 置 的视 觉伺 服控 制 中, 图象特 征被提 取 出来和 目标 的几何 模型一起 用来 估计 目标相 对于
摄像机 的位置 ,一 旦 目标 的位置被 确定 ,就可 以通
过求解逆运 动 学 问题 ,得 出关节角 ,输送给传 统 的 具有 关节位 置和速 度 指令 接 口的机器 人 。 图3 出 给
首先 ,可 以 由摄像机 模 型 的逆 变换 求 出 目标在
视觉伺服系统的控制算法及实验研究

学位论文
视觉伺服系统的控制算法及实验研究
视觉伺服系统的控制算法及实验研究
摘要
通常意义上的传感器所获取到的信息比较单一,不足以应对智能机器人的需求,但是视觉模块能够获取到极其丰富的信息。基于视觉的伺服系统的研究受到机器人开发工作者的青睐,并成为当前国内外机械伺服系统研究领域的热点。
The main study content of this topic is the control algorithm and experimental research of visual servo system, the main object of study is two degrees of freedom mechanical arm platform which based onMPC08SPmovement control card.Purpose of this topic is based on visual feedback as the core to build its closed loop control system for searching and positioning on the target object.
随着我国自动化水平的提高,基于视觉的伺服系统也逐步受到研究人员的青睐。80年代末,清华大学计算机系研制的Eye-in-Hand就是一种典型的“眼一手”系统,该系统由PUMA560机械手、Image Box图像系统、SUN工作站和PC—AT组成,在机械手的顶部有一台摄像机,主要用来观测工作台的全景,在机械手的末端有CCD摄像机和半导体激光发生器,它能完成多种精密的装配任务[1]。
6.1.8 Labview人机界面16
不需要标定系统模型的“眼在手上”视觉伺服控制技术

Te hn q e f r u c lbr t d e e- a d v s a e v i g c i u o n a i a e y n - n iu ls r o n i h
II M u,PA NG i . M ng,W ANG a - u Xio y
(n t u eo b t s I s i t fRo o i ,H a b n I s i t fTe h o o y t c r i n tt eo c n l g ,Ha b n 1 0 8 Ch n ) u r i 5 0 0, ia
t air t h a e aa d t ek n m ai d lO h o o . A iin g iig ag rt m o r c ig d ~ o c l a et e cm r n h i e t mo e ft er b t b c vso udn l o ih frta k n y
Ab t a t I s i o sb e t r c s l a i r t a e a n o o i d l n i d s ra r c ie s r c : ti mp s i l o p e ie y c l a e c m r s a d r b t mo e s i n u ti lp a t ,b tm o t b c c u s o h u r n iu ls r o n y t msm u tc l r t h i s s e mo e. Th r f r ,a n v l y a c u c f t e c r e tv s a e v i g s s e s a i a e t e r y t m d 1 b e e o e o e n mi n ~ d
机器人视觉伺服系统

机器人视觉伺服系统2014-2-18 15:28:29 浏览:112目前,在全世界的制造业中,工业机器人已经在生产中起到了越来越重要的作用。
为了使机器人能够胜任更复杂的工作,机器人不但要有更好的控制系统,还需要更多地感知环境的变化。
其中机器人视觉以其信息量大、信息完整成为最重要的机器人感知功能。
机器人视觉伺服系统是机器视觉和机器人控制的有机结合,是一个非线性、强耦合的复杂系统,其内容涉及图象处理、机器人运动学和动力学、控制理论等研究领域。
随着摄像设备性能价格比和计算机信息处理速度的提高,以及有关理论的日益完善,视觉伺服已具备实际应用的技术条件,相关的技术问题也成为当前研究的热点。
本文对机器人视觉伺服技术进行了综述,介绍了机器人视觉伺服系统的概念及发展历程和分类,重点介绍了基于位置的视觉伺服系统和基于图像的视觉伺服系统。
对机器人视觉所涉及的前沿问题做了概括,并指出了目前研究中所存在的问题及今后发展方向。
机器人视觉伺服系统视觉伺服的定义:人类对于外部的信息获取大部分是通过眼睛获得的,千百年来人类一直梦想着能够制造出智能机器,这种智能机器首先具有人眼的功能,可以对外部世界进行认识和理解。
人脑中有很多组织参与了视觉信息的处理,因而能够轻易的处理许多视觉问题,可是视觉认知作为一个过程,人类却知道的很少,从而造成了对智能机器的梦想一直难以实现。
随着照相机技术的发展和计算机技术的出现,具有视觉功能的智能机器开始被人类制造出来,逐步形成了机器视觉学科和产业。
所谓机器视觉,美国制造工程师协会(sme society of manufacturing engineers)机器视觉分会和美国机器人工业协会(ria robotic industries association) 的自动化视觉分会给出的定义是:“机器视觉是通过光学的装置和非接触的传感器自动地接收和处理一个真实物体的图像,以获得所需信息或用于控制机器人运动的装置。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
有约束的无标定模型预测控制在视觉伺服控制器的设计中,图像雅可比矩阵是建立运动学模型的关键。
经典的IBVS采用比例控制律,它利用图像雅可比矩阵的逆(或伪逆)。
然而,比例控制器可能存在局部极小问题。
也就是说,如果视觉特征数大于3,则图像雅可比矩阵不是满秩的,图像误差可能存在于图像雅可比矩阵的逆(或伪逆)的零空间中,从而导致局部收敛,使得最终的图像特征远离期望的图像特征。
另外,系统约束处理困难,尤其是可见性约束。
当相机的初始位置和所需位置之间的距离较大时,图像特征将不可见。
在视觉伺服控制过程中,可能会违反关节的物理限制和机器人的工作空间。
此外,比例控制器的主要缺点是需要知道摄像机内参数、摄像机外参数和特征点的深度参数,而这些特征点的精确值很难获得。
为了避免使用图像雅可比矩阵中元素的精确值,人们对图像雅可比矩阵的数值估计进行了广泛的研究,如神经网络、迭代学习、拟牛顿方法和模糊控制。
文献提出了许多基于深度无关交互(或图像雅可比)矩阵的自适应控制器,以克服深度限制问题。
文献首次针对摄像机参数未知且深度随时间变化的固定摄像机构型,提出了与深度无关的交互矩阵。
文献提出了眼在手和固定眼构型的自适应视觉跟踪控制的统一设计方法。
然而,这些方案没有明确考虑系统约束,而这些约束对于视觉伺服控制器的设计是至关重要的。
已经提出了许多方法来处理有约束的视觉伺服任务。
例如路径规划、非线性反馈等,但大多需要给定摄像机的外部参数,并且假定摄像机的内部参数和深度信息是已知的。
在IBVS中,通常采用模型预测控制(Model Predictive Control,MPC)来处理系统约束,且MPC控制器具有在未知影响和模型误差的情况下对系统进行控制的能力。
因此,MPC算法可以用来设计无标定环境下的视觉伺服控制器。
本章主要提出了一种新的基于MPC的IBVS设计方法,该方法明确地考虑了系统的约束条件,能够有效地处理未知的摄像机参数和深度参数。
通过模型预测控制获得控制输入,通过参数估计算法在线更新预测模型的未知参数,完成视觉伺服任务。
有约束和无标定视觉伺服的预测模型模型预测控制被用来处理未标定环境中眼在手上和眼在手外摄像机构型的IBVS系统的控制约束。
在无标定的环境中,摄像机的内外参数和特征的三维坐标是未知的。
为了通过MPC获得最优控制输入,需要找到一个预测模型来描述系统的动态行为。
介绍了基于深度无关交互矩阵的预测模型。
在透视投影模型下,特征点的图像坐标可以描述为:s m (t) c其中s m (t) (u(t), v(t))T表示特征点在图像平面上的图像坐标。
特征点的深度用c决于摄像机的内部参数和外部参数。
H表示机器人正向运动学的齐次变换矩阵,和p分别是H的旋转矩阵和平移矢量。
在眼在手上摄像机构型中C BH ec,H ec 是摄像机外部参数矩阵,它表示末端执行器坐标系相对于摄像机坐标系的齐次矩阵。
B是相机的内参数矩阵,由相机内部结构决定。
H ( H eb )1,其中H eb为末端执行器坐标系相对于机器人基坐标系的齐次矩阵。
b x是特征点在机器人基坐标系的三维位置参数,b x是具有3个独立元素的常数向量。
在眼在手外构型中,C BH bc,其中H bc是相机外参数矩阵,它表示机器人基坐标系相对于相机坐标系的齐次矩阵的,H H eb,b x是特征点在末端执行器坐标系中的三维位置参数。
通过对式(4.1)微分,有视觉变化与关节速度的关系:s m (t)其中矩阵A(s m (t), q(t)) 2n是与深度无关的相互作用矩阵,形式为:c2 v(t)c3 q(t)其中q(t) n 1表示机器人的关节角度,n是自由度。
约束视觉伺服大多是采用传统的图像雅可比矩阵,但是传统的图像雅可比矩阵依赖于特征点的二维图像坐标、摄像机内部参数和图像中未实际测量的深度参数。
在以前的基于传统图像雅可比矩阵的预测模型中,深度呈现非线性。
这里,基于深度无关交互矩阵的预测模型中的深度可以由未知的摄像机参数和特征点的三维笛卡尔坐标线性表示。
深度c Z (t)可以由未知参数表示如下:c基于预测控制的控制律设计应采用离散时间模型,而不是连续时间模型(4.2)。
每个特征点的离散状态空间模型可写为:x(k 1) Fx(k ) G(k )u c (k )其中F是2 2常数矩阵,G(k )是时变变量和未知常数参数的函数:G(k )时变变量是特征点和机器人关节的二维图像坐标,且两者都可以测量。
未知常数参数包括摄像机内部参数、摄像机外部参数和特征点的三维位置参数。
T e为采样周期。
基于离散化的深度无关交互矩阵的预测模型用于设计预测控制律。
在(4.5)中,s m可作为系统状态和输出,k为当前采样时间,u c (k ) n 1表示控制输入,即关节速度q(k )。
给定静态或动态的期望轨迹s d。
当s d为静态时,视觉伺服定位任务是将特征点从图像平面上的初始位置带到期望位置。
当s d为随时间变化的动态轨迹时,视觉伺服跟踪任务是使特征点在图像平面上跟踪期望的轨迹。
Z (t ) c 3T H s m (k ) x (k )模型预测控制与在线参数估计为了实现有约束和无标定环境下的视觉伺服控制任务,需要确定控制输入, 并在线更新预测模型的未知参数。
此外,MPC 算法是在自适应控制的基础上发 展起来的,能够保持自适应控制利用过去的输入输出辨识系统模型的特点。
根据 控制论中的分离原理,分别计算控制输入和模型参数,更新系统模型,使系统状 态更接近实际。
在本节中,控制由 MPC 确定,并从模型参数的初始估计开始。
模型参数的估计值是在线更新的。
视觉伺服系统主要由最优控制模块和参数估计 模块两部分组成。
最优控制模块为机器人系统生成控制输入 u c ,其将当前图像特 征 s m 引导到期望的特征 s d 。
在参数估计模块中,基于特征 s m 的二维图像坐标和关节角度的测量值来更新模型参数 。
机器人视觉系统的控制方案如图 4.1 所示。
s m m (k ) F i 1 G (k m i )u (k m i ) (k m ) F s U c (k ){U c c max },U视觉伺服约束s d (k )s m (k )有约束无标定 IBVS 的模型预测控制通过使用 MPC ,可以通过如下步骤实现控制:(1) 采用模型对 IBVS 系统的未来行为进行预测。
根据预测模型(4.5),图像状态的预测可以根据最后 m (mN p ) 个状态和控制输入来定义:m其中 N p 是预测范围。
该动态预测模型在每个采样时刻以有限的 N p 步预测特征点s m 。
用 N c 表示控制水平,它表示控制输入的自由度数目[79]。
此外,N c N p 减少了最优问题的自由度数目,提高了在线最优控制问题数值解的计算速度。
从 u (kN c1) 到 u (kN p1) ,控制输入等于 u (k N c ) [80]。
更新模型参数将在下一小节中提及。
预测模型在每个采样时间 k 在线更新。
(2) 求解有限时间开环约束最优控制问题。
优化的目的是计算最优控制信号, 使图像特征达到期望的轨迹。
同时,满足了系统的约束条件。
IBVS 系统约束包 括机器人约束和图像约束。
机器人约束主要包含机器人的物理约束,如关节边界、关节速度饱和或关节加速度限制等,可视为系统的输入约束:min此外,还将工作空间限制和深度范围视为与机器人关节测量相关的机器人约 束。
q(k ) {q min , q max }图像约束是将特征保持在视场中或在图像平面中设置范围的可见性约束。
可 见性约束可以看作是系统的输出约束:s m (k ) {s m m max }, s min J ((k ), U c (k ))U c (k ) [u c (k ) , ,u c (kN p1) ]TJ ( (k ),U c (k ))(s d (k i ) s m (k i ))T Q (s d (k i ) s m (k i ))(k i 1) R u( u c c (k i 1))min通过考虑 IBVS 系统的输入和输出约束的 MPC 策略可以写成:U c( k ) 其中, U c (k ) 表示控制输入变化的最优序列,为:动态预测模型为:s m (k 1) s m (k )(ki ) s d (k i ) s m (k i )u c (k )u c (k1)u c (k )其中, s m 是可以测量的模型状态和模型输出, s d 是期望状态, (k ) 是在时间i [k1, kN p ]时期望状态和预测状态之间的差。
关节速度约束:q (k ){q min , q max }关节速度约束的变化,可以有效地抑制关节速度的突变:q{q min ,q max }式子(4.16)和(4.17)都是 IBVS 系统的输入约束。
s m (k ){s m min , s m max }式子(4.18)表示可见性约束,它是 IBVS 系统的输出约束。
输入和输出约束 可以表示为控制输入U c 的变化的最优序列的函数。
要最小化的二次成本函数包括预测误差和控制输入变化的顺序,其描述为:N pi1N c i1其中第一项最小化有限预测范围 N p 上的预测状态 s m 和期望状态 s d 之间的误差。
第二项最小化有限控制范围 N c 上控制输入的变化。
Q 和 二项的对称加权矩阵。
对于在线约束优化问题,需要采用一种有效的算法进行求解。
利用序列二次 规划(SQP)算法计算约束条件下的可行解,得到 N c 上控制输入U c 变化的最优序Z (t)THZ (t)c i 3 b x 1, c i1 b x 2 , c i 2 b x 2 , c i 3 b x 2 , c i1 b x 3, c i 2 b x 3, c i 3 b x 3, c i1, c i 2 , c i 3 )T , i(iT, c i 4 ) (i 1, 2,3) 。
1列。
(3) 获取每个采样时间的控制输入。
由于模型的不确定性和摄像机标定误差、 图像噪声、未知效应等干扰,最优控制序列 U c 中的所有元素都不能作用于动态 系统。
实际上,(4.12)中的最优控制序列U c 的第一个元素是u c (k ) , u c (k ) 被定义为当前时刻 k 的控制输入的最优变化,在下一个采样时刻,水平向前移动一 步,并且在更新输出度量和未知动态效应之后,整个优化过程重新开始[80]。
与最 优控制的全局优化策略不同,MPC 算法采用滚动时域策略,对工业实际中的模 型失配和扰动进行补偿是实用和有效的。
此外,在(4.19)中,未来参考输入 s d (ki) 是(ki)[k1; kN p ] 时刻期望的特征, s m (k ) 是当前时刻的可测量状态,这分别作用于预测控制律的前馈补偿 和反馈补偿。