基于LabVIEW的智能厨房助手机器人

合集下载

智能机器人厨房助理的技术要求

智能机器人厨房助理的技术要求

智能机器人厨房助理的技术要求智能机器人厨房助理的技术要求智能机器人厨房助理技术要求是指在机器人与厨房工作流程相结合的情况下,对于机器人的技术开发和设计的要求。

下面将从视觉感知、语音交互、运动控制和智能算法等方面介绍智能机器人厨房助理的技术要求。

1. 视觉感知技术要求智能机器人厨房助理需要具备良好的视觉感知能力,能够进行场景感知、物体检测和姿态估计等任务。

具体而言,要求如下:- 基于深度学习的目标检测算法,能够准确、快速地检测厨房中的各种物体,并识别它们的类别。

- 姿态估计算法,能够对检测到的物体进行精确的姿态估计,例如判断碗的倾斜角度。

- 场景感知算法,能够理解厨房场景的布局,比如识别灶台、炉灶等固定位置的元素。

2. 语音交互技术要求智能机器人厨房助理需要能够与人进行有效的语音交互,包括语音识别、语义理解和语音合成等功能。

具体要求如下:- 语音识别算法,能够准确、稳定地将人的声音转化为文本。

- 语义理解算法,能够理解人的意图和命令,并进行相应的响应和动作。

- 语音合成算法,能够将机器人的回复文本转化为自然、流畅的语音。

3. 运动控制技术要求智能机器人厨房助理需要具备准确、平滑的运动控制能力,能够在厨房中自由移动,实现各种操作。

具体要求如下:- 定位和导航算法,能够准确地感知自身位置,并规划移动路径。

- 运动规划算法,能够根据目标位置和环境约束,规划机器人移动的轨迹。

- 运动控制算法,能够控制机器人的关节和运动器官实现准确的运动。

4. 智能算法技术要求智能机器人厨房助理需要具备一定的智能算法能力,能够根据用户需求和环境变化做出智能决策。

具体要求如下:- 强化学习算法,能够通过与环境的交互学习到最优的行为策略。

- 知识表示和推理算法,能够将厨房相关知识进行存储和推理,支持问题求解和推荐功能。

- 智能决策算法,能够根据环境和用户需求做出合理的决策,例如选取合适的菜谱或烹饪方式。

综上所述,智能机器人厨房助理的技术要求涵盖了视觉感知、语音交互、运动控制和智能算法等多个方面,需要结合深度学习、机器学习和人工智能等前沿技术,才能实现智能机器人在厨房中的广泛应用和辅助功能。

使用LabVIEW进行机器人视觉和目标识别

使用LabVIEW进行机器人视觉和目标识别

使用LabVIEW进行机器人视觉和目标识别机器人视觉和目标识别在现代科技领域中扮演着重要的角色。

利用计算机视觉技术,机器人可以通过摄像头等传感器获取图像信息,并通过目标识别算法进行分析和处理。

本文将介绍如何使用LabVIEW这一广泛应用于工业自动化和数据采集的软件来实现机器人视觉和目标识别。

一、LabVIEW介绍LabVIEW是一种基于图形化编程的开发环境,由美国国家仪器公司(National Instruments)开发。

通过LabVIEW,用户可以通过拖拽和连接图形化模块,而不必编写传统的文本代码,从而实现软件开发和系统集成。

在机器人视觉和目标识别领域,LabVIEW提供了丰富的图像处理功能和算法库,方便用户进行图像处理和目标识别。

二、LabVIEW图像处理工具LabVIEW提供了一系列强大的图像处理工具,用于对从摄像头获取的图像进行处理和分析。

其中包括:1. 图像采集和显示模块:LabVIEW通过集成的图像采集模块和显示模块,可以直接从摄像头获取图像,并实时显示在界面上。

这为后续的图像处理提供了基础。

2. 图像滤波和增强模块:LabVIEW提供了常用的图像滤波和增强算法,如均值滤波、高斯滤波、锐化等。

用户可以根据需要选择适当的算法,对图像进行预处理,以消除噪音和增强目标信息。

3. 图像分割和边缘检测模块:LabVIEW提供了图像分割和边缘检测算法,如阈值分割、边缘检测等。

通过这些算法,用户可以将图像分割为不同的区域,并检测出目标的边缘信息,为后续的目标识别提供基础。

4. 特征提取和描述模块:LabVIEW提供了各种常见的特征提取和描述算法,如形状描述子、颜色直方图等。

用户可以根据具体任务选择合适的特征提取算法,并提取出目标的特征向量,用于后续的目标识别和分类。

5. 目标识别和分类模块:LabVIEW提供了多种机器学习和分类算法,如支持向量机、神经网络等。

用户可以通过这些算法,将特征向量与预先训练好的模型进行比对,从而实现对目标的识别和分类。

详解LabVIEW机器人模块软件的机器人算法和API

详解LabVIEW机器人模块软件的机器人算法和API

详解LabVIEW机器人模块软件的机器人算法和API
 既是在目前严峻的经济形势下,仍有面向各个新应用领域的机器人不断涌现出来。

在制造业方面,尽管增长速度受到资金的限制,机器人的数量仍在不断增加。

另外,医疗、服务、空间和军事领域等机器人市场也在增长中。

与此同时,曾经是科幻小说素材的消费机器人时代已随着清扫机器人的出现而到来并开始改变我们的日常家庭生活。

 LabVIEW机器人模块带有全新的功能完备的“机器人”选板,其中包含了设计下一代机器人控制器所需的全新算法。

这个全新的函数选板包含了从传感器驱动程序直至反向运动学的所有功能。

详情请参考LabVIEW帮助(见下面的链接),了解关于机器人VI的更多信息。

 · 利用连接VI与其他机器人软件一起工作,包括例如Cogmation、MobileRobotics、Skilligent以及Microsoft的第三方产品。

 · 使用回避障碍物VI,实现移动机器人车辆的回避障碍物功能。

 · 使用路径规划VI,在表示机器人周围环境的地图中计算到达目标点的。

使用LabVIEW进行智能家居控制

使用LabVIEW进行智能家居控制

使用LabVIEW进行智能家居控制智能家居控制是近年来随着科技的不断进步,以及人们对便利生活的需求而崛起的一种新兴技术。

利用现代化的技术手段,可以实现对家居设备的智能化控制,从而使得家里的生活更加便捷、舒适。

在智能家居控制中,LabVIEW是一款非常重要且广泛应用的软件工具。

本文将介绍如何使用LabVIEW进行智能家居控制。

一、LabVIEW简介LabVIEW(Laboratory Virtual Instrument Engineering Workbench)是一款基于图形化编程的软件工具,由美国国家仪器公司(National Instruments)开发。

它具有友好的界面和强大的功能,被广泛应用于各个领域的科学实验和工程控制。

二、LabVIEW在智能家居控制中的应用在智能家居控制中,LabVIEW被用于设计和实现各种智能化控制系统。

它可以与各种传感器、执行器和控制设备进行通信,实现对家居设备的监测和控制。

1. 数据采集与传感器控制LabVIEW可以通过各种传感器,如温度传感器、湿度传感器、光照传感器等,实时采集环境数据。

通过采集的数据,我们可以对家居设备做出相应的控制策略。

例如,当温度超过设定值时,LabVIEW可以通过控制空调的开关,调节室内温度。

2. 执行器控制LabVIEW可以通过与执行器连接,控制各种家居设备的开关。

例如,通过与照明设备连接,LabVIEW可以实现对照明灯的开关控制。

当环境光照较暗时,LabVIEW可以自动打开照明灯;当环境光照达到一定亮度时,LabVIEW可以自动关闭照明灯。

3. 家居设备智能化通过与其他智能设备的连接,LabVIEW可以实现更加智能化的家居控制。

例如,可以通过与智能音箱连接,LabVIEW可以实现语音控制家居设备的功能。

只需要通过语音命令,就可以实现对家居设备的控制,使得用户能够更加方便地享受智能生活。

三、LabVIEW智能家居控制系统的设计与实现在设计与实现LabVIEW智能家居控制系统时,我们需要按照以下步骤进行:1. 确定控制需求:根据实际情况,确定需要控制的家居设备以及相应的控制策略。

LabVIEW与机器人视觉实现智能机器人的感知与控制

LabVIEW与机器人视觉实现智能机器人的感知与控制

LabVIEW与机器人视觉实现智能机器人的感知与控制实现智能机器人的感知与控制是当前科学技术领域研究的热点之一。

在这一领域中,LabVIEW与机器人视觉技术被广泛应用,为智能机器人的感知与控制提供了强大的支持。

本文将就LabVIEW与机器人视觉实现智能机器人的感知与控制进行详细介绍。

一、LabVIEW与机器人视觉技术的基本原理LabVIEW,全称是Laboratory Virtual Instrument Engineering Workbench(实验室虚拟仪器工程化平台),是一种高度可扩展的系统设计软件,可以用于测量与控制、自动化测试和监视等领域。

而机器人视觉技术,是指利用机器视觉对机器人进行环境感知、目标识别和位置定位等操作的技术。

LabVIEW与机器人视觉技术的结合,可以实现智能机器人的感知与控制。

LabVIEW作为一个强大的开发平台,提供了丰富的功能库和开发工具,可以方便地进行图像处理和控制算法的开发与调试。

而机器人视觉技术则借助图像采集装置(如摄像头)获取周围环境的图像信息,并通过图像处理算法实现对图像的解析和分析,从而实现对环境和目标的感知。

LabVIEW通过其可视化的编程环境与机器人视觉技术的结合,不仅使得开发过程更加简便高效,还提高了机器人感知与控制的准确性和稳定性。

二、LabVIEW与机器人视觉实现智能机器人的感知智能机器人的感知主要包括环境感知和目标感知两个方面。

环境感知是指机器人对周围环境的感知和识别,目标感知是指机器人对周围目标的感知和识别。

LabVIEW与机器人视觉技术的结合,可以实现智能机器人的感知功能。

1. 环境感知环境感知是指机器人对周围环境的感知和识别。

通过使用LabVIEW搭建的图像处理算法,机器人视觉系统可以对环境中的物体进行分析和识别,并将感知到的环境信息传递给控制系统。

例如,机器人可以通过摄像头获取环境中的图像信息,然后使用LabVIEW进行图像处理,识别出环境中的墙壁、障碍物等,并基于这些信息来规划自己的移动路径。

LabVIEW中的机器人视觉和运动控制

LabVIEW中的机器人视觉和运动控制

LabVIEW中的机器人视觉和运动控制LabVIEW(Laboratory Virtual Instrument Engineering Workbench)是一个用于快速设计、构建和部署控制系统的图形化开发环境。

其中,机器人视觉和运动控制是LabVIEW的重要应用领域之一。

本文将介绍LabVIEW中机器人视觉和运动控制的基本原理和应用案例。

一、机器人视觉机器人视觉是利用摄像头、激光雷达等传感器获取环境信息,通过图像处理和模式识别算法实现对目标的识别、定位和跟踪。

在LabVIEW中,可以通过著名的Vision模块实现机器人视觉的开发。

Vision模块提供了一系列丰富的函数和工具,用于图像采集、预处理、特征提取、目标检测等。

通过可视化的编程方式,用户可以方便地构建图像处理流程,并与机器人或其他设备进行实时通信。

例如,在一个工业自动化系统中,需要将机器人定位到指定的物体上进行抓取。

首先,通过摄像头采集实时图像,然后使用Vision模块提供的函数进行图像滤波、边缘检测等预处理操作。

接下来,通过目标检测和跟踪算法,实现对物体的识别和跟踪。

最后,将机器人的运动指令发送给控制系统,实现机器人的精确定位和抓取动作。

二、机器人运动控制机器人运动控制是实现机器人运动路径规划和轨迹跟踪的关键技术。

在LabVIEW中,可以通过Motion模块实现机器人的运动控制。

Motion模块提供了丰富的功能和工具,用于运动控制系统的建模、控制算法的设计、运动轨迹规划等。

借助LabVIEW的图形化编程界面,用户可以直观地设计运动控制系统,并对实时数据进行监测和分析。

以一个机械臂控制为例,实现机器人在三维空间的运动控制。

首先,用户需要使用Motion模块提供的建模工具,创建机器人的运动学和动力学模型。

然后,通过路径规划算法,确定机器人的运动轨迹。

接下来,使用PID控制算法,对机器人的位置和姿态进行控制。

最后,通过与机器人的通信接口,将控制指令发送给机器人控制器,实现机器人的运动。

LabVIEW在电气自动化与控制中的应用案例分享

LabVIEW在电气自动化与控制中的应用案例分享

LabVIEW在电气自动化与控制中的应用案例分享电气自动化与控制是现代工业的重要组成部分,而LabVIEW作为一款功能强大的虚拟仪器软件,在电气自动化与控制领域中具有广泛的应用。

本文将分享几个LabVIEW在电气自动化与控制中的成功应用案例,以展示其在该领域中的价值和优势。

案例一:机器人控制系统某汽车制造公司为了提高生产效率和质量,采用了机器人进行汽车零部件的装配工作。

为了实现对机器人的精准控制和调试,他们采用了LabVIEW作为控制软件。

通过在LabVIEW中编写的程序,工程师们能够实时监测机器人的运行状态,调整控制参数,实现精准的装配工作。

这种基于LabVIEW的机器人控制系统不仅提高了生产效率,还有效地减少了人为错误的发生,提高了生产质量。

案例二:能源监测与管理系统某能源公司拥有多个发电站和变电站,为了实时监测和管理各个站点的电能产量和能源消耗情况,他们使用LabVIEW开发了一套能源监测与管理系统。

通过将各个站点的数据采集设备与LabVIEW进行连接,能源公司的工作人员可以实时地获取并分析各个站点的电能产量、能源消耗、设备状态等相关数据。

基于LabVIEW的能源监测与管理系统为能源公司提供了重要的数据支持和决策依据,使其能够更加高效地管理和利用能源。

案例三:智能家居控制系统随着人们对家居安全和舒适性的需求越来越高,智能家居控制系统逐渐成为家庭装修的热门选择。

某智能家居系统开发公司使用LabVIEW开发了一套智能家居控制系统,实现了对家居电器、照明、安防等设备的集中控制。

基于LabVIEW的智能家居控制系统不仅能够通过手机APP实现对家居设备的遥控,还能够通过自动化程序实现一些智能化的功能,如根据人员活动情况自动调节照明亮度,实现家居的智能化管理。

通过以上案例的分享,我们可以看到LabVIEW在电气自动化与控制中的广泛应用。

其强大的数据采集、处理和控制能力,使其成为电气自动化与控制领域中不可或缺的工具之一。

LabVIEW与物联网构建智能设备和传感器网络

LabVIEW与物联网构建智能设备和传感器网络

LabVIEW与物联网构建智能设备和传感器网络随着物联网技术的快速发展,越来越多的智能设备和传感器网络被应用于各行各业。

而作为一款功能强大的系统设计软件,LabVIEW (Laboratory Virtual Instrument Engineering Workbench)在物联网领域的应用也变得越来越广泛。

本文将探讨LabVIEW如何帮助我们构建智能设备和传感器网络,从而实现物联网的应用。

一、物联网简介物联网(Internet of Things,IoT)是指通过网络将物理世界与数字世界相连,实现智能互联的概念。

它可以通过传感器和网络设备实现物体之间的互联互通,实现数据的采集、传输和处理。

通过物联网技术,我们可以实现对各种设备和系统的远程监控和控制,提高生产效率和生活品质。

二、LabVIEW在物联网中的应用1. 设备和传感器网络的连接LabVIEW是一款针对仪器控制和数据采集的图形化编程软件,它提供了丰富的接口和工具包,可以轻松地与各种设备和传感器进行连接。

通过LabVIEW,我们可以对传感器进行数据采集和信号处理,并将数据传输到云端或其他设备进行进一步的处理和分析。

2. 数据采集和实时监测LabVIEW提供了一套完整的数据采集和实时监测的解决方案。

通过使用LabVIEW的图形化编程接口,我们可以快速搭建起数据采集系统,实时获取各种传感器的数据。

同时,LabVIEW还提供了丰富的数据处理和可视化工具,可以帮助我们对采集到的数据进行处理和分析,并实时监测设备的状态和性能。

3. 远程控制和监控借助LabVIEW提供的网络通信功能,我们可以实现对远程设备的控制和监控。

通过LabVIEW的远程浏览器插件或者自定义的用户界面,我们可以实时查看设备的状态,远程控制设备的操作,并进行故障诊断和维护。

这在工业自动化、远程医疗等领域具有重要的应用意义。

4. 数据存储和分析LabVIEW配备了强大的数据存储和分析功能,可以将采集到的数据保存到本地或云端,并进行进一步的分析和处理。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

智能厨房助手机器人同济大学设计者:邵谣夏宇奥继超瑜马千里指导教师:梦如1、设计目的烹饪是每个家庭日常生活必不可少的一个环节,而前期的食材准备工作非常繁琐麻烦。

首先食材的挑选与预处理耗费时间,并且在烹饪时人们有时很难腾出双手去拿下一步需要的东西,有时会因为同时准备许多道菜肴而手忙脚乱,这种情况让人们无暇享受烹饪的乐趣。

一个智能的厨房助手可以承担人们处理食材的工作,通过语音指令,厨房助手机器人将自动识别并抓取用户指定的、在桌面上的食材,并放入相应的处理器中(切丝、切片等),通过处理器处理过的食材即可以用于人们进一步烹饪。

整个过程全部自动化处理,用户只需发出语音指令,即可控制烹饪助手处理食材,节省人们在厨房做饭时处理食材的时间,使得人们可以专注于烹饪菜肴,增加烹饪的乐趣。

我们需要设计的是一个可以减轻烹饪者负担,并且易于操作,稳定可靠的厨房助手。

它不只是替我们完成反复繁琐的动作,更是可以在指令下自主完成工作的,智能的机器人助手。

2、工作原理2.1 机器人小车部分针对厨房助手机器人部分,我们采用上位机下位机编程模式进行编程。

硬件方面包括一个架于桌面上且与电脑相连的USB 摄像头、自主设计组装的机器人底盘、安装在机器人底盘四周的红外线传感器以及架于底盘上的机械手。

厨房助手机器人的主体结构如下图所示:在机器人底盘的设计中,由于考虑到厨房桌面小果皮杂物及光滑度的问题,为了提高机器人的稳定性,我们采用了四轮独立悬挂的设计,四轮分别使用一个减速器,避免了传统小车行驶过障碍时因车轮悬空导致无法稳定行驶的问题;同时我们使用了摩擦性好的软胎车轮,大大提高了行驶过程中的稳定性。

同时,为了防止机器人从桌面跌落,在底盘的四角上安放了四个红外线传感器。

这些传感器通过检查从桌面返回的红外线信号来判断传感器下面是否悬空,若某个传感器悬空则传回高电平信号至myRIO 主控制器,由软件程序设定向相反方向行驶,从而避免机器人从桌面跌落。

考虑到传感器信号的延时以及机器人行驶的惯性,将红外线传感器支架设计成“探出型”,保证程序的响应可以避免机器人跌落。

整个机器人底盘均由我们自己设计,结构紧凑,部件稳固,部分连接件借助3D 打印机打印成型,整体运行平稳,安全可靠。

在底盘上装载了一个用于抓取食材的机械手,由 myRIO 控制器发送的PWM 波进行控制。

机械臂的前端机械手采用“双闭合”设计形式,通过3D 打印制造,从而保证抓取食材的成功率。

机械手设计图和实物如下图所示。

在实际系统工作时,外置摄像头识别厨房助手机器人以及厨房桌面上的食材与食材处理器,以厨房助手机器人车身为原点建立坐标系,得到识别的食材与食材处理器在该坐标系下的二维坐标(X,Y)。

USB摄像头实时返回桌面的图像数据,程序通过调用目标静态图像训练样本,通过颜色模式匹配的方式对动态的图像进行识别,当图像中某块区域与训练时保存的静态图片样本区域匹配的分值大于设定的最小匹配分值,则该区域将被识别。

在PC上位机中,基于图像识别并回传目标坐标值时,考虑到图像数据的误差及噪声,在传递数据时采用均值滤波方式对数据进行预处理。

然后反馈电信号至myRIO控制器,传递到下位机进行路径规划判断。

输入语音指令后,机器人通过识别用户发出的语音指令,判断下一步应该执行的动作(抓取特定食材或将食材放入食材处理器中)。

根据不同的动作,获得对应目标的二维坐标(X,Y),从而驱动机器人完成规定动作。

小车底盘搭载myRIO控制器进行运动,车载的机械臂在myRIO的控制下对指定食材完成抓取。

2.2食材处理器部分食材处理器部分,针对真实厨房场景中需要将食材处理成不同形状这一特点,我们完全自主设计了可以将食材处理成 3 种不同形状的多功能食材处理器。

食材处理器主控采用Arduino 芯片,通过传感器判断是否有食材投入,自主进行包括压紧机构压紧食材、主轴旋转带动切削筒切削食材的动作,并最终自动将食材装入位于出口的盘中。

食材处理器的主要运动有压紧机构的上下运动和切削主轴的转动。

其中,压紧动作的实现是通过位于左右两侧的两个步进电机驱动丝杆转动,从而带动整个压紧机构进行上下运动。

采用这种结构的优点是传动平稳、进给均匀,同时压紧力较大;主轴转动则是由普通的直流电机,通过同步带传动实现的。

食材处理器的结构架采用2020 铝型材切割制作,其余主要结构部件一律采用3D打印技术自主打印完成。

食材处理器装配模型如图:食材处理器采用开源平台控制器Arduino 作为主控,采用红外线传感器检测是否有食材投入,之后驱动顶部电机,将食材压入切削结构的处理器中。

同时切削结构处理器也由电机驱动,达到处理食材的效果。

食材被处理完后,进入下方预置的容器中,供烹饪者下一步使用。

2.3其他食材处理根据我们的设计目的,助手机器人可以配备烹饪者所需要的其他食材处理装置,如削皮、榨汁、打碎等,由于时间关系,其他可供配备的食材处理装置仍在设计中,还未产生实体。

3、设计计算3.1 机器人小车部分3.1.1 图像识别(1)Color Pattern Matching在图像识别方面,我们采用颜色模式匹配(Color Pattern Matching ) 的方式识别厨房助手机器人、食材以及食材处理器。

首先采集目标静态图像作为样本,在采集得到的静态图像中的 ROI 兴趣区域中人为标定目标图像模板(机器人、食材以及食材处理器)并进行训练,将训练得到的结果保存。

我们采用NI Vision Assistant 进行静态图像的采集与标定, 如图 3.1 所示3.1静态图像样本的采集与标定在Vision Assistant 视觉助手颜色模式匹配的 Template 选项卡中,可以对训练样本进行编辑,设置 Match offset 匹配偏移(X,Y)与 Sat. Threshold饱和度阈值。

在 Settings 选项卡中可以设置更多匹配参数,如 Minimum Score 最小匹配分值、Color Score Weight 颜色分值权重、Angle Range 搜索角度围等。

3.2Template 选项卡 3.3 Settings 选项卡在实际系统工作时,USB 摄像头实时返回桌面的图像数据,程序通过调用目标静态图像训练样本,通过颜色模式匹配的方式对动态的图像进行识别,当图像中某块区域与训练时保存的静态图片样本区域匹配的分值大于设定的Minimum Score 最小匹配分值(默认为800),则该区域将被识别。

(2)建立坐标系与坐标转换对目标图像训练完之后,我们以机器人底盘上的红色箭头标志为原点,采用Set Coordinate System 函数建立坐标系,设置完毕后如图3.4 所示。

3.4 建立坐标系图像中所识别的机器人小车与目标物体均会返回中心的二维图像坐标值(X,Y),为了判断机器人小车与目标物体的相对位置,我们将目标物体的二维坐标转换到了以机器人小车中心点为原点的二维坐标系中。

坐标转换的原理如图 3.5 所示3.5 原坐标系设机器人小车中心坐标为(Xo, Yo),作为原点坐标。

目标点坐标值为(X1, Y1),将目标点坐标值转换到以原点坐标为原点的坐标系中,则新的目标坐标值为,则目标点距离原点的距离信息与角度信息分别为与。

转换后的坐标系如下图所示。

3.6转换后的坐标系图像识别上位机界面如图所示3.7图像识别上位机界面上位机主界面显示由 USB 摄像头传回的桌面图像,通过颜色模式匹配识别机器人小车以及目标食材,实时返回目标物体在以机器人小车中心为原点建立的坐标系中的坐标值(X t, Y t)、距离Distance (pixels)以及角度Angle (degrees)参数。

图形识别及路径规划核心算法程序如下3.8 图形识别及路径规划核心算法3.1.2 语音识别在语音识别方面,我们通过调用win10 自带的小娜语音助手功能进行语音识别,保证了语音识别的识别速度与正确率。

由于小娜语音助手的功能是由C#语言编写的,在调用时需要采用LabVIEW 中.NET 选版中构造器节点(Constructor Node)来创建.NET 对象的实例,从而调用C#代码。

选板在调用之前,首先要讲预设的指令输入,需要修改小娜语音助手本身的virtual Grammar 识别规则,修改规则的C#代码如下图所示。

3.10修改语音助手的C#代码将这段C#代码通过.NET 选板中的函数转成LabVIEW 程序,并将其封装成初始化子程序Speech Initialize.vi。

3.11转换成的LabVIEW 代码然后通过调用Speech Recognized 函数对识别到的语音信息进行匹配,超过所设置的匹配分数则返回识别的字符串。

3.12识别并返回字符串代码3.1.3 基于视觉的路径规划基于图像识别并返回的目标物体二维坐标(X t, Y t),我们进行基于视觉的路径规划算法编写。

在初赛作品中,我们采用了较为简单的算法进行路径规划,在后续阶段,我们会对路径规划的算法进行优化,提高算法的精度以及可靠性。

整个路径规划的核心理念和流程如下图所示。

3.13 基于视觉信号的路径规划首先在上位机中,基于图像识别并回传目标坐标值时,考虑到图像数据的误差及噪声,在传递数据时采用均值滤波方式对数据进行预处理,然后传递到下位机进行路径规划判断。

基于视觉信号的路径规划分为以下四个阶段。

第一阶段,对目标物体的纵坐标Y t 值进行判断,由于考虑到所训练的机器人车身图像样本位于整个底盘的后面,且车身整体偏长,经过反复测试调整参数,我们把判断前进还是后退的参数定位正负100,即目标物体的纵坐标Y t 值大于100,底盘前进;小于100,底盘后退;在正负100 围,停止不动并结束第一阶段判断,留有死区以保证系统运行时的稳定性。

(路径规划中,目标物体的坐标值均为以机器人底盘为原点的坐标系中的数值,后文不在赘述。

)实现的代码如图所示。

3.14第一阶段判断第二阶段,通过判断目标物体的横坐标X t 值是否大于0,来判断转向方位。

大于0,右转;小于0,左转。

3.15第二阶段判断第三阶段,通过判断目标物体的横坐标X t 值的大小来判断直行的距离。

同时,在判断前行的距离时,要同时考虑到配合机械臂抓取动作的距离,通过实验测试确定参数。

当机器人到达规定的围后,停止前进并抓取物体。

3.16第三、四阶段判断至此,通过图像识别与实时坐标反馈的路径规划编写完毕。

经过测试,USB 回传的视频速度已经算法的控制精度都能达到预设的标准,基于图像的路径规划算法运行可靠,能实现所设计的功能。

在整个智能厨房助手的软件编程中,我们采用模块化的编程结构。

将实现单独功能的模块都进行了子VI 封装,使得整体程序清楚明了,增强了可读性以及可维护性。

相关文档
最新文档