基于改进SIFT算法的双目视觉SLAM研究
机器人导航系统中视觉SLAM算法性能改进与优化

机器人导航系统中视觉SLAM算法性能改进与优化在机器人导航系统中,视觉SLAM算法作为一种重要的定位与建图技术,对于机器人的自主导航和环境感知起着关键作用。
然而,在实际应用中,视觉SLAM算法仍然存在一些问题和挑战,如精度不高、计算量大、实时性差等。
针对这些问题,本文将探讨视觉SLAM算法性能的改进与优化方法。
首先,为了提高视觉SLAM算法的精度,可以从传感器、特征提取与匹配以及优化算法等方面入手。
在传感器方面,选择高性能的摄像头和IMU等传感器设备,可以提供更准确的感知数据,从而提高定位和建图的精度。
在特征提取与匹配方面,可以采用更多的特征描述子以及更加精确的匹配算法,提高特征的提取和匹配准确率,从而提高定位和建图的精度。
在优化算法方面,可以采用非线性优化方法,如扩展卡尔曼滤波(EKF)、粒子滤波(PF)等,对定位和建图过程进行更精确的优化,从而提高定位和建图的精度。
其次,为了减小视觉SLAM算法的计算量,可以采用一些优化策略和技术。
例如,可以对图像进行降采样,减少图像的尺寸和像素数量,从而降低计算量。
此外,可以采用分布式计算和并行计算等技术,将计算任务分配给多个计算单元进行并行处理,提高计算效率。
还可以利用硬件加速技术,如使用GPU进行并行计算,加速视觉SLAM算法的运行速度。
另外,为了提高视觉SLAM算法的实时性,可以采用一些实时性优化策略和技术。
例如,可以采用滑动窗口优化算法,只保留最近几帧的数据,减少计算量,提高实时性。
此外,可以采用预测和插值等方法,对感知数据进行推理和补偿,从而提高实时性。
除了以上的改进与优化方法,还可以借鉴其他领域的技术和方法,进行跨学科的融合与创新。
例如,可以借鉴计算机视觉领域的深度学习算法,利用深度神经网络进行特征提取和匹配,从而提高视觉SLAM算法的性能。
此外,可以借鉴机器学习领域的自适应学习算法,对不同场景下的视觉SLAM算法进行适应性优化和调整,提高算法的适应性和鲁棒性。
《基于双目视觉的立体匹配算法研究及应用》范文

《基于双目视觉的立体匹配算法研究及应用》篇一一、引言随着计算机视觉技术的不断发展,双目视觉技术已成为三维重建、机器人导航、自动驾驶等领域的重要技术手段。
其中,立体匹配算法是双目视觉技术的核心,其精度和稳定性直接影响着双目视觉系统的性能。
本文将介绍基于双目视觉的立体匹配算法的研究现状、原理及应用,并探讨其在实际应用中的优化与改进。
二、双目视觉的立体匹配算法研究1. 算法概述双目视觉的立体匹配算法是通过分析两个相机从不同视角获取的图像,从而恢复出场景的三维信息。
立体匹配算法主要包括特征提取、特征匹配和视差计算三个步骤。
其中,特征提取是提取出两幅图像中的有用信息,特征匹配则是根据一定的匹配准则,将两幅图像中的特征进行匹配,最后通过视差计算得到场景的三维信息。
2. 算法原理立体匹配算法的原理是基于视差原理,即同一场景从不同视角观察时,物体在左右图像中的位置会有所偏差。
通过比较两幅图像中对应位置的像素或特征,可以计算出视差,从而得到场景的三维信息。
在特征提取阶段,算法会提取出两幅图像中的关键点或特征描述符,如SIFT、SURF等;在特征匹配阶段,算法会根据一定的匹配准则,如欧氏距离、互信息等,将两幅图像中的特征进行匹配;在视差计算阶段,算法会根据匹配结果计算出视差图,从而得到场景的三维信息。
三、立体匹配算法的应用双目视觉的立体匹配算法在多个领域得到了广泛应用。
在机器人导航领域,可以通过双目视觉系统实现机器人的三维环境感知和避障;在自动驾驶领域,可以通过双目视觉系统实现车辆的自主驾驶和道路识别;在三维重建领域,可以通过双目视觉系统实现场景的三维重建和模型构建。
此外,立体匹配算法还可以应用于虚拟现实、人机交互等领域。
四、立体匹配算法的优化与改进针对立体匹配算法在实际应用中存在的问题,如匹配精度低、计算量大等,研究人员提出了多种优化与改进方法。
首先,可以通过改进特征提取算法,提取出更鲁棒、更丰富的特征信息;其次,可以通过优化匹配准则和匹配策略,提高匹配精度和计算效率;此外,还可以通过引入深度学习等技术,实现更准确的特征匹配和视差计算。
基于改进SIFT的无人机双目目标识别与定位

基于改进SIFT的无人机双目目标识别与定位
姚艺;黄卫华;章政;陈阳;张子然
【期刊名称】《组合机床与自动化加工技术》
【年(卷),期】2022()6
【摘要】对无人机自主着陆系统中双目视觉采集到的地标图像进行了研究,在分析地标图像中存在模糊噪声以及大量背景干扰问题,提出一种基于改进SIFT算法的无人机双目视觉目标识别与定位方法。
首先,采用基于OTSU与HSV的ROI算法对无人机双目图像进行目标识别与分割预处理操作,将目标准确识别;其次,针对双目视觉获取三维信息效率慢的问题,采用基于改进的SIFT算法对已识别的地标进行特征提取,生成二进制描述符,并采用局部敏感哈希算法对特征点进行稀疏匹配,提高目标特征匹配准确度及效率;最后,采用相似三角形原理计算每个特征匹配点的三维距离,获得无人机与目标之间的平均三维距离。
实验结果表明所设计的算法相较于传统的SIFT算法更具有可行性和有效性。
【总页数】5页(P49-53)
【作者】姚艺;黄卫华;章政;陈阳;张子然
【作者单位】武汉科技大学信息科学与工程学院
【正文语种】中文
【中图分类】TH166;TG659
【相关文献】
1.基于改进的SIFT特征点的双目定位
2.基于SIFT特征点的双目视觉定位
3.基于Harris-SIFT算法的双目立体视觉定位
4.基于视差和SIFT的双目视觉移动目标识别和追踪的研究
5.基于YOLOv3的无人机目标识别与双目测距应用研究
因版权原因,仅展示原文概要,查看原文内容请购买。
基于OpenCV的视觉SLAM算法研究与实现

基于OpenCV的视觉SLAM算法研究与实现SLAM(Simultaneous Localization and Mapping)即同时定位与地图构建,是指机器人或无人系统在未知环境中实现自身定位和环境地图构建的过程。
视觉SLAM是一种基于视觉传感器(如摄像头)进行定位和地图构建的技术,近年来得到了广泛的关注和研究。
本文将重点探讨基于OpenCV的视觉SLAM算法研究与实现。
一、SLAM技术概述SLAM技术是机器人领域中的核心问题之一,它要求机器人在未知环境中实现自身的定位和地图构建,这对于机器人导航、环境感知等任务至关重要。
传统的SLAM方法主要基于激光雷达、惯性测量单元(IMU)等传感器,而视觉SLAM则是利用摄像头等视觉传感器获取环境信息进行定位和地图构建。
二、OpenCV简介OpenCV是一个开源的计算机视觉库,提供了丰富的图像处理和计算机视觉算法。
由于其功能强大、易用性高以及跨平台特性,OpenCV 被广泛应用于各种计算机视觉任务中,包括SLAM算法的研究与实现。
三、视觉SLAM算法原理视觉SLAM算法主要包括特征提取与匹配、相机姿态估计、地图构建等步骤。
在基于OpenCV的视觉SLAM算法中,通常会使用特征点(如SIFT、SURF、ORB等)进行特征提取,并通过特征匹配来估计相邻帧之间的相机运动,进而实现定位和地图构建。
四、基于OpenCV的视觉SLAM算法实现1. 数据预处理在实现视觉SLAM算法之前,首先需要准备好相机采集的图像数据,并对图像进行去畸变、降噪等预处理操作,以提高后续特征提取和匹配的准确性。
2. 特征提取与匹配利用OpenCV提供的特征提取算法(如ORB特征)从图像中提取关键点,并计算它们的描述子。
然后通过特征匹配算法(如基于暴力匹配或FLANN匹配)找到相邻帧之间的对应关系。
3. 相机姿态估计通过对特征点进行三角化,结合PnP(Perspective-n-Point)等方法估计相机的姿态变换,即相机在不同帧之间的运动信息。
视觉SLAM技术在室内导航中的应用与改进探讨

视觉SLAM技术在室内导航中的应用与改进探讨视觉SLAM(Simultaneous Localization and Mapping)技术是一种基于计算机视觉的导航技术,通过利用相机或摄像头的视觉信息来实时建立和更新环境地图,并同时估计导航的位置。
在室内导航领域,视觉SLAM技术具有广泛的应用前景和潜力。
本文旨在讨论视觉SLAM技术在室内导航中的应用和改进探讨。
首先,视觉SLAM技术在室内导航中的应用主要集中在三个方面:实时地图建立、位置估计和导航规划。
对于实时地图建立,通过实时获取相机或摄像头的视频流,并提取关键帧和特征点,可以逐步构建室内环境的地图。
同时,在地图建立的过程中,SLAM技术还可以进行闭环检测和回环优化,提高地图的准确性和稳定性。
对于位置估计,视觉SLAM技术可以根据相机获取的图像信息,通过视觉里程计的方式实时估计导航的位置,从而实现室内定位。
最后,基于实时地图和位置估计,视觉SLAM技术还可以实现导航规划,为用户提供最优的室内导航路径。
然而,目前室内导航中的视觉SLAM技术还存在一些挑战和改进空间。
首先,对于大规模室内环境的地图建立和实时更新,需要解决计算复杂度和存储资源的问题。
当前的SLAM算法在处理大规模地图时往往速度较慢,并且需要大量的存储空间来保存地图信息。
其次,对于室内环境中复杂的光照变化和纹理缺失等问题,需要提高相机的视觉感知能力和图像处理算法的鲁棒性。
此外,在人流密集的场景下,处理多目标跟踪和人体姿态估计等问题也是需要解决的难题。
最后,对于导航规划的实时性和精确性要求较高,需要进一步优化路径规划算法,提高导航的准确性和效率。
针对上述挑战和改进空间,可以采取一些技术手段来提高视觉SLAM技术在室内导航中的性能。
首先,可以引入并行计算和分布式处理技术,以提高地图建立和实时更新的速度。
可以利用多核处理器或GPU加速算法运行,同时利用云计算等技术实现分布式地图更新。
其次,可以使用多种传感器进行辅助,如惯性测量单元(IMU)、深度相机等,以提高位置估计的精度和稳定性。
基于机器学习的视觉SLAM算法研究

基于机器学习的视觉SLAM算法研究随着智能化、自动化的快速发展,机器学习领域也越来越受到关注。
在视觉领域中,SLAM算法是一个重要的研究方向。
视觉SLAM是指利用视觉信息来进行场景地图构建和相机位姿估计的技术。
它在机器人导航、虚拟现实、自动驾驶等领域都有着广泛的应用。
在传统的视觉SLAM中,基于特征的方法较为流行,例如ORB-SLAM、SVO 等。
这些方法通过提取图像中的关键点,并在不同帧之间建立匹配关系,来进行场景重建和相机位姿估计。
然而,这些方法存在一些局限性,例如对光照变化、场景的遮挡情况、动态物体等的鲁棒性不够。
因此,近年来,基于深度学习的SLAM算法逐渐受到研究者的关注。
基于深度学习的SLAM算法可以分为两类:一类是利用深度神经网络来直接估计相机位姿或深度图像,另一类是将深度学习和传统的SLAM方法相结合。
前者中,学者们提出了一些基于卷积神经网络(CNN)和循环神经网络(RNN)的方法,例如DSO、DeepTIO等。
这些方法直接利用深度神经网络来进行位姿或深度估计,因此具有较好的鲁棒性和精度,且速度也得到了提高。
后一类方法是将深度学习应用于传统的SLAM方法中,例如利用卷积神经网络来进行像素匹配、光流估计等任务。
此外,还有一些方法将深度学习用于场景重建中,例如DeepSFM将深度学习用于稀疏特征点的三角化,从而提高了场景重建的精度。
除了基于深度学习的SLAM算法外,还有一些其他的研究方向。
例如基于激光雷达的SLAM方法,这种方法利用激光雷达扫描数据来进行场景重建和位姿估计,具有较好的鲁棒性和精度。
此外,还有一些方法将视觉SLAM与惯性测量单元(IMU)相结合,提高了相机姿态的估计精度。
总的来说,基于机器学习的视觉SLAM算法具有很大潜力。
通过深度学习的方法,可以解决传统SLAM方法中存在的问题,具有更好的鲁棒性和精度。
此外,结合其他传感器也可以提高算法的性能。
未来,基于机器学习的视觉SLAM算法将在智能化、自动化等领域中发挥重要作用。
基于点线综合特征的双目视觉slam方法
基于点线综合特征的双目视觉slam方法双目视觉SLAM(Simultaneous Localization and Mapping)是指在利用立体视觉的场景下,实时地对机器人的自身位置进行估计,并且同时构建出场景的三维模型。
传统的双目视觉SLAM方法主要基于特征点的匹配和跟踪,然而特征点的提取和匹配对计算资源的消耗较大,且受到光照变化和遮挡等因素的影响。
为了克服这些问题,基于点线综合特征的双目视觉SLAM方法被提出和广泛研究。
基于点线综合特征的双目视觉SLAM方法是一种利用点和线特征的组合进行定位和建图的技术。
相比于传统的特征点,线特征具有更强的鲁棒性和更多的几何信息,能够在复杂场景下提供更精确的定位和建图结果。
因此,基于点线综合特征的双目视觉SLAM方法引入了线特征的提取和匹配过程。
首先,基于点线综合特征的双目视觉SLAM方法需要对双目图像进行线特征提取。
线特征提取算法通常基于边缘检测技术,例如Canny算子,可以提取出图像中的边缘线。
然后,根据线特征的几何关系,可以进行线特征的拟合和匹配。
线特征的拟合过程通常采用最小二乘法,通过拟合直线方程可以得到线特征的参数。
线特征的匹配过程可以通过线特征的几何匹配和描述符匹配两个步骤完成。
几何匹配通过计算线特征之间的距离和角度来判断是否匹配。
描述符匹配则利用特征描述符来计算线特征之间的相似度。
其次,基于点线综合特征的双目视觉SLAM方法需要进行观测模型的建立和地图优化。
观测模型是指将图像中的特征点和线特征与机器人的状态进行关联的模型。
通过观测模型可以得到机器人在当前位置的路标点和线特征,进而进行自身位置的估计。
地图优化是指在估计机器人位置的同时,根据观测数据对地图进行更新和优化,得到更准确的地图模型。
地图优化通常采用非线性优化算法,例如Levenberg-Marquardt算法等。
最后,基于点线综合特征的双目视觉SLAM方法需要进行闭环检测和纠正。
闭环检测是指在机器人运动过程中,当机器人回到之前经过的位置时,通过比对当前位置和历史位置之间的特征匹配来检测闭环。
《视觉SLAM系统中基于深度学习的回环检测算法研究》范文
《视觉SLAM系统中基于深度学习的回环检测算法研究》篇一一、引言随着计算机视觉和机器人技术的快速发展,同时定位与地图构建(SLAM)已成为机器人技术的重要研究领域。
视觉SLAM 作为其核心技术之一,近年来越来越受到广泛关注。
其中,回环检测是视觉SLAM中不可或缺的一部分,对于提升系统的精度和鲁棒性具有重要意义。
本文将重点研究视觉SLAM系统中基于深度学习的回环检测算法,分析其原理、优势及存在的问题,并探讨其未来的研究方向。
二、视觉SLAM系统概述视觉SLAM是一种通过分析相机捕捉的图像信息,实现机器人或无人机的自我定位与地图构建的技术。
其基本原理包括特征提取、匹配、定位与地图构建等步骤。
其中,回环检测作为关键一环,能够帮助系统识别已访问过的地点,从而提高定位精度和地图构建的连续性。
三、传统回环检测算法传统的回环检测算法主要基于视觉特征匹配,如SIFT、SURF等手工特征描述符。
这些算法通过提取场景中的关键点并计算其描述符,实现场景的匹配与回环检测。
然而,这些算法在复杂场景下易受光照、视角等因素的影响,导致匹配精度下降。
四、基于深度学习的回环检测算法为了克服传统算法的局限性,研究者开始将深度学习技术引入视觉SLAM的回环检测中。
基于深度学习的回环检测算法通过训练深度神经网络来提取场景中的深度特征,实现更准确的场景匹配。
其基本原理包括特征提取、特征匹配和回环判断等步骤。
1. 特征提取:利用深度神经网络从场景图像中提取深度特征。
这些特征对光照、视角等变化具有较好的鲁棒性,有助于提高匹配精度。
2. 特征匹配:将提取的深度特征进行匹配,实现场景间的对应关系。
3. 回环判断:根据匹配结果判断是否发生回环,进而进行定位与地图构建。
五、深度学习在回环检测中的优势与挑战深度学习在回环检测中的优势主要体现在以下几个方面:1. 提取更丰富的场景信息:深度神经网络能够自动学习场景中的深层特征,提高匹配精度。
2. 对光照、视角等变化的鲁棒性:深度特征对光照、视角等变化具有较好的不变性,有助于提高回环检测的准确性。
双目视觉SLAM系统的设计与实现
双目视觉SLAM系统的设计与实现引言随着机器人技术的不断普及和发展,机器人具有了越来越多的实用价值。
其中,一种典型的机器人应用就是将机器人部署在深空、海洋等极端环境下进行探测任务。
而这些极端环境往往缺乏有效的人工干预手段,机器人必须依靠自己的感知、决策、规划和控制能力保证任务的顺利完成。
因此,如何让机器人具备自主感知和定位的能力,成为机器人科学研究的重要课题。
本文将主要介绍一种基于双目视觉SLAM(Simultaneous Localization And Mapping)技术的机器人自主感知与定位方案。
对于这种方案,我们首先需要了解SLAM技术的基本原理和应用场景。
同时,为了保证机器人感知和定位的精度,我们还需关注一些关键技术的细节和实现方法。
因此,本文将主要包括以下几个章节:1. 双目视觉SLAM技术的基本原理和应用场景2. 双目视觉系统的硬件设计与配置3. 立体匹配算法的原理和实现4. SLAM算法的原理和实现5. 结论与展望第一章双目视觉SLAM技术的基本原理和应用场景SLAM技术是指机器人同时通过感知和规划,实现在未知环境中实现自我定位和建立环境地图的过程。
而双目视觉SLAM技术是在SLAM基础上,利用双目视觉技术来实现云台机器人的感知和定位。
在双目视觉SLAM系统中,机器人必须同时采集两个相机的图像,并将这两个图像进行匹配,从而确定机器人在三维空间中的位置和方向。
这个过程中,机器人需要保持自身运动的平稳和稳定,否则匹配结果将产生误差。
在另一方面,为了提高SLAM的精度,机器人还需要感知它所处的环境,并生成精细的3D地图。
这样,机器人才能更加准确地进行自主定位和路径规划。
双目视觉SLAM系统的应用场景十分广泛,例如在探险、环境监测、工业生产等领域都有潜在的应用。
在搜寻失联者时,云台机器人可以使用双目视觉SLAM技术自主探索行动,感知障碍物,寻找失联者。
在无人车自主驾驶领域,双目视觉SLAM技术可以帮助车辆对自身所在的环境进行感知,实现更加精准和安全的行驶。
基于改进光流法的视觉SLAM
中文摘要摘要同时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术是移动机器人、无人机、自动驾驶领域研究的热点之一,SLAM技术能够帮助机器人、无人机、无人车等自主确定自身的位置,提取周围环境的信息,从而实现自主控制和导航等功能。
视觉SLAM作为其中最有发展潜力的SLAM方法之一,越来越备受关注。
本文关注视觉SLAM方法,采用Kinect1.0以及小觅摄像头作为视觉传感器,对视觉SLAM进行研究,在传统光流法基础上提出了基于GPU加速的改进光流法,并以此为基础,提出改进光流法RGBD SLAM以及利用改进光流法对VINS Mono进行改进。
本文的主要内容如下:①研究SLAM的相关背景知识,包括SLAM的发展历史,以及SLAM稀疏性提出后基于图优化的SLAM方法,研究了比较优秀的开源SLAM系统以及SLAM成功的商业应用,提出本文研究重点。
②研究视觉SLAM算法的背景知识,包括相机模型,Microsoft Kinect1.0的测量深度的原理;对三维空间的刚体运动进行介绍以及如何利用李群李代数进行位姿的优化;对图像的特征点进行了研究;并深入研究光流法的计算方法和原理。
③基于传统的光流法,提出基于GPU加速的改进光流法,通过GPU运算的加速,提高了改进光流法的运算速度,改进光流法利用GPU加速进行了两次光流法,通过对两次光流法后的特征点的位置进行像素距离的判断,剔除了错误的特征点,提高了特征点跟踪的正确率,与传统光流法对比,改进光流法的平均运行时间从0.0636s降低到了0.0026s,跟踪正确率由70%提高到95%以上,并且在光线变化、特征缺乏、图像模糊、图像过暗等各种复杂场景下都具有较强的鲁棒性,为SLAM 系统的运行效率和鲁棒性方面打下良好的基础。
④基于改进光流法,提出改进光流法RGBD SLAM系统,包括了前端视觉里程计和后端局部优化和回环检测等功能。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
r b t n o ain o o if r t wi E .h smuain x e i n idc t a e rp sd m o h t KFT e i l o e p rme t n iae tt t p o o e me o rd c c mp t in c mpe i , t h h h t d e u e o ua o M o lxt t y
t n e a ma le e d d K 】 n f tr i
摘 要 :IT 法通常用 于移 动机器人视 觉 SL SF 算 A 中。但 其算法复 杂、 M 计算 时间长 , 影响视 觉 S A 的性 能。在 两方 面对 SF LM IT 改进 : 一是 用街 区距 离与棋 盘距 离的线性组合作 为相似 性度量 ; 二是 采用部分 特征 方法完成快速 匹配 。应 用扩展卡 尔曼滤 波器 融合 S T I 特征信息与机 器人位姿信 息完成 S A F L M。仿真 实验表 明, 在未知 室 内环境下 , 算法运行时 间短 , 该 定位精度 高。 关键 词 : 不变特征变换 (L M)同步定位 与地 图构建 (IT ; 目 觉; 尺度 sA ; SF )双 视 扩展 卡 尔曼滤 波
2 Co lg f El cr n c n n o ma i n, ’ n P lt c ni i e st Xi a 1 0 8 Ch n . l e o e to is a d I f r t e o Xi a o y e h c Un v ri y, ’ n 7 0 4 , i a
a d wi i h l c l a i n p e ii n i nd o n io me t . n t h g o a i t r cso n i o r e vr n n s h z o
Ke r s Smutno s L cl ain ad Ma pn S AM ) Sae Ivr n e t e Ta s r ( IT) bn c l i o ;x y wo d : i l e u oai t n p ig( L a z o ; cl n a a tF a r r fm SF ; ioua vs n e — i u n o r i
10 7
2 1 ,7 1 ) 0 1 4 ( 4
C m ue E gn eiga d p l ain 计算机 工程与应用 o p tr n ier n n A pi t s c o
基于改进 SF I T算 法 的双 目视觉 S A 研究 L M
朱代先 。 , 王晓华
ZHU i i n , ANG a h a Da x a W Xi o u 2
m e s r me t S m e a ta e t r s l s d t t h n .LAM s o lt d b f sn e i f r a in o I T f au e n a u e n ; o p ri l f au e a e u e o ma c i g S i c mp e e y u i g t n o h m t f S F e tr s a d o
ZHU Da x a W ANG a h aRe e r h o no u a ii n S i i n, Xi o u . s a c f Bi c l r v so LAM l o ih a g rt m b s d o mpr v d I . mp t r En i ae n i o e S FT Co u e g—
DO :03 7 ̄i n1 0 .3 1 0 11 . 9 文章编 号 :0 28 3 ( 0 1 1 —100 文献标 识码: 中图分类号 : P 1 I 1 . 8 .s . 28 3 . 1.40 7 s 0 2 4 10 -3 12 1 )40 7 —4 A T91
n eig a d A piain ,0 1 4 (4 :7 -7 . ern n p l t s 2 1 。7 1 ) 1 01 3 c o
Abta t Sae Iv r tF a r r s r (I T loi m sue n mo i o o i l eu o Mi t n a dM apn s c: cl n ai et e Ta fm SF )ag rh i sdi bl rb tSmut o sL c z i p ig r n a u n o t e n a ao n
1 安科技大学 通信与息工 程学院 , . 西 西安 7 5 04 1 0 2西安工程大学 电信学院 , . 西安 7 0 4 10 8
1Co . mmu iain a d If r t n E gn eig Colg Xi n Umv  ̄i , ’n 7 0 5 Chn nc t n no mai n iern le e,  ̄a o o e t Xia 1 0 4, i a y
(L S AM ) b sd o i a ifr t n u hs a oi m s cmpi td ad cmp t in t s l gT m rvmet ae ae n vs l nomai . tti l r h i o l ae n o ua o i i o .wo i po e ns r u ob g t c t me n