A two-grid algorithm based on Newton iteration for the stream function form of the Navier-Stoke

合集下载

基于车载激光雷达的点云匹配定位

基于车载激光雷达的点云匹配定位

摘要定位是自动驾驶车辆自主导航技术的关键问题之一。

保持稳定、精确、实时的定位能够保证自动驾驶车辆行驶的安全。

自动驾驶车辆的定位方式主要有:基于全球卫星导航系统(Global Navigation Satellite System, GNSS)的定位方式,基于激光雷达点云地图匹配的定位方式等。

目前在自动驾驶领域,全球卫星导航系统是使用最广泛、应用最成熟的定位技术,自动驾驶车辆依靠GNSS定位技术能够在大多数场景下完成精确定位与导航,但仍然存在卫星信号被周边环境的建筑物和树木等障碍物遮挡导致定位失效或者偏移等状况。

目前为了提高定位精度,利用GNSS中的实时差分定位技术(Real-time Kinematic, RTK)结合惯性导航系统(Inertial Navigation System, INS)进行多传感器融合定位,以满足自动驾驶车辆高精度定位的需求。

但是,在复杂地形环境下对定位的干扰依然不可避免,因此在自动驾驶领域基于全球卫星导航系统的定位方式在地形环境复杂的场景下仍受到很大的限制。

车载激光雷达采集的点云地图不仅能够提供全方位的道路特征信息,同时,能够为自动驾驶车辆实现厘米级定位提供数据基础。

基于点云地图匹配的定位技术能够不受天气、地形等环境因素的影响,在定位测算中保持相互独立,在复杂环境下替代GNSS定位,为自动驾驶车辆的安全行驶提供保障。

为此,本文对基于点云地图匹配的定位技术进行研究,并对经典的点云匹配算法进行改进,对比不同算法在复杂环境下的定位精度和效率,验证基于点云地图匹配的定位技术的可行性。

本文的研究数据选取于目前国际上最大的自动驾驶场景数据集(KITTI)中的城市环境点云数据。

首先,对点云数据进行预处理,利用LOAM算法预先构建出点云地图,作为匹配定位实验的基础数据,利用PCL库中的滤波算法对点云数据中存在的噪声点进行过滤优化,增强匹配定位的稳定性;然后,分别利用迭代最近点(Iterative Closest Points,ICP)算法和正态分布变换(Normal Distribution Transform,NDT)算法进行单帧点云与点云地图的匹配定位实验,分析两种算法的稳定性、精度以及效率;最后,在当前完成匹配定位的基础上进行研究和算法改进,利用Gauss-Newton 法改进ICP算法,同时利用K-D树加速查找对应点,并且和NDT算法进行集成,定义为NDT-ICP算法,进行匹配定位实验。

中国工业与应用数学学会第十一届年会

中国工业与应用数学学会第十一届年会

13:30—15:20
材料科学
海韵宾馆六会议室
15:30—17:20 17:20—17:30 17:30 18:30
大会报告 闭幕式 候车(重庆夜景旅游) 晚饭
海韵宾馆六会议室 海韵宾馆六会议室 海韵宾馆六会议室外 两江游游船 请凭代表证上车
7 月 11 日 会议参观——赤水
时间 6:45 7:00 7:30 事项 叫醒 早饭 候车 海琴酒店中餐厅(酒店负一楼) 海琴酒店一楼大厅 请凭旅游牌上车 地点 备注
海琴二会议室
13:30—15:30
海韵宾馆多功能厅
小 讨 论 会 15:30—15:45
海琴三会议室 海琴五会议室
海琴二会议室
15:45—18:30
海韵宾馆多功能厅
小 讨 论 会 18:30—17:30
海琴三会议室 海琴五会议室 海琴酒店中餐厅(酒店负一楼) 请凭餐劵就餐
20:00—22:00
海琴三会议室
新加坡国立大学
—15:20 为小讨论会(Minisymposium) 注:13:30 13:30—
6
中国工业与应用数学学会第十一届年会暨中国工业与应用数学学会成立 20 周年庆典
圆桌会议
Round Tables
—22:00 July 8, 2010 Evening 20:00 20:00—
主题一:应用数学教育和数模竞赛 主持人:谢金星 清华大学 地点:海琴三会议室 地点:海琴二会议室
会议参观——黑山谷
时间 7:00 7:30 8:00 事项 叫醒 早饭 候车 海琴酒店中餐厅(酒店负一楼) 海琴酒店一楼大厅 请凭旅游牌上车 地点 备注
3
中国工业与应用数学学会第十一届年会暨中国工业与应用数学学会成立 20 周年庆典

神经网络的6种有监督训练算法

神经网络的6种有监督训练算法

神经⽹络的6种有监督训练算法神经⽹络可以采⽤有监督和⽆监督两种⽅式来进⾏训练。

传播训练算法是⼀种⾮常有效的有监督训练算法。

6种传播算法如下: 1·Backpropagation Training 2·Quick Propagation Training (QPROP) 3·Manhattan Update Rule 4·Resilient Propagation Training (RPROP) 5·Scaled Conjugate Gradient (SCG) 6·Levenberg Marquardt (LMA)1、反向传播算法(Backpropagation Training) Backpropagation is one of the oldest training methods for feedforward neural networks. Backpropagation uses two parameters in conjunction with the gradient descent calculated in the previous section. The first parameter is the learning rate which is essentially a percent that determines how directly the gradient descent should be applied to the weight matrix. The gradient is multiplied by the learning rate and then added to the weight matrix. This slowly optimizes the weights to values that will produce a lower error. One of the problems with the backpropagation algorithm is that the gradient descent algorithm will seek out local minima. These local minima are points of low error, but may not be a global minimum. The second parameter provided to the backpropagation algorithm helps the backpropagation out of local minima. The second parameter is called momentum. Momentum specifies to what degree the previous iteration weight changes should be applied to the current iteration. The momentum parameter is essentially a percent, just like the learning rate. To use momentum, the backpropagation algorithm must keep track of what changes were applied to the weight matrix from the previous iteration. These changes will be reapplied to the current iteration, except scaled by the momentum parameters. Usually the momentum parameter will be less than one, so the weight changes from the previous training iteration are less significant than the changes calculated for the current iteration. For example, setting the momentum to 0.5 would cause 50% of the previous training iteration's changes to be applied to the weights for the current weight matrix. 总结:最早提出的⽅法,需要提供学习速率和动量参数2、曼哈顿跟新规则(Manhattan Update Rule) One of the problems with the backpropagation training algorithm is the degree to which the weights are changed. The gradient descent can often apply too large of a change to the weight matrix. The Manhattan Update Rule and resilient propagation training algorithms only use the sign of the gradient. The magnitude is discarded. This means it is only important if the gradient is positive, negative or near zero. For the Manhattan Update Rule, this magnitude is used to determine how to update the weight matrix value. If the magnitude is near zero, then no change is made to the weight value. If the magnitude is positive, then the weight value is increased by a specific amount. If the magnitude is negative, then the weight value is decreased by a specific amount. The amount by which the weight value is changed is defined as a constant. You must provide this constant to the Manhattan Update Rule algorithm, like 0.00001.Manhattan propagation generally requires a small learning rate. 总结:提供学习速率参数,权重矩阵的该变量是⼀个固定的值,解决了采⽤梯度下降算法计算得到的权重改变量往往过⼤的问题。

一种新的正弦波频率估计算法

一种新的正弦波频率估计算法

一种新的正弦波频率估计算法张刚兵;钱显毅【摘要】研究了高斯白噪声条件下大样本点单一正弦波信号的频率估计方法.首先利用离散傅里叶变换确定频率粗估计,然后以该值为参考频率构造本地信号,将原信号下变频至基带,对基带信号分段求和,能得到一个新的正弦波信号,该信号的频率为真实频率与参考频率之差,最后利用最小二乘法估计新信号的载频,修正粗估计值就能得到原信号频率的最优估计.推导了算法的渐近方差与克拉美-罗限之间的关系.仿真结果表明,本算法能适用于整个频段范围,频率估计的精度接近正弦波频率估计的克拉美-罗限.%A novel algorithm for frequency estimation of sinusoid with many samples in the complex white Gaussian noise was proposed. A coarse frequency estimate was obtained through discrete Fourier transform and a sequence was constructed with the coarse frequency estimate being a reference frequency. Then the original sequence was converted into baseband by down-conversion. A new sinusoid was acquired after correlation accumulation, of which the frequency was the difference between the original frequency and reference one. Linear regression made it possible to get the optimal frequency difference estimate. The relationship between the asymptotic error variance (AEV) and the Cramer-Rao lower bound(CRLB) was derived. Simulation results show that the performance of the proposed algorithm approaches the CRLB of the sinusoidal signal when the signal-to-noise ratio(SNR) is higher than the SNR threshold.【期刊名称】《华中师范大学学报(自然科学版)》【年(卷),期】2012(046)001【总页数】5页(P40-44)【关键词】大样本;离散傅里叶变换;相关积累;频率估计【作者】张刚兵;钱显毅【作者单位】常州工学院电子信息与电气工程学院,江苏常州231002;常州工学院电子信息与电气工程学院,江苏常州231002【正文语种】中文【中图分类】TN911正弦波频率估计算法广泛应用于雷达、通信以及电子对抗等信号处理领域.Rife[1]最先提出了被加性复高斯白噪声污染的正弦波信号频率估计算法——最大似然(Maximum Likelihood,ML)估计,虽然其性能接近正弦波频率估计的克拉美-罗限(Cramer-Rao Lower Bound,CRLB),但需要进行一维频率搜索,计算量太大,不利于工程采纳.多位学者对正弦波信号频率估计问题作了进一步研究,相继提出了多种频率估计算法.这些算法大致可分为两类,一类是基于谱线插值,另一类是基于相位信息.文献[2]利用信号的最大两根谱线插值进行频率估计,即Rife算法.当信号频率位于量化频率附近时,由于插值方向错误,会导致频率估计性能下降.针对这一问题,文献[3]先对信号进行频移,使新信号的频率位于两个相邻量化频率点的中心区域,提出了修正Rife算法,再以该算法的估计值为初始值进行一次牛顿迭代(Sinusoid Frequency Estimation Based on Newton's Method,SFENM).当初始值位于收敛区域时,迭代收敛,其性能稳定,否则会导致频率估计精度下降.文献[4]提出了基于DFT相位的正弦波频率和初相估计方法(Based on Phase of DFT,BPDFT),利用分段DFT频谱的相位差消除了初相对频率估计的影响且避免了相位测量模糊问题.文献[5]指出,当信号真实频率与DFT量化频率差为某一范围时Rife算法精度不高,并研究了噪声背景中插值FFT估计正弦信号频率估计的问题.文献[6]利用与最大谱线对应的量化频率点相差半个量化频率的两根谱线进行插值,提出了一种迭代插值((Iterative Frequency Estimation by Interpolation on Fourier Coefficients,IFEIFC))频率估计算法,性能接近克拉美-罗限.Tretter[7]将加性复测量噪声等效为加性实相位噪声,利用最小二乘法对展开的相位估计信号的频率.高斯噪声条件下的最小二乘估计等价于最大似然估计,因此,文献[7]的算法在高斯噪声条件下的性能接近正弦信号频率估计的克拉美-罗限,但该算法模型成立的信噪比门限约为10dB,降低了其在低信噪比条件下的性能.为了避免相位展开,文献[8]利用相位平均和相位加权平均提出了基于相位差分的频率估计算法,在高信噪比条件下的性能与最小二乘法相当,也接近克拉美-罗限,但该算法也不适用于信噪比低于10dB的场合.文献[9-11]相继提出了3种基于信号自相关函数的频率估计算法,虽然改善了信噪比门限附近的性能,使之不会急剧恶化,但高信噪比条件下的性能却无法接近克拉美-罗限,甚至还会缩小频率估计范围[11].文献[12]反复利用低通滤波、抽取,线性预测以及数字差拍变频进行频率估计(Iterative Lin-ear prediction,ILP),大大降低了算法的信噪比门限,信噪比门限以上的性能最多超过克拉美-罗限0.7dB.文献[13]多次利用自相关函数进行频率估计(Autocorrelation-based algorithm,AA),当信号样本长度为1 024时,其频率估计的均方根误差比克拉美-罗限大0.14dB.当信号样本点数较大时,受硬件条件的限制,难以一次性对全部接收信号进行处理.如果先将信号分成等长的L段,再对每段信号分别进行频率估计,最后对各频率估计值取算术平均,那么只能得到非相干频率估计值,其估计方差仅为各段方差的L分之一,与整段信号频率估计的克拉美-罗限(为各段频率估计方差的L3分之一)相差甚远,此时的估计精度可能难以满足系统的性能指标.为了能估计大样本点信号的频率参数,同时保证参数估计的精度满足系统设计要求,必须研究新的频率估计方法.受文献[3-6]的启发,本文利用离散傅里叶变换(Discrete Fourier Transform,DFT)的信噪比增益作用降低信噪比门限,结合高斯噪声条件下最小二乘等价最大似然的特性,提出了一种正弦波频率估计算法.首先利用离散傅里叶变换得到频率粗估计值,然后以该值作为参考频率将原信号下变频至基带,分段求和后能得到一个新的正弦波信号.以该正弦波的频率修正参考频率就能得到原信号的频率估计值.与基于相位信息的算法相比,本算法的信噪比门限更低、均方误差更接近克拉美-罗限,与基于谱线插值的算法相比,计算效率更高.设信号模型为式中,A为信号的幅度,φ0为初始相位,f为信号的频率,ts为采样间隔,N为信号样本点数.ε是均值为0、方差为σ2的复高斯白噪声,定义信号的信噪比(signal-to-noise ratio,SNR)为SNR=A2/σ2.对式(1)定义的正弦波采样序列x(n),假定已得到信号频率f的粗估计值^f0,现构造序列将(1)式和(2)式共轭相乘式中,ε′是均值为0、方差为σ2的复高斯白噪声,Δf0 =f-为粗估计的误差.将式(3)表示的信号z(n)按M点分为一组并求和,能得到一个点数为L=N/M的新序列,假设N/M为整数,有式(4)中的S(m)是一个频率为Δf0、采样间隔为Mts、样本点数为L点的正弦波序列,对S(m)进行频率估计可得到频偏Δf0的估计值Δ^f0,修正粗估计能得到信号频率f的精确估计.无模糊估计频率要求频偏Δf0满足奈奎斯特采样定理,即序列S(m)的信噪比SNRout≃MA2/σ2=M×SNR,与正弦波采样序列x(n)相比,此时的信噪比增益提高了10lg MdB.累加点数M越多,信噪比增益越大,频偏Δf0估计的信噪比门限越低.Tretter在文献[7]中指出,当复正弦序列的输入信噪比远远大于1时,加性复测量噪声可近似为等效的加性实相位噪声,且相位噪声的方差为正弦波输入信噪比倒数的一半.当原测量信号信噪比不太小、信号样本点数较大时,经过求和积累后,式(4)的信噪比SNRout有可能远远大于1.因此,式(4)可近似为式中,ζm是均值为0、方差为1/(2SNRout)的实高斯白噪声.高斯白噪声条件下的最小二乘估计等价于最大似然估计,如果能得到序列S(m)无模糊的相位值φm,就能用最小二乘估计得到频偏Δf0的最优估计.设式(8)中X的最小二乘估计为利用频偏的估计值修正频率粗估计就能得到信号频率的精确估计,综合以上分析,本算法的实现步骤为1)确定最大谱线对应的量化频率点,得到粗估计;2)按照公式(2)、(3)、(4)得到序列S(m),m=0,1,…,L-1;3)利用文献[7]的算法对S(m)进行载频估计,得到频偏Δf0的估计值Δ4)利用频偏Δf0的估计值得到频率估计值5)以频率估计值作为粗估计值,重复2)、3)、4)进行一次迭代,可以得到更精确的频率估计值^f.现从渐近方差(Asymptotic Error Variance,AEV)以及计算量对本算法进行定量分析.利用最大谱线对应的量化频率点作为频率粗估计,在不出现频率模糊的条件下,粗估计误差满足对式(3)表示的信号z(n)进行M 点累加以后,新序列的信噪比增加了10lg (M)dB,M 越大,信噪比增益越大,影响频偏估计的信噪比门限就越低.累加之后要求信号S(m)有两个以上的样本点,M 的取值必须满足M ≤N/2,利用式(10),有因此,累加之后能满足式(5)对无模糊频率估计的要求.频率估计的精度由频偏Δf0的估计精度决定,而频偏估计是无偏估计,估计的均方误差为[7]式中,E(·)表示取数学期望.正弦波信号频率估计^f的克拉美-罗限(CRLB)为[1]由式(12)和式(13)有从式可以看出,累加点数M越大,性能损失越大,当M=N/2时,性能下降最严重,此时的性能与克拉美-罗限相差1.25dB.但当M分别为N/4和N/8时,累加求和后的信号样本分别为4点和8点,性能相对克拉美-罗限分别下降0.28dB和0.07dB.在M≪N的条件下,本算法的均方误差与克拉美-罗限相等.现分析本算法需要的计算量,假设N是2的整数次幂.在频率粗估计时利用快速傅里叶变换(Fast Fourier Transform,FFT)确定信号的频谱,需要N/2·log2N次复数乘法、Nlog2N次复数加法,确定最大谱线的位置需要N次复数乘法,式(4)需要N次复数乘法,式需要N(M-1)/M复数加法,获得相位需要N/M次反正切运算、N/M次相位展开,估计频偏则需要N/M次实数乘法和N/M-1次实数加法,作一次迭代需要N次复数乘法、N(M-1)/M复数加法、N/M 次反正切运算、N/M 次相位展开、N/M次实数乘法和N/M-1次实数加法.为了验证本算法的测频性能,对其进行计算机仿真,信号样本点数为1 024,采样频率为100MHz,信噪比为0dB,累加点数M为128,信号频率从25MHz开始,到25MHz+1/(2 NΔt)结束,将频率变化范围等分20份,每个离散频率点上各仿真2 000次.其均方根误差与克拉美-罗限之比随频率变化的性能曲线如图1所示.图1的仿真结果表明,基于自相关函数相位信息的频率估计算法的均方根误差最大,基于谱线迭代插值和以修正Rife算法估计值为初值进行一次牛顿迭代的频率估计算法性能相当,都能在整个频段范围内进行频率估计.下面验证本算法在不同信噪比条件下的性能.采样频率为100MHz,信号的频率为f=21.123 42MHz,信号样本点数N为1 024,累加点数M为128.对本算法的性能进行仿真,给出了各算法在相同条件下的性能对比,每种条件下各进行2 000次独立的仿真.均方根误差(RMSE)与信噪比(SNR)之间的关系如图2所示.图中给出了各算法的均方根误差及克拉美-罗限,图中横轴为线性坐标,纵轴为对数坐标.图2的仿真结果表明,本算法与文献[6]算法一样,具有相同的信噪比门限,且都低于文献[3-4-12-13]算法.因此,本算法对信噪比要求更低,能估计较低信噪比条件下信号的频率.在较低信噪比条件下,牛顿迭代的初始值位于收敛区域之外,迭代不收敛,此时的估计性能不如本算法.随着信噪比的增加,初始值进入收敛区域,迭代后的性能接近克拉美-罗限.文献[12-13]都是基于迭代自相关函数估计信号的频率,其信噪比门限均高于基于DFT的频率估计算法.在整个信噪比变化区间内,本算法的均方根误差都接近克拉美-罗限,表明本算法性能稳定,对信噪比变化不敏感.本文提出了一种适用于单一信号的频率估计算法,本算法具有较低的信噪比门限,其性能均匀分布在整个测频范围内.当累加求和后的信号样本点数为8时,频率估计的均方误差相对克拉美-罗限下降0.07dB.当累加后的信号样本点数远小于原测量信号样本点数时,本算法的均方误差与克拉美-罗限相同.考虑信噪比门限、测频范围以及估计性能,本算法都优于基于相位和自相关函数的频率估计器,因此,本算法具有一定的工程应用价值.【相关文献】[1]Rife D C,Boorstyn R R.Single-tone parameter estimation from discrete-time observations[J].IEEE Trans on Information Theory,1974,20(5):591-598.[2]Rife D C,Bowstyn R R.Multiple tone parameter estimation from discrete rime observation[J].Bell Syst Tech J,1976,55(9):1389-1410.[3]邓振淼,刘渝.正弦波频率估计的牛顿迭代方法初始值研究[J].电子学报,2007,35(1):104-107.[4]齐国清,贾欣乐.基于DFT相位的正弦波频率和初相的高精度估计方法[J].电子学报,2001,29(9):1164-1167.[5]齐国清,贾欣乐.插值FFF估计正弦信号频率的精度分析[J].电子学报,2004,32(4):625-629.[6]Aboutanios E,Mulgrew B.Iterative frequency estimation by interpolation on Fourier coefficients[J].IEEE Trans on Signal Processing,2005,53(4):1237-1242.[7]Tretter S.Estimating the frequency of a noisy sinusoid by linear regression[J].IEEE Trans on Information Theory,1985,31(6):832-835.[8]Kay S M.A fast and accurate single frequency estimator[J].IEEE Trans on Acoustics,Speech,and Signal Processing,1989,37(12):1987-1990.[9]Fitz M P.Further results in the fast estimation of a single frequency[J].IEEE Trans Communications,1994,42:862-864.[10]Luise M,Reggiannini R.Carrier frequency recovery in alldigital modems for burst-mode transmissions[J].IEEE Trans Communications,1995,43:1169-1178.[11]Fowler M L,Johnson J A.Extending the threshold and frequency range for phase-based frequency estimation[J].IEEE Trans on Signal Processing,1999,47(10):2857-2863.[12]Brown T,Wang M M.An iterative algorithm for singlefrequency estimation[J].IEEE Trans on Signal Processing,2002,50(11):2671-2682.[13]Xiao Yang-Can,Wei Ping,Tai Heng-Ming.Autocorrelation-based algorithm for single-frequency estimation[J].Signal Processing,2007:1224-1233.。

基于智能算法的蓄电池远程核容优化路径探究

基于智能算法的蓄电池远程核容优化路径探究

Telecom Power Technology电源与节能技术 2023年9月25日第40卷第18期87 Telecom Power TechnologySep. 25, 2023, Vol.40 No.18李晓玲:基于智能算法的蓄电池远程核容优化路径探究表达式可转化为 ()i i j 1,Ni y a K x x b ==+∑(2)式中:a i 为Lagrange 对偶变量,并且有a i ≥0;K (x i , x j )= ()T x φw x i )T ()T x φw x j )为核函数。

常用的核函数包括线性函数、径向基核函数等,在蓄电池剩余容量估算中选用径向基核函数,其表达式为 ()()2i j i j,exp ,PK x x x x =−(3)式中:P 为指数参数。

1.2.2 LSSVM 算法的整体实施流程根据LSSVM 算法的应用原理,其实施流程为选择模型的输入变量和输出变量→数据预处理→确定K 折线交叉验证回归的最佳参数→利用最佳参数训练LSSVM 算法→进行数据预测[3]。

在K 折线交叉验证回归阶段,需要确定sig 2和gam 这2个关键参数。

1.2.3 基于LSSVM 算法的蓄电池核容方法性能试验(1)试验方法。

试验方法由物理试验和仿真试验2部分组成,物理试验装置包括温度控制箱、内部电阻检测仪、蓄电池活化仪以及4节铅酸蓄电池。

利用MATLAB 搭建物理模型的仿真模型,运用LSSVM 算法进行剩余容量预测,物理试验和仿真试验互为对照组[4]。

在物理试验中,剩余容量S OC 采用安时法进行计算,具体为 ()OCOC00e1S S d ti t t C η=+∫(4)式中:S OC 0为剩余容量的初始值;C e 为蓄电池的额定容量;η为放电效率;i (t )为时刻t 的放电电流。

蓄电池组的恒流放电采用蓄电池活化仪,进而得到i (t )数据。

(2)误差评价标准。

在误差评价中,使用3个评价指标,分别为均方根误差εmse 、平均百分比误差εavg_error 以及最大百分比误差εmax_error ,相应的计算方法为 ip io max _error io max 100%y y y ε−=×(5) ip io avg _error1io100%n i y y n y ε=− =× ∑(6)()2ipio 1mse ni yy nε=−=∑ (7)式中:y io 为第i 个数据点剩余容量的预测值;y ip 为对应的原始值(物理模型的检测结果)。

一种基于直接学习结构的数字预失真方法

一种基于直接学习结构的数字预失真方法

一种基于直接学习结构的数字预失真方法张月;黄永辉【摘要】针对宽带信号功率放大器(PA)的非线性效应和记忆效应,提出了一种基于直接学习结构的数字预失真(DPD)方法.该方法结合牛顿法进行参数提取,降低了参数迭代次数和运算量.以20 MHz带宽的64QAM信号作为输入信号,采用记忆多项式(MP)模型的预失真器以及Wiener功放模型进行仿真.仿真结果表明,该方法能有效补偿放的非线性失真,系统经过6次迭代后,其归一化均方误差(NMSE)可达-65.83 dB,误差矢量幅度(EVM)降低到0.06%,邻道功率比(ACPR)可达-45.33 dBc.%To compensation the nonlinear distortion and memory effects of the wideband power amplifiers,a digital pre-distortion method based on direct learning is proposed. Combined with the Newton algorithm,this method can reduce the iteration numbers and the amount of calculation. The simulation is proceeded using a 20MHz 64QAM signal, taking the memory polynomial model for predistorter,and the Wiener model for power amplifier. Simulation results show that the method could achieve an outstanding performance after the 6 iterations,the system's normalized mean square error (NMSE)can reach-65.8 dB,the error vector magnitude(EVM)could reduce to 0.06%and the adjacent channel power ratio(ACPR)can reach-45.33 dBc.【期刊名称】《电子设计工程》【年(卷),期】2018(026)011【总页数】5页(P91-94,99)【关键词】数字预失真;直接学习结构;记忆多项式模型;牛顿法【作者】张月;黄永辉【作者单位】中国科学院大学北京100190;中国科学院国家空间科学中心北京100190;中国科学院国家空间科学中心北京100190【正文语种】中文【中图分类】TN919为充分利用有限的频谱资源,非恒定包络线性调制方式和多载波技术在卫星通信中将会获得越来越广泛的应用,这对功率放大器的线性度提出了更高的要求[1-3]。

牛顿-拉夫逊潮流计算中检测雅可比矩阵奇异性和网络孤岛的新方法


由 ( 式可得:I 【 0由于 D是对角矩 3 ) = 阵, , 因此 至少有一对角元 素为 0 。 因为 U= UL D D ,VL 设该潮流计算 是 n 节点 系统 。 所以( ) 2) 2 或( 工 a b弋有一个成立 , U 中有一 H子矩阵奇异 ,那 么 H矩阵各 个列向量线 性相 即 n 一1 零行 或 中有一零列 。 u 中行为零 , 是行相关 隋况 ;丰中列 为 关 , : 这 L 即 - = ( 不全为 0 q 0 ) 零, 这是列相关 隋况。 其 中: 是 H矩 阵的列 向量 ,1是相关 系 c T A矩 阵奇异 , 那么 A矩 阵行 向量 、 向量线 列 数 。由潮流雅可 比矩阵元素计算可知 : 性相关 , 即: 对 同一节点 , 素和 J 素的计 算具 有完 H元 元 全相似 的表达式 ,因此 ,矩 阵的各个列 向量也 J (a 4) 应满足( , 即:
中国新技术新产 品
一7

C ia N w T c n l ge n r d cs h n e e h oo isa d P o u t
高 新 技 术
新型停 水 自动关 闭阀结构 、 点及操作要 点 特
张金龙 曹 艳
( 西安航 空技 术高等专科学校机械 工程 系, 陕西 西安 7 0 7 ) 10 7
中图分 类 号 : 4 . 文献标 识 码 : G6 45 A

I 言 。在 日常生 活 中 , 前 由于停 水时 忘记 关 闭 阀门 , 水 时 也没 能及 时 关 闭 阀门 , 来 造成 水 资源 浪 费甚 至形 成安 全 隐 患 的情况 屡 见不 鲜 。 着全 民节 水 概念 不 断深入 人 心 , 一 问 随 这 题 引起 各方 关 注 。 因此 急 需设 计 一 款可 以在 停 水 时 自动关 闭 的水 阀 ,它 能够 在停 水 后 即 使 人们 忘记 关 闭 水 龙 头 也 能实 现 自动 关 闭 , 而再 次 来水 时 不 至于 出 现水 患 的情 况 ,能够 有 效 的节 约水 资源 。 要 实 现 自动 关 闭 功 能首 先 要 有 动 力 , 这 方 面可 以借 助 磁性 元件 的磁 力 、弹性 元 件 的 弹力 、 力 等外 力 , 时考 虑供 水 和停 水 时 的 重 同 水 压变 化 , 通过 联 动机 构实 现 。 2停 水 自动关 闭 阀 的结 构 及 特点 。利用 水 压 、 力 等 力 学 特 性 , 过 一 系 列 的实 验 、 重 经 改 进 , 发 出一 种 简单 、 行 的带 有 停水 自锁 研 可 机 构 的水 阀 。 款 水 阀为纯 机 械构 造 , 阀体 这 以 为 主体 框 架 , 有 阀 芯 、 封 圈 、 心 轮 以及 配 密 偏 手柄 , 无弹 性元 件 , 作状 况 不 受环 境 和时 间 工 的 限制 , 构 简 单 , 价 低 廉 并 方 便拆 换 , 结 造 整 体 可靠 性 高 。 停 水 自动关 闭 阀结 构 原 理 如 图 1 示 , 所 实 物 如 图 2所示 。序号 l 水 阀 的偏 心轮 , 为 2 为 0 型密 封 圈 , 为 V型 密封 圈 , 阀体 , 3 4为 5 为 阀芯 , 销 轴 , 手 柄 。 阀体 4是 主 框 6为 7为 架 , 来装 配其 它 元 件 , 进 水 口和 出 水 口; 用 有 阀芯 5的顶 端 与末 端分 别 装有 V 型密 封 圈 3 和 0 型 密 封 圈 2v 型 密 封 圈 3利 用 其 锥 面 , 与 阀体 4内部 锥 面 配合 实 现 停 水 时 密 封 , 而 0型密 封 圈 2与 阀体 4内壁 的接 触 实 现来 水 时对 水 阀末 端 的密 封 ,在 阀 芯 5的 中部 开两

AI专用词汇

AI专⽤词汇LetterAAccumulatederrorbackpropagation累积误差逆传播ActivationFunction激活函数AdaptiveResonanceTheory/ART⾃适应谐振理论Addictivemodel加性学习Adversari alNetworks对抗⽹络AffineLayer仿射层Affinitymatrix亲和矩阵Agent代理/智能体Algorithm算法Alpha-betapruningα-β剪枝Anomalydetection异常检测Approximation近似AreaUnderROCCurve/AUCRoc曲线下⾯积ArtificialGeneralIntelligence/AGI通⽤⼈⼯智能ArtificialIntelligence/AI⼈⼯智能Associationanalysis关联分析Attentionmechanism注意⼒机制Attributeconditionalindependenceassumption属性条件独⽴性假设Attributespace属性空间Attributevalue属性值Autoencoder⾃编码器Automaticspeechrecognition⾃动语⾳识别Automaticsummarization⾃动摘要Aver agegradient平均梯度Average-Pooling平均池化LetterBBackpropagationThroughTime通过时间的反向传播Backpropagation/BP反向传播Baselearner基学习器Baselearnin galgorithm基学习算法BatchNormalization/BN批量归⼀化Bayesdecisionrule贝叶斯判定准则BayesModelAveraging/BMA贝叶斯模型平均Bayesoptimalclassifier贝叶斯最优分类器Bayesiandecisiontheory贝叶斯决策论Bayesiannetwork贝叶斯⽹络Between-cla ssscattermatrix类间散度矩阵Bias偏置/偏差Bias-variancedecomposition偏差-⽅差分解Bias-VarianceDilemma偏差–⽅差困境Bi-directionalLong-ShortTermMemory/Bi-LSTM双向长短期记忆Binaryclassification⼆分类Binomialtest⼆项检验Bi-partition⼆分法Boltzmannmachine玻尔兹曼机Bootstrapsampling⾃助采样法/可重复采样/有放回采样Bootstrapping⾃助法Break-EventPoint/BEP平衡点LetterCCalibration校准Cascade-Correlation级联相关Categoricalattribute离散属性Class-conditionalprobability类条件概率Classificationandregressiontree/CART分类与回归树Classifier分类器Class-imbalance类别不平衡Closed-form闭式Cluster簇/类/集群Clusteranalysis聚类分析Clustering聚类Clusteringensemble聚类集成Co-adapting共适应Codin gmatrix编码矩阵COLT国际学习理论会议Committee-basedlearning基于委员会的学习Competiti velearning竞争型学习Componentlearner组件学习器Comprehensibility可解释性Comput ationCost计算成本ComputationalLinguistics计算语⾔学Computervision计算机视觉C onceptdrift概念漂移ConceptLearningSystem/CLS概念学习系统Conditionalentropy条件熵Conditionalmutualinformation条件互信息ConditionalProbabilityTable/CPT条件概率表Conditionalrandomfield/CRF条件随机场Conditionalrisk条件风险Confidence置信度Confusionmatrix混淆矩阵Connectionweight连接权Connectionism连结主义Consistency⼀致性/相合性Contingencytable列联表Continuousattribute连续属性Convergence收敛Conversationalagent会话智能体Convexquadraticprogramming凸⼆次规划Convexity凸性Convolutionalneuralnetwork/CNN卷积神经⽹络Co-oc currence同现Correlationcoefficient相关系数Cosinesimilarity余弦相似度Costcurve成本曲线CostFunction成本函数Costmatrix成本矩阵Cost-sensitive成本敏感Crosse ntropy交叉熵Crossvalidation交叉验证Crowdsourcing众包Curseofdimensionality维数灾难Cutpoint截断点Cuttingplanealgorithm割平⾯法LetterDDatamining数据挖掘Dataset数据集DecisionBoundary决策边界Decisionstump决策树桩Decisiontree决策树/判定树Deduction演绎DeepBeliefNetwork深度信念⽹络DeepConvolutionalGe nerativeAdversarialNetwork/DCGAN深度卷积⽣成对抗⽹络Deeplearning深度学习Deep neuralnetwork/DNN深度神经⽹络DeepQ-Learning深度Q学习DeepQ-Network深度Q⽹络Densityestimation密度估计Density-basedclustering密度聚类Differentiab leneuralcomputer可微分神经计算机Dimensionalityreductionalgorithm降维算法D irectededge有向边Disagreementmeasure不合度量Discriminativemodel判别模型Di scriminator判别器Distancemeasure距离度量Distancemetriclearning距离度量学习D istribution分布Divergence散度Diversitymeasure多样性度量/差异性度量Domainadaption领域⾃适应Downsampling下采样D-separation(Directedseparation)有向分离Dual problem对偶问题Dummynode哑结点DynamicFusion动态融合Dynamicprogramming动态规划LetterEEigenvaluedecomposition特征值分解Embedding嵌⼊Emotionalanalysis情绪分析Empiricalconditionalentropy经验条件熵Empiricalentropy经验熵Empiricalerror经验误差Empiricalrisk经验风险End-to-End端到端Energy-basedmodel基于能量的模型Ensemblelearning集成学习Ensemblepruning集成修剪ErrorCorrectingOu tputCodes/ECOC纠错输出码Errorrate错误率Error-ambiguitydecomposition误差-分歧分解Euclideandistance欧⽒距离Evolutionarycomputation演化计算Expectation-Maximization期望最⼤化Expectedloss期望损失ExplodingGradientProblem梯度爆炸问题Exponentiallossfunction指数损失函数ExtremeLearningMachine/ELM超限学习机LetterFFactorization因⼦分解Falsenegative假负类Falsepositive假正类False PositiveRate/FPR假正例率Featureengineering特征⼯程Featureselection特征选择Featurevector特征向量FeaturedLearning特征学习FeedforwardNeuralNetworks/FNN前馈神经⽹络Fine-tuning微调Flippingoutput翻转法Fluctuation震荡Forwards tagewisealgorithm前向分步算法Frequentist频率主义学派Full-rankmatrix满秩矩阵Func tionalneuron功能神经元LetterGGainratio增益率Gametheory博弈论Gaussianker nelfunction⾼斯核函数GaussianMixtureModel⾼斯混合模型GeneralProblemSolving通⽤问题求解Generalization泛化Generalizationerror泛化误差Generalizatione rrorbound泛化误差上界GeneralizedLagrangefunction⼴义拉格朗⽇函数Generalized linearmodel⼴义线性模型GeneralizedRayleighquotient⼴义瑞利商GenerativeAd versarialNetworks/GAN⽣成对抗⽹络GenerativeModel⽣成模型Generator⽣成器Genet icAlgorithm/GA遗传算法Gibbssampling吉布斯采样Giniindex基尼指数Globalminimum全局最⼩GlobalOptimization全局优化Gradientboosting梯度提升GradientDescent梯度下降Graphtheory图论Ground-truth真相/真实LetterHHardmargin硬间隔Hardvoting硬投票Harmonicmean调和平均Hessematrix海塞矩阵Hiddendynamicmodel隐动态模型H iddenlayer隐藏层HiddenMarkovModel/HMM隐马尔可夫模型Hierarchicalclustering层次聚类Hilbertspace希尔伯特空间Hingelossfunction合页损失函数Hold-out留出法Homo geneous同质Hybridcomputing混合计算Hyperparameter超参数Hypothesis假设Hypothe sistest假设验证LetterIICML国际机器学习会议Improvediterativescaling/IIS改进的迭代尺度法Incrementallearning增量学习Independentandidenticallydistributed/i.i.d.独⽴同分布IndependentComponentAnalysis/ICA独⽴成分分析Indicatorfunction指⽰函数Individuallearner个体学习器Induction归纳Inductivebias归纳偏好I nductivelearning归纳学习InductiveLogicProgramming/ILP归纳逻辑程序设计Infor mationentropy信息熵Informationgain信息增益Inputlayer输⼊层Insensitiveloss不敏感损失Inter-clustersimilarity簇间相似度InternationalConferencefor MachineLearning/ICML国际机器学习⼤会Intra-clustersimilarity簇内相似度Intrinsicvalue固有值IsometricMapping/Isomap等度量映射Isotonicregression等分回归It erativeDichotomiser迭代⼆分器LetterKKernelmethod核⽅法Kerneltrick核技巧K ernelizedLinearDiscriminantAnalysis/KLDA核线性判别分析K-foldcrossvalidationk折交叉验证/k倍交叉验证K-MeansClusteringK–均值聚类K-NearestNeighb oursAlgorithm/KNNK近邻算法Knowledgebase知识库KnowledgeRepresentation知识表征LetterLLabelspace标记空间Lagrangeduality拉格朗⽇对偶性Lagrangemultiplier拉格朗⽇乘⼦Laplacesmoothing拉普拉斯平滑Laplaciancorrection拉普拉斯修正Latent DirichletAllocation隐狄利克雷分布Latentsemanticanalysis潜在语义分析Latentvariable隐变量Lazylearning懒惰学习Learner学习器Learningbyanalogy类⽐学习Learn ingrate学习率LearningVectorQuantization/LVQ学习向量量化Leastsquaresre gressiontree最⼩⼆乘回归树Leave-One-Out/LOO留⼀法linearchainconditional randomfield线性链条件随机场LinearDiscriminantAnalysis/LDA线性判别分析Linearmodel线性模型LinearRegression线性回归Linkfunction联系函数LocalMarkovproperty局部马尔可夫性Localminimum局部最⼩Loglikelihood对数似然Logodds/logit对数⼏率Lo gisticRegressionLogistic回归Log-likelihood对数似然Log-linearregression对数线性回归Long-ShortTermMemory/LSTM长短期记忆Lossfunction损失函数LetterM Machinetranslation/MT机器翻译Macron-P宏查准率Macron-R宏查全率Majorityvoting绝对多数投票法Manifoldassumption流形假设Manifoldlearning流形学习Margintheory间隔理论Marginaldistribution边际分布Marginalindependence边际独⽴性Marginalization边际化MarkovChainMonteCarlo/MCMC马尔可夫链蒙特卡罗⽅法MarkovRandomField马尔可夫随机场Maximalclique最⼤团MaximumLikelihoodEstimation/MLE极⼤似然估计/极⼤似然法Maximummargin最⼤间隔Maximumweightedspanningtree最⼤带权⽣成树Max-P ooling最⼤池化Meansquarederror均⽅误差Meta-learner元学习器Metriclearning度量学习Micro-P微查准率Micro-R微查全率MinimalDescriptionLength/MDL最⼩描述长度Minim axgame极⼩极⼤博弈Misclassificationcost误分类成本Mixtureofexperts混合专家Momentum动量Moralgraph道德图/端正图Multi-classclassification多分类Multi-docum entsummarization多⽂档摘要Multi-layerfeedforwardneuralnetworks多层前馈神经⽹络MultilayerPerceptron/MLP多层感知器Multimodallearning多模态学习Multipl eDimensionalScaling多维缩放Multiplelinearregression多元线性回归Multi-re sponseLinearRegression/MLR多响应线性回归Mutualinformation互信息LetterN Naivebayes朴素贝叶斯NaiveBayesClassifier朴素贝叶斯分类器Namedentityrecognition命名实体识别Nashequilibrium纳什均衡Naturallanguagegeneration/NLG⾃然语⾔⽣成Naturallanguageprocessing⾃然语⾔处理Negativeclass负类Negativecorrelation负相关法NegativeLogLikelihood负对数似然NeighbourhoodComponentAnalysis/NCA近邻成分分析NeuralMachineTranslation神经机器翻译NeuralTuringMachine神经图灵机Newtonmethod⽜顿法NIPS国际神经信息处理系统会议NoFreeLunchTheorem /NFL没有免费的午餐定理Noise-contrastiveestimation噪⾳对⽐估计Nominalattribute列名属性Non-convexoptimization⾮凸优化Nonlinearmodel⾮线性模型Non-metricdistance⾮度量距离Non-negativematrixfactorization⾮负矩阵分解Non-ordinalattribute⽆序属性Non-SaturatingGame⾮饱和博弈Norm范数Normalization归⼀化Nuclearnorm核范数Numericalattribute数值属性LetterOObjectivefunction⽬标函数Obliquedecisiontree斜决策树Occam’srazor奥卡姆剃⼑Odds⼏率Off-Policy离策略Oneshotlearning⼀次性学习One-DependentEstimator/ODE独依赖估计On-Policy在策略Ordinalattribute有序属性Out-of-bagestimate包外估计Outputlayer输出层Outputsmearing输出调制法Overfitting过拟合/过配Oversampling过采样LetterPPairedt-test成对t检验Pairwise成对型PairwiseMarkovproperty成对马尔可夫性Parameter参数Parameterestimation参数估计Parametertuning调参Parsetree解析树ParticleSwarmOptimization/PSO粒⼦群优化算法Part-of-speechtagging词性标注Perceptron感知机Performanceme asure性能度量PlugandPlayGenerativeNetwork即插即⽤⽣成⽹络Pluralityvoting相对多数投票法Polaritydetection极性检测Polynomialkernelfunction多项式核函数Pooling池化Positiveclass正类Positivedefinitematrix正定矩阵Post-hoctest后续检验Post-pruning后剪枝potentialfunction势函数Precision查准率/准确率Prepruning预剪枝Principalcomponentanalysis/PCA主成分分析Principleofmultipleexplanations多释原则Prior先验ProbabilityGraphicalModel概率图模型ProximalGradientDescent/PGD近端梯度下降Pruning剪枝Pseudo-label伪标记LetterQQuantizedNeu ralNetwork量⼦化神经⽹络Quantumcomputer量⼦计算机QuantumComputing量⼦计算Quasi Newtonmethod拟⽜顿法LetterRRadialBasisFunction/RBF径向基函数RandomFo restAlgorithm随机森林算法Randomwalk随机漫步Recall查全率/召回率ReceiverOperatin gCharacteristic/ROC受试者⼯作特征RectifiedLinearUnit/ReLU线性修正单元Recurr entNeuralNetwork循环神经⽹络Recursiveneuralnetwork递归神经⽹络Referencemodel参考模型Regression回归Regularization正则化Reinforcementlearning/RL强化学习Representationlearning表征学习Representertheorem表⽰定理reproducingke rnelHilbertspace/RKHS再⽣核希尔伯特空间Re-sampling重采样法Rescaling再缩放Residu alMapping残差映射ResidualNetwork残差⽹络RestrictedBoltzmannMachine/RBM受限玻尔兹曼机RestrictedIsometryProperty/RIP限定等距性Re-weighting重赋权法Robu stness稳健性/鲁棒性Rootnode根结点RuleEngine规则引擎Rulelearning规则学习LetterS Saddlepoint鞍点Samplespace样本空间Sampling采样Scorefunction评分函数Self-Driving⾃动驾驶Self-OrganizingMap/SOM⾃组织映射Semi-naiveBayesclassifiers半朴素贝叶斯分类器Semi-SupervisedLearning半监督学习semi-SupervisedSupportVec torMachine半监督⽀持向量机Sentimentanalysis情感分析Separatinghyperplane分离超平⾯SigmoidfunctionSigmoid函数Similaritymeasure相似度度量Simulatedannealing模拟退⽕Simultaneouslocalizationandmapping同步定位与地图构建SingularV alueDecomposition奇异值分解Slackvariables松弛变量Smoothing平滑Softmargin软间隔Softmarginmaximization软间隔最⼤化Softvoting软投票Sparserepresentation稀疏表征Sparsity稀疏性Specialization特化SpectralClustering谱聚类SpeechRecognition语⾳识别Splittingvariable切分变量Squashingfunction挤压函数Stability-plasticitydilemma可塑性-稳定性困境Statisticallearning统计学习Statusfeaturefunction状态特征函Stochasticgradientdescent随机梯度下降Stratifiedsampling分层采样Structuralrisk结构风险Structuralriskminimization/SRM结构风险最⼩化S ubspace⼦空间Supervisedlearning监督学习/有导师学习supportvectorexpansion⽀持向量展式SupportVectorMachine/SVM⽀持向量机Surrogatloss替代损失Surrogatefunction替代函数Symboliclearning符号学习Symbolism符号主义Synset同义词集LetterTT-Di stributionStochasticNeighbourEmbedding/t-SNET–分布随机近邻嵌⼊Tensor张量TensorProcessingUnits/TPU张量处理单元Theleastsquaremethod最⼩⼆乘法Th reshold阈值Thresholdlogicunit阈值逻辑单元Threshold-moving阈值移动TimeStep时间步骤Tokenization标记化Trainingerror训练误差Traininginstance训练⽰例/训练例Tran sductivelearning直推学习Transferlearning迁移学习Treebank树库Tria-by-error试错法Truenegative真负类Truepositive真正类TruePositiveRate/TPR真正例率TuringMachine图灵机Twice-learning⼆次学习LetterUUnderfitting⽋拟合/⽋配Undersampling⽋采样Understandability可理解性Unequalcost⾮均等代价Unit-stepfunction单位阶跃函数Univariatedecisiontree单变量决策树Unsupervisedlearning⽆监督学习/⽆导师学习Unsupervisedlayer-wisetraining⽆监督逐层训练Upsampling上采样LetterVVanishingGradientProblem梯度消失问题Variationalinference变分推断VCTheoryVC维理论Versionspace版本空间Viterbialgorithm维特⽐算法VonNeumannarchitecture冯·诺伊曼架构LetterWWassersteinGAN/WGANWasserstein⽣成对抗⽹络Weaklearner弱学习器Weight权重Weightsharing权共享Weightedvoting加权投票法Within-classscattermatrix类内散度矩阵Wordembedding词嵌⼊Wordsensedisambiguation词义消歧LetterZZero-datalearning零数据学习Zero-shotlearning零次学习。

绉戞妧鑻辫鍐欎綔楂樼骇鏁欑▼(绗簩鐗

改错练习1冠词1. The UASMA protocol employs a unique frame structure.(UASMA协议采用了独特的帧结构)2. Finally, a broad stepped impedance transformer is designed by this method.(最后,用这种方法设计了宽带阶梯阻抗变换器)3. Dynamic analysis and evaluation of the security of a proactive secret sharing system(先应秘密共享系统安全性的动态分析和评估)4. The approach can be applied to the one-dimensional potential barrier with an arbitrary profile.(该方法适用于任意形状的一维势垒)5. We propose a (kind of) numerical method based on (the)Newton’s iterative method.(我们提出了一种基于牛顿地带发的数值方法)练习2连接词数词1. This object is over five times heavier than that one is.(这个物体比那个物体重4倍多)2. Unless otherwise stated, it is assumed that silicon transistors are used and that ICBO can be neglected.(除非另有说明,我们假设使用的是硅管、ICBO可以忽略不计)3. This circuit has the advantage s of simple structure and easy (to) adjust ment.(这个电路的优点是结构简单、容易调整)4. Fig s. 1, 2, and 3 show this process in detail.(图1、2、3详细地画出了这个过程)5. For further information(s), consult references[3, 5, 9].(对于进一步信息,参见文献[3]、[5]、[9])练习3介词1. This paper presents a new method for the recognition (method) of radar target s.(本文提出了雷达目标的一种新的识别方法)2. The influence of the moving state of the target on (is very strong for) the tracking accuracy of the EKF is great.(目标的运动状态对EKF的跟踪精度影响是非常大的)3. Another comsat was launched on the morning of the 8th of October.(在10月8日早上又发射了一颗通信卫星)4. V oltage is measured in volt s.(电压时用伏特来度量的)5. They will leave for Beijing to attend an international conference on mobile communication.(他们将赴北京参加移动通信国际会议)练习4动词/副词/形容词1. In this case, the input does not fall; nor [neither] does the output (,too). […; the output does not fall, either.](在这种情况下。

影响阻尼牛顿法收敛性的两个重要参数

影响阻尼牛顿法收敛性的两个重要参数张建军;李春泉;张烈辉【摘要】In this paper, the damped Newton method is improved suitably and the convergence for new method is proved. Based on the new algorithm, a program is proposed and fulfilled by numerical and symbolic com-putations in Matlab, we study the relation among the iteration degrees k, parameters (µ, λ) and initial value x0. We also study the gradual(transient) process of the ill-conditioned systems nonlinear equations tending stable. Numerical results show that there is a special nonlinear relation between the parameters (µ, λ) and the iteration degrees k for damped Newton method and that the suitable parameters (µ, λ) and damping coefficientα can greatly decrease condition number of Jacobi matrix of ill-conditioned systems nonlinear equations. The ill-conditioned problems can gradually become stable and thus the convergence and the convergence speed of the ill-conditioned systems nonlinear equations can be changed.% 对阻尼牛顿算法作了适当的改进,证明了新算法的收敛性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
相关文档
最新文档