一种保证全局收敛的PSO算法
PSO算法解决路径规划问题

PSO算法解决路径规划问题路径规划问题是智能运输领域中一个极其重要的问题。
在交通设施不完善、交通拥堵等复杂情况下,如何规划一条高效的路径是非常具有挑战性的。
近年来,粒子群优化算法 (Particle Swarm Optimization, PSO) 成为了解决路径规划问题的一种有效方法。
本文将介绍 PSO 算法及其在路径规划方面的应用。
一、PSO算法简介PSO算法是一种基于群体智能的随机优化算法,具有全局收敛性、适用性强等优点。
在PSO算法中,设有一群粒子在多维空间搜索最优解。
每个粒子都有自己的位置和速度信息。
粒子的位置表示问题的潜在解,粒子的速度则代表了求解过程中的搜索方向和速率。
每次迭代时,都会根据当前位置信息和历史最优位置信息来调整粒子速度和位置。
通过不断的迭代,粒子最终会朝着全局最优的位置收敛。
二、PSO算法的应用PSO算法在路径规划方面的应用十分广泛。
如在无人驾驶领域,路径规划问题需要考虑到各种道路的属性、交通规则以及周围车辆等因素。
PSO 算法基于历史最优位置信息和全局最优位置信息,可以针对这些因素设计适当的权值,从而优化规划路径的整体性能。
在电影制作领域,PSO 算法也有着广泛的应用。
电影拍摄需要考虑到诸多因素,比如光线、气氛、道具、演员表现等。
PSO 算法可以在这多维场景下识别出最优解,从而帮助摄制组更好地制作电影。
除此之外,PSO算法在电子商务、网络优化等领域也具有一定的应用价值。
三、PSO算法在路径规划问题中的应用实例下面我们以一辆自动驾驶车辆的路径规划为例,介绍 PSO 算法在路径规划问题中的应用实例。
假设目标位置为(x,y),初始位置为(x0,y0),在前方一段时间内无障碍物,并且我们想要找到一条最短路径。
首先,我们将搜索范围限定在一个矩形区域内。
定义粒子群的个数、速度上下限、位置上下限等。
然后,每个粒子都初始化为一个随机的位置和速度。
根据目标位置、初始位置以及路程难度评价函数,求出初始时的历史最优位置和全局最优位置。
mpso算法原理

mpso算法原理MPSO算法原理什么是MP 算法MP(Multiparticle Particle Swarm Optimization)算法是一种优化算法,它基于粒子群优化(PSO)的思想,通过引入多个粒子来增强算法的性能和鲁棒性。
MP算法是一种经典的群体智能算法,已经被广泛应用于优化问题的求解。
粒子群优化(PSO)的简介粒子群优化是一种模拟自然界群体行为的优化算法。
其基本思想是通过模拟群体中粒子的社会行为,寻找最优解。
每个粒子表示一个潜在的解,它通过自身的经验和群体的协作来搜索最优解。
粒子在解空间中移动,通过更新速度和位置来进行搜索。
粒子群优化算法主要包含三个步骤: 1. 初始化:随机生成粒子的位置和速度。
2. 更新:根据当前位置和速度计算粒子的新速度和新位置。
3. 评估:利用目标函数对粒子的新位置进行评估,并更新最优解。
MPSO算法的原理MP算法在粒子群优化算法的基础上进行了改进,引入了多个粒子来增强算法的性能。
下面是MPSO算法的主要原理:1.初始化:随机生成多个粒子的位置和速度。
2.更新全局最优解:根据当前最优解和个体最优解,更新全局最优解。
3.更新速度和位置:根据当前位置、速度和最优解,计算粒子的新速度和新位置。
4.评估:利用目标函数对粒子的新位置进行评估,并更新个体最优解。
5.收敛判断:判断是否达到停止迭代的条件,如果没有,则回到第2步继续迭代。
MPSO算法通过引入多个粒子,增加了算法的搜索空间和搜索能力。
不同粒子之间可以通过信息共享来加快收敛速度,并提高最优解的质量。
通过迭代更新位置和速度,算法逐渐向最优解靠近,最终找到全局最优解。
MPSO算法的优缺点MPSO算法相比于传统的PSO算法具有以下优点: - 收敛速度更快:多个粒子的协作可以加快算法的收敛速度。
- 最优解质量更高:多个粒子可以搜索更多的解空间,找到更好的解。
然而,MPSO算法也存在一些缺点: - 参数设置较为困难:由于引入了多个粒子,MPSO算法的参数需要更加精细地调整,否则可能影响算法的性能。
globalbestpso参数

globalbestpso参数全局最佳粒子群优化(Global Best Particle Swarm Optimization,GlobalBestPSO)是一种基于粒子群优化算法(Particle Swarm Optimization,PSO)的改进方法,通过引入全局最佳粒子来增强能力。
在理解GlobalBestPSO的参数之前,我们需要先了解PSO算法的基本原理。
在GlobalBestPSO中,除了PSO算法的基本参数外,还有一些与全局最佳粒子相关的参数需要设置。
1. 群体大小(Swarm Size):群体大小指的是粒子群中的粒子个数。
群体大小的选择应取决于问题的规模和复杂度。
一般来说,较大的群体可以增加空间的探索能力,但同时也会增加计算量。
2. 最大迭代次数(Max Iterations):最大迭代次数指的是算法运行的最大迭代次数。
通过限制最大迭代次数可以控制算法的收敛速度和计算时间。
当达到最大迭代次数后,算法将停止运行。
3. 惯性权重(Inertia Weight):惯性权重用于调节粒子的速度更新。
较大的惯性权重可以增加粒子探索空间的能力,较小的惯性权重则可以增加粒子的收敛速度。
常见的惯性权重更新方式有线性递减和非线性递减。
4. 学习因子(Learning Factor):学习因子控制了粒子在过程中对自身历史最优解和邻域历史最优解的重视程度。
常见的学习因子包括加速常数(Acceleration Constant)和学习因子衰减系数(Decay Factor)。
通常情况下,加速常数越大,粒子的能力越强,但也容易陷入局部最优解。
5. 邻域大小(Neighborhood Size):邻域大小指的是每个粒子在过程中考虑的邻域的粒子个数。
邻域的选择方法有全局邻域和局部邻域两种方式。
全局邻域意味着每个粒子都会考虑群体中的所有粒子作为邻域,而局部邻域则是只考虑与自身距离最近的一部分粒子作为邻域。
除了以上的参数之外,还有一些其他的参数需要根据具体问题的特点进行设置,比如目标函数的选择、变量范围的设定、粒子速度和位置的更新方式等。
高斯量子行为粒子群优化(gqpso)算法

高斯量子行为粒子裙优化(GQPSO)算法是一种基于量子行为的进化优化算法,它结合了粒子裙优化(PSO)算法和量子计算的特点,能够有效地解决复杂优化问题。
本文将从以下几个方面介绍GQPSO算法的原理、特点和应用,希望能够为读者提供深入的了解。
一、GQPSO算法的原理GQPSO算法是基于粒子裙优化算法和量子计算的原理而提出的,它采用了一种全新的粒子编码和演化方式,通过模拟粒子在量子力学中的行为进行搜索和优化。
GQPSO算法的原理如下:1. 量子位表示在GQPSO算法中,每个粒子被表示为一个量子位,根据其在搜索空间中的位置,每个粒子的量子位可以被编码为一个二进制字符串。
这种量子位表示方式能够更好地描述粒子的位置和速度,从而更好地指导搜索过程。
2. 高斯量子演化GQPSO算法通过高斯量子演化来更新粒子的量子位和速度,其中包括量子位的变换和速度的更新。
在高斯量子演化过程中,粒子会受到适应性函数的约束,从而导致不断演化、搜索和优化。
3. 适应性函数GQPSO算法中使用的适应性函数通常是目标函数或者问题的评价函数,它能够帮助粒子判断当前位置的优劣,并指导其向更优的位置演化。
适应性函数的选择对于算法的性能至关重要。
二、GQPSO算法的特点GQPSO算法相比于传统的优化算法有着独特的特点和优势,主要表现在以下几个方面:1. 全局搜索能力强GQPSO算法通过量子位表示和高斯量子演化,能够有效地克服传统算法在全局搜索能力上的不足,更好地发挥粒子裙优化算法的优势,从而在复杂优化问题中取得更好的效果。
2. 收敛速度快GQPSO算法利用了量子行为的特性,能够更快地收敛到全局最优解,从而大大提高了算法的搜索效率和优化能力。
在实际应用中,GQPSO 算法往往能够在较短的时间内找到较优的解。
3. 对高维问题有较好的适应性GQPSO算法对于高维优化问题的适应性较强,能够有效地应对复杂的实际问题,从而满足实际应用的需求。
这一特点使得GQPSO算法在实际工程和科研中有着广泛的应用前景。
pso算法

三、PSO算法的应用
(1)PSO 最直接的应用或许就是多元函数的优化问题, 包括带约束的优化问题。如果所讨论的函数受到严重的 噪音干扰而呈现非常不规则的形状,同时所求的不一定是 精确的最优值, 则PSO 算法能得到很好的应用。 (2)另外, 还有一种应用更广泛的方法: 简单而有效地 演化的人工神经网络, 不仅用于演化网络的权重, 而且包 括网络的结构。
参数设定: 1)粒子飞行速度必须限定在 V max 之内。较大的V max 可以提高 算法的全局搜索能力,而较小的V max可以提高算法的局部开发 能力。如果当前对微粒的加速导致它的速度超过最大速度V max, 则速度被限制为最大速度V max 。 V max决定当前位置与最好位置 之间的区域的分辨率(或精度)。如果V max太高, 微粒可能会飞过好 解; 如果V max太小, 微粒不能在局部好区间之外进行足够的探索, 导致陷入局部优值。根据经验V max 设定为变量的变化范围的1020%较好; 2)加速度常数c1,c2代表将每个微粒推向pbest 和gbestest 位置的统 计加速项的权重。低的值允许微粒在被拉回之前可以在目标区 域外徘徊, 而高的值则导致微粒突然的冲向或越过目标区域。经 验表明 c1,c2设为2.0为宜; 3)种群大小的设定与具体的问题有关。一般为20-50;
1999年,Clerc提出了带收缩因子的PSO算法。实验表明, 这种方法可以保证PSO算法的收敛性。方程(5)和(6) 描述了这种算法。
vid K *[vid c1 * rand ( ) *( pid xid ) c2 * rand ( ) *( pg d xid )] K 2 2 4
四、PSO算法的研究现状
(1)通过在基本的PSO中引入繁殖和子种群的概念,增强其 收敛性和寻求最优解的能力.在每轮迭代中随机选择一定的粒子 作为父代,通过繁殖公式生成具有新的空间坐标和速度的子代粒 子,并取代父代以保持种群规模.其实这是一种提高对解空间搜索 能力和粒子多样性的数学交叉,可在一定程度上增强系统跳出局 部极小的能力. (2)将PSO与模拟退火算法相结合的PSOSA算法,解决 了微粒群算法性能分析过程中发现的初始参数依赖性问题和算 法搜索能力问题.通过模拟退火算法赋予搜索过程一种时变且最 终趋于零的概率突跳性,有效地降低了陷入局部极小的概率,从 而获取更佳的近似最优解.而且,模拟退火算法的串行优化结构 和微粒群算法的群体并行搜索相结合,拓展了微粒群在解空间中 的搜索范围,提高了其优化性能,促进了种群群体多样性的发展.
pso算法公式

pso算法公式
PSO算法公式是一种基于群体智能理论的优化算法,其公式包括以下几个部分:
1. 粒子位置更新公式:
$x_i^{t+1}=x_i^t+v_i^t$
其中,$x_i^{t+1}$是第$i$个粒子在$t+1$时刻的位置,
$x_i^t$是第$i$个粒子在$t$时刻的位置,$v_i^t$是第$i$个粒子在$t$时刻的速度。
2. 粒子速度更新公式:
$v_i^{t+1}=wv_i^t+c_1r_1(pbest_i^t-x_i^t)+c_2r_2(gbest^t-x_ i^t)$
其中,$w$为惯性权重,$c_1$和$c_2$分别为学习因子1和学习因子2,$r_1$和$r_2$为0~1之间的随机数,$pbest_i^t$为第$i$个粒子在$t$时刻的个体最优位置,$gbest^t$为全局最优位置。
3. 个体最优位置更新公式:
如果$f(x_i^t)<f(pbest_i^t)$,则$pbest_i^t=x_i^t$
其中,$f(x_i^t)$为第$i$个粒子在$t$时刻的适应度值。
4. 全局最优位置更新公式:
如果$f(pbest_i^t)<f(gbest^t)$,则$gbest^t=pbest_i^t$
其中,$f(pbest_i^t)$为第$i$个粒子在$t$时刻的个体最优适应度值。
通过以上公式,PSO算法能够不断迭代寻找最优解,具有快速收敛和全局搜索能力。
pso收敛曲线

PSO收敛曲线简介粒子群优化(Particle Swarm Optimization,PSO)是一种基于群体智能的优化算法,模拟了鸟群或鱼群等生物在寻找食物或迁徙过程中的行为。
PSO算法通过不断调整粒子的位置和速度来搜索最优解。
在PSO算法的执行过程中,可以观察到粒子群逐渐收敛于最优解,这个过程可以通过绘制收敛曲线进行可视化。
本文将介绍PSO算法的原理、收敛曲线的绘制方法以及分析收敛曲线的意义和应用。
PSO算法原理PSO算法基于一种简单而直观的观念,即通过模拟鸟群或鱼群等生物在搜索最优解时的行为来进行优化。
在PSO算法中,将待求解问题定义为一个多维空间中的目标函数,该函数存在一个全局最优解。
粒子代表了候选解,在搜索过程中不断调整自身位置和速度,并借鉴个体最好解和全局最好解来指导搜索方向。
具体而言,每个粒子都有一个位置向量和一个速度向量。
位置向量表示当前粒子所处位置的解,速度向量表示粒子在搜索过程中的移动方向和速度。
每个粒子根据自身经验和群体经验更新自己的速度和位置,以期望找到更优的解。
更新速度和位置的过程可以用以下公式表示:v ij(t+1)=w⋅v ij(t)+c1⋅r1⋅(pbest ij(t)−x ij(t))+c2⋅r2⋅(gbest j(t)−x ij(t))x ij(t+1)=x ij(t)+v ij(t+1)其中,v ij表示粒子i在第j维上的速度,x ij表示粒子i在第j维上的位置。
pbest ij表示粒子i在第j维上历史最好解,gbest j表示整个群体在第j维上的历史最好解。
w,c1,c2,r1,r2分别为惯性权重、个体学习因子、社会学习因子、随机数。
通过不断迭代更新粒子的速度和位置,PSO算法可以逐渐收敛于全局最优解。
绘制收敛曲线为了观察PSO算法的收敛过程,我们可以绘制收敛曲线。
收敛曲线以迭代次数为横轴,目标函数值为纵轴,反映了PSO算法在不同迭代次数下的优化效果。
以下是绘制收敛曲线的步骤:1.初始化PSO算法的参数,包括粒子数量、最大迭代次数、速度范围等。
多策略融合粒子群算法及其收敛性分析

多策略融合粒子群算法及其收敛性分析本文通过讨论多策略融合粒子群算法的原理,揭示其优点,以及分析它的收敛性以及收敛性优化技术,探讨多策略融合粒子群算法在优化算法中的有效性。
多策略融合粒子群算法是一种全局优化算法,它是基于粒子群优化算法(PSO)的变体。
它主要是将多策略(如多样性,启发式和学习等)融合到粒子群算法的进化策略中。
相比于传统的粒子群算法,多策略融合粒子群算法具有更好的收敛性能。
多策略融合粒子群算法的优势在于它使用的策略可以增强搜索的全局性能。
例如,多策略融合粒子群算法可以将多样性纳入搜索,使粒子能够在搜索过程中增强多样性,更有效地探索最优解所在的空间,从而显著提高搜索的效率。
多策略融合与粒子群算法中常见的其他局部算法(如局部最小算法)也可以搭配使用,更有效地实现全局最优解。
另外,多策略融合粒子群算法还有助于提高搜索的收敛性。
研究表明,多策略融合粒子群算法可以更快地得到较高的收敛性。
由于许多优化问题都是NP难度的问题,因此收敛性是优化算法的一个关键指标。
因此多策略融合粒子群算法是一个有效的全局优化算法,在实际应用中产生了很好的效果。
此外,多策略融合粒子群算法有一些需要注意的优化技术,用于改善收敛性,这些技术主要有:轨迹记录法、经验学习法、粒子复制法和等式模拟优化法等。
轨迹记录法的主要思想是在每次迭代之后保留轨迹记录,以避免落入局部最小值。
具体来说,通过记录历史轨迹,粒子群算法可以在爬行到局部最小值之后找到全局最小值。
经验学习法则是利用历史经验来改善粒子群算法的搜索性能,它通过对粒子群中粒子历史轨迹记录的学习来实现,从而减少局部最优解。
粒子复制法是一种改进粒子群算法的技术,利用这种技术可以增加粒子群的种群多样性,从而提高收敛性。
在粒子群中,根据每个粒子的位置以及它的质量,系统会根据某种算法将粒子复制到最优化位置,以增加最优化结果。
等式模拟优化法是一种将等式模拟与粒子群技术结合在一起的方法,它可以通过系统模拟来找到最优解。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
假设 1:若 f (D(z,ξ )) ≤ f (z),ξ ∈ S, 则 f (D(z,ξ )) ≤ f (ξ )
其中D为产生问题解的函数,ξ 为从概率空间 (R n , B, μk ) 产生的随机向量,f为目标函数,S
为Rn的子集,表示问题的约束空间。 μk 为B上的概率度量,B为Rn子集的σ 域。
关键词:微粒群算法(PSO 算法),全局最优性,收敛性,模拟退火 中图法分类号:TP18
A Guaranteed Global Convergence Particle Swarm Optimizer
ZENG Jian-Chao CUI Zhi-Hua
(Division of system simulation and computer application,Taiyuan Heavy Machinery Institute,030024) Abstract: A new particle swarm optimizer, called stochastic PSO, that is guaranteed to convergence to the global optimization solution with probability one, is presented based on the analysis of the standard PSO. And the global convergence analysis is made using the F.Solis and R.Wets’ research results, and two methods the stopping evolution particle regenerated are given. Finally, several examples are simulated to show that SPSO is more efficient than the standard PSO.
4
足假设 1 和假设 2 时,有
lim
k →+∞
P[
z
k
∈
Rε
]
=1
其中 Rε 为全局最优点集合。
也就是说,对一个随机优化算法,只要能够满足假设 1 与假设 2,则就可以保证以概率 1 收 敛于全局最优解。下面对 SPSO 算法分析其是否满足上述假设。
在 SPSO 算法中,其解序列为{ pg,t } ,其中 t 为进化代数, pg,t 为第 t 代时的微粒群最好位
置。对 SPSO 算法定义函数 D 为
D(
p
g
,t
xi
(t
))
=
⎪⎧ ⎪⎩⎨
p g ,t xi (t
, f ( pg,t ) ≤ ), f ( pg,t ) >
f
(xi (t)) f (xi (t))
(9)
则很容易证明其满足假设 1。 为了满足假设 2,规模为 S 的微粒群的样本空间的并必须包含 S,即
随机产生,其它微粒在更新 pg 、 pi 后按(2)式进化;若 pg ≠ p j ,且 pg 未更新,则所有微粒
均按(2)式进化;若 pg ≠ p j ,且 pg 已更新,即存在 k≠j,使得 xk (t + 1) = pk = pg ,则微粒 k
停止进化,在搜索空间 S 重新随机产生,其余微粒在更新 pg 、 pi 后按(2)式进化。这样在进
S
U S ⊆ M i,t i =1
其中 M i,t 为 t 代时微粒 i 的样本空间的支撑集。对于满足 x j (t) = pk = pg 的微粒 j, M i,t =S。而
对于其它微粒 i:
M i,t = xi (t − 1) + ϕ1 ( pi − xi (t − 1)) + ϕ 2 ( pg − xi (t − 1))
定理
1:当| 1 − ϕ
|<
1
时,
lim
t→∞
xi
(t
)
=
pg
证明:由(6)式知,当| 1 − ϕ
|<
1
时,
lim
t →∞
xi
(t
)
=
k
=
ϕ1 pi
+ϕ2 pg ϕ
,而
xi (t + 1) = xi (t) − (ϕ1 + ϕ 2 )xi (t) + ϕ1 pi + ϕ 2 pg 当 t → +∞ 时 ,
3.1 SPSO 算法的微粒进化轨迹分析。
由(2)式可得:
xi (t + 1) = (1 − ϕ )xi (t) + ϕ1 pi + ϕ 2 pg (5)
当 pg 、 pi 固定时,上式为一简单的线性差分方程,当 xi (0) = xi0 时,其解为:
xi (t) = k + (xi0 − k)(1 − ϕ )t
前位置 xi (t) 、历史最好位置 pi 和微粒群的历史最好位置 pg ,速度本身无记忆性。这样,对于
位于全局最好位置的微粒将保持静止,而其它微粒则趋向它本身最好位置 pi 和全局最好位置 pg
的加权中心。也就是说,微粒群将收缩到当前的全局最好位置,更像一个局部算法;当 w≠0 时, 使得微粒具有了扩展搜索空间的趋势,即具有一定的全局搜索能力。w 越大,全局搜索能力越强。
S ] < v(s) ,其中 diam(S)表
示 S 的长度。由定理 1,当 t → ∞ 时, M i,t 的长度趋于 0。因此,随着 t 的增长,每一 M i ,t 的
U U 闭包 v[ M i,t ]在逐渐变小,其并集 M i≠ j i,t 的闭包 v[ M i≠ j i,t ]也在变小。因而存在 N,使得 t>N U 时,v[ M i≠ j i,t ∩S]<v[S]。也就是说仅有进化方程(2)的 PSO 算法不满足假设 2。
xi (t + 1) = xi (t) + vi (t + 1)
(1b)
其中 pi 表示第i个微粒所经历过的最好位置,pg 表示所有微粒所经历过的最好位置,w、c1、c2为
常数, r1, r2 ∈[0,1] 均匀分布的随机数。
PSO算法自提出以来,其收敛性问题一直是研究的重要方面。早期的研究大多采用代数方法,
根据上述分析,当 w=0 时,(1a)、(1b)描述的进化方程为
xi (t + 1) = xi (t) + c1r1 ( pi − xi (t)) + c2r2 ( pg − xi (t)) (2)
与基本 PSO 算法相比,(2)式描述的进化方程使得全局搜索能力减弱,而局部搜索能力加强。
2
同时,当
本文在对基本 PSO 算法进行分析的基础上,提出了一种能够保证以概率 1 全局收敛的 PSO 算法变型,并利用 F.Solis 和 R.Wets 的研究结果对其全局收敛性进行了证明。最后以典型优化问 题的实例仿真对该算法进行了验证。
2、 PSO 算法的变型。
在(1a)、(1b)所描述的基本 PSO 算法中,当 w=0 时,微粒的飞行速度只取决于微粒的当
一种保证全局收敛的PSO算法*
曾建潮 崔志华
(太原重型机械学院系统仿真与计算机应用研究所 山西 太原 030024) (zengjianchao@)
摘 要:在对基本 PSO 算法分析的基础上,提出了一种能够保证以概率 1 收敛于全局最优解的 PSO 算法—随机
PSO 算法(Stochastic PSO,简称 SPSO),并利用 F.Solis 和 R.Wets 的研究结果对其全局收敛性进行了理论分析, 给出了两种停止进化微粒的重新产生方法。最后以典型优化问题的实例仿真验证了 SPSO 算法的有效性。
分析 pg 、 pi 保持不变时,PSO算法进化方程的收敛性条件[1][2],即PSO算法收敛时参数w、c1、
c2 应 满 足 的 条 件 。 理 论 上 已 证 明 [3] : 假 设 pg 、 pi 在 进 化 中 保 持 不 变 , 则 当
(2 1 + w − ϕ)2 − 4w < 2 ( ϕ = ϕ1 + ϕ 2 , ϕ1 = c1r1 , ϕ 2 = c2r2 )时,PSO算法的 x i (t ) 收敛
(6)
其中,
k = ϕ1 pi + ϕ2 pg ϕ
(7)
3
(6)式是在假设随着t的变化而 pg 、 pi 固定不变的情况下得到的。但在SPSO算法的进化过程 中, pg 、 pi 则随时可能更新,因此,(6)、(7)式仅在新的更好位置产生之前有效。一旦产生 新的更好位置( pg 或者 pi ),微粒的运动轨迹方程将按照新的 pg 、 pi ,并将当前位置作为初
pi
=
⎩⎨⎧xpii(,t
f ( pi ) < + 1), f (
f pi
(xi (t )≥ f
+ 1)) (xi (t
+ 1))
(3)
−−−−
p
' g
= arg min{ f ( pi ) | i
= 1, S }
pg = arg min{ f ( pg '), f ( pg )} (4)
若 pg = p j ,则随机产生的微粒 j 处于历史最好位置,无法按(2)式进化,继续在搜索空间 S
Keywords: Particle Swarm Optimizer, Global Optimility, Convergence, Simulated-Annealing
*本文的研究没有基金资助
1
1、 引言。
微粒群算法(PSO)的进化方程为:
vi (t + 1) = wvi (t) + c1r1 × ( pi − xi (t)) + c2r2 × ( pg − xi (t)) (1a)