多目标进化算法综述电子教案

多目标进化算法综述电子教案
多目标进化算法综述电子教案

多目标进化算法综述

多目标进化算法综述

作者:梅志伟

来源:《软件导刊》2017年第06期

摘要:基于种群的进化算法在一次运行中能够产生一组近似的 Pareto 最优解集,因此多目标进化算法成为处理多目标优化问题中的主流方法。介绍了多目标优化问题中的数学模型以及相关定义,根据多目标进化算法的特点,将现有算法分为4类并分别进行阐述,同时分析了它们的优缺点。

关键词:多目标优化;进化算法;支配;分解

DOIDOI:10.11907/rjdk.171169

中图分类号:TP301

文献标识码:A 文章编号:1672-7800(2017)006-0204-04

0 引言

在人们的实际生活中,大多数优化问题都是多目标优化问题,广泛存在于经济管理、工程实践和科学研究等领域中。当前,多目标优化在理论和应用方面均取得了不少进展,但是由于多目标优化问题的复杂性,因此仍存在大量挑战。

多目标优化问题中往往存在多个彼此相互冲突的目标。与单目标优化不同,在多目标优化中,提高一个目标的性能会引起其它一个或多个目标性能的下降。因此,多目标优化问题中不存在一个单独的最优解,而是存在一组表示各个目标间权衡和折中关系的解集,称该解集为Pareto最优解集。Pareto最优解集在目标域的投影被称为Pareto前沿。

由于很多现实工程问题中的优化问题是NP难,传统的数学规划方法将会变得异常困难。而具有自然界规律启发式特征的求解方法往往适合近似求解这些困难问题,这些方法被称为进化计算[1]。进化算法基于种群的特性使其十分适合多目标优化问题的求解。同时,进化算法还具有鲁棒性强的特点。因此,进化算法被广泛应用在多目标优化问题的求解上。

1 多目标进化问题概述

多目标优化问题同时优化多个目标,这些待优化的目标包含最大化、最小化或者两者都有的问题。在实际处理时,为了简化问题,可以将最大化或最小化问题取反,使所有优化目标全部转化成最小化或最大化问题。本文中将讨论最小化问题。

2 多目标进化算法一般流程

生物进化是一个不断优化的过程,在不断的变化过程中增加自身的适应性。进化计算以生物进化为启发,对一个解进行抽象编码,模拟生物进化中的基因。进化算法以种群为基础,是一个黑盒的搜索、优化方法,进化算法不需要优化问题具备一定的前提条件,例如连续性、可微性等,且一次运行能够产生一组解。因此,进化算法特别适合处理多目标优化问题。

生物的进化过程主要包括繁殖、变异、竞争和选择。与之类似,一个典型的进化算法主要包含以下步骤:①初始化:生成一个初始化种群,记为P,其中包含N个个体(解),并记当前代数t=0;②适应度评价:计算每个个体x∈P的适应度值F(x);③繁殖:从父代种群P 繁殖出后代种群Q,具体包括交叉和变异过程;④选择:使用选择算子从P∪Q中选择出N个精英个体,作为下一代的父代种群P;⑤下一代进化:增加进化代数t=t+1,如果满足终止条件,则停止算法并输出P,否则进入下一代迭代过程,即转入第2步。

一个典型的进化算法流程如图1所示。

3 多目标进化算法分类

从进化算法诞生之初,由于其在多目标优化问题上的优异表现,众多研究人员提出了多种多目标进化算法。根据算法特性不同,具体可分为以下几类:

3.1 基于Pareto支配关系的多目标进化算法

通过Pareto支配关系,可以对两个解进行对比,从而利用支配信息指导解集的选择。基于Pareto支配关系的多目标进化算法一直以来都是一个热门研究方向,研究人员提出了许多算法,例如SPEA[2]、SPEA2[3]、PESA[4]、PESA-II[5]、NSGA-II[6]等。

基于Pareto支配的多目标进化算法取得了令人瞩目的成就,然而在处理超多目标优化问题时却面临许多挑战。由于Pareto支配的特性,超多目标空间中的大部分解均为非支配关系,从而失去了选择压力。研究人员通过改进Pareto支配关系,提出了一系列方法。

Laummans等[7]定义了一种ε支配关系,增加了一个解的支配空间;Deb等[8]根据ε支配关系,提出了ε-MOEA算法,在超多目标优化问题中取得了较好效果。ε-MOEA算法将目标空间划分成网格,不同网格中的解使用ε支配关系进行比较,相同网格中的解则使用传统的Pareto支配关系。

2001年,Ikeda等[9]也提出了一种新的支配关系,称为α支配。在α支配关系中,比较一个目标的同时会考虑其它目标函数值。通过一个线性平衡函数重新计算对比时的目标值,若一个解在一个目标上显著优于另一个解,而在另一个目标上则略微处于弱势,则前者仍然能α支配后者,这样的支配关系有利于选择更好的解。

除此之外,还有多种算法建立在改进的Pareto支配关系之上,例如基于网格支配的GrEA 算法[10]、基于ε排序策略的εR-EMO算法[11]等。

3.2 基于分解的多目标进化算法

将一个多目标优化问题分解为一组单目标的子问题进行求解也是一个常见的解决方法。常见的分解方法包括加权和法、切比雪夫法以及基于惩罚值的边界交叉法[12]。

2007年,Zhang等[13]结合了上述几种分解方法提出了一种基于分解的多目标进化算法(MOEA/D),这是近年来的一个热门算法框架。在MOEA/D算法中,通过传统的分解方法将一个多目标优化问题分解为一组单目标的子问题,然后使用进化算法同时求解这些子问题。

MOEA/D还通过权重向量之间的距离关系定义了子问题间的邻居关系。在优化一个子问题时,通过相邻子问题间交叉变异的进化过程生成新解,并使用新解来更新当前子问题的解。MOEA/D中还引入了一种邻居子问题间的信息共享方法,即一个新解在更新对应子问题的同时还会更新其邻居子问题。实验表明,MOEA/D算法相较于以往的一些基于分解的算法,效果更为突出。Li等[14]将差分进化的思想引入到MOEA/D的进化过程中,同时还限制了邻居子问题的最大更新数目,进一步提高了算法性能。

与基于Pareto支配关系的算法在超多目标优化问题中的局限不同,基于分解的算法能够直接适用于超多目标优化问题中。针对超多目标优化问题的特性,研究人员也提出了许多改进方法。Asafuddoula等[15]将系统抽样和自适应的ε控制技术引入到基于分解的进化算法中,在超多目标空间中生成均匀的权重向量,平衡解集的收敛性与多样性;为了解决超多目标空间选择压力过大导致的多样性丢失问题,Fabre等[16]提出了一种并行的遗传算法,将每个子问题都关联到一个子种群,通过子种群的进化实现整个种群的进化,实验结果也验证了其在多样性保持方面的优势。

3.3 基于指标的多目标进化算法

多目标进化算法求得的解集可以通过许多评价指标来衡量,基于指标的多目标进化算法通过评价指标来指引算法的搜索方向,指导进化过程中新种群的选择。

Zitzler等[17]首先将评价指标引入到进化算法的选择策略中,提出一种基于评价指标的进化算法(IBEA),可以通过任意一种评价指标来对比候选解。在IBEA中,不需要使用例如适应值共享等多样性保持策略,也不需要对整个近似Pareto最优解集进行计算,只需对比其中的部分解即可。

IH指标可以衡量一个解集的质量,IH指标值越大,表示解集质量越好。为了能够最大化一个解集的IH指标值,Emmerich等[18]提出了一种基于S-度量选择的多目标进化算法(SMS-EMOA)。SMS-EMOA通过IH指标的梯度信息来指导种群进化过程。在处理低维的多目标优化问题时,SMS-EMOA求得的解集具有很好的收敛性和多样性。但是,在面对超多目标优化问题时,SMS-EMOA的计算复杂度成指数上升,算法效果急剧下降。其每一代进化的计算复杂度为O(Nm/2+1),其中N为种群大小,m为问题的目标个数。

Brockhoff等[19]将目标空间缩小技术与基于IH指标的方法结合起来,提出一种新的算法,通过使用不同的目标空间缩小方法提高基于IH指标的算法性能。

IH指标的计算是一个非常耗时的过程,对基于IH指标的算法有很大影响。为了克服计算过于复杂的弊端,Bader等[20]提出了一种快速的近似计算方法,使用蒙特卡罗模拟近似计算解集的IH值,并提出了一种基于IH指标近似的多目标进化算法,在处理超多目标优化问题上取得了令人满意的成果。

通过将非支配排序和R2指标结合起来,Manriquez等[21]提出了R2-MOGA和R2-MODE 算法,在处理超多目标优化问题时有显著优势;Gomez等[22]也提出了一种基于R2指标的优化算法MOMBI,同样也取得了不错的优化效果。

3.4 混合算法

在多目标进化算法中,研究人员提出了众多优化技术,不同技术均有其独特优势,例如基于Pareto支配关系的算法能够适应各种形状的Pareto前沿,但在处理超多目标优化问题时却显得不尽如人意;基于分解的算法通用性较好,但是常规的分解方法却容易导致解集多样性的丢失。其它的优化技术也各有优缺点。将这些技术混合起来,结合各种方法的优点来处理复杂的优化问题,也是一种非常有效的方法。

一种方法是将全局搜索与局部搜索结合起来,即多目标模因算法。例如,在Adra等[23]的算法中,对每一代进化中求得的最优解使用局部搜索策略在目标空间进一步优化,随后将优化后的解映射到对应的决策空间并预测其具体的决策向量;在Wang等[24]的算法中,则使用局部搜索来生成子代解。

另一种广泛使用的方法是将不同方法中的搜索策略结合起来,例如将粒子群优化和进化算法结合起来[25],在每一代中,由粒子群优化产生的解再使用进化算法进行优化。

另一方面,还可以根据进化过程的不同特性将整个进化过程划分为多个阶段,在不同阶段使用不同的搜索策略。例如在Yang等[26]的算法中,进化过程包含3个阶段,分别侧重于被支配的解、平衡支配解和非支配解,以及着重于非支配解3个部分,结合NSGA-II算法的思想和局部增强搜索策略来实现各个阶段的进化过程。

4 结语

多目标进化算法由于其基于种群的特性而成为处理多目标优化问题的一种热门方法。本文进行了多目标优化问题的相关数学描述,简要介绍了相关理论定义。根据多目标进化算法的特性,本文还将近年来的主流进化算法分为4类进行阐述,并分析了它们的优缺点,以更好地应用于多目标优化问题的求解。

参考文献:

[1]POOLE D,MACKWORTH A,GOEBEL https://www.360docs.net/doc/5613507362.html,putational intelligence:a logical approach[M].Oxford University Press,1997.

[2]ZITZLER E,THIELE L.Multiobjective evolutionary algorithms:a comparative case study and the strength Pareto approach[J].IEEE Transactions on Evolutionary Computation,1999,3(4):257-271.

[3]ZITZLER E,LAUMANNS M,THIELE L.SPEA2:improving the strength Pareto evolutionary algorithm[C].Eurogen,2001,3242(103):95-100.

[4]CORNE D W,KNOWLES J D,OATES M J.The Pareto envelope-based selection algorithm for multiobjective optimization[C].International Conference on Parallel Problem Solving from Nature.Springer Berlin Heidelberg,2000:839-848.

[5]CORNE D W,JERRAM N R,KNOWLES J D,et al.PESA-II:region-based selection in evolutionary multiobjective optimization[C].Proceedings of the Genetic And Evolutionary Computation Conference (GECCO’2001),2001.

[6]DEB K,PRATAP A,AGARWAL S,et al.A fast and elitist multiobjective genetic algorithm:NSGA-II[J].IEEE Transactions on Evolutionary Computation,2002,6(2):182-197.

[7]LAUMANNS M,THIELE L,DEB K,et https://www.360docs.net/doc/5613507362.html,bining convergence and diversity in evolutionary multiobjective optimization[J].Evolutionary Computation,2002,10(3):263-282.

[8]DEB K,MOHAN M,MISHRA S.Evaluating the epsilon-domination based multi-objective evolutionary algorithm for a quick computation of pareto-optimal solutions[J].Evolutionary Computation,2005,13(4):501-525.

[9]IKEDA K,KITA H,KOBAYASHI S.Failure of pareto-based MOEAs:does non-dominated really mean near to optimal?[C].Evolutionary Computation,Proceedings of the 2001 Congress on.IEEE,2001:957-962.

[10]YANG S,LI M,LIU X,et al.A grid-based evolutionary algorithm for many-objective optimization[J].IEEE Transactions on Evolutionary Computation,2013,17(5):721-736.

[11]AGUIRRE H,TANAKA K.Space partitioning with adaptive ε-ranking and substitute distance assignments:a comparative study on many-objective mnk-landscapes[C].Proceedings of the 11th Annual Conference on Genetic and Evolutionary Computation.ACM,2009:547-554.

[12]MIETTINEN K.Nonlinear multiobjective optimization[M].Springer Science & Business Media,2012.

[13]ZHANG Q,LI H.MOEA/D:A multiobjective evolutionary algorithm based on decomposition[J].IEEE Transactions on Evolutionary Computation,2007,11(6):712-731.

[14]LI H,ZHANG Q.Multiobjective optimization problems with complicated Pareto sets,MOEA/D and NSGA-II[J].IEEE Transactions on Evolutionary Computation,2009,13(2):284-302.

[15]ASAFUDDOULA M,RAY T,SARKER R.A decomposition-based evolutionary algorithm for many objective optimization[J].IEEE Transactions on Evolutionary Computation,2015,19(3):445-460.

[16]GARZA-FABRE M,TOSCANO-PULIDO G,COELLO C A C,et al.Effective ranking+ speciation= many-objective optimization[C].2011 IEEE Congress of Evolutionary Computation (CEC).IEEE,2011:2115-2122.

[17]ZITZLER E,KNZLI S.Indicator-based selection in multiobjective search[C].International Conference on Parallel Problem Solving from Nature.Springer Berlin Heidelberg,2004:832-842.

[18]EMMERICH M,BEUME N,NAUJOKS B.An EMO algorithm using the hypervolume measure as selection criterion[C].International Conference on Evolutionary Multi-Criterion Optimization.Springer Berlin Heidelberg,2005:62-76.

[19]BROCKHOFF D,ZITZLER E.Improving hypervolume-based multiobjective evolutionary algorithms by using objective reduction methods[C].2007 IEEE Congress on Evolutionary Computation.IEEE,2007:2086-2093.

[20]BADER J,ZITZLER E.HypE:an algorithm for fast hypervolume-based many-objective optimization[J].Evolutionary Computation,2011,19(1):45-76.

[21]DAZ-MANRQUEZ A,TOSCANO-PULIDO G,COELLO C A C,et al.A ranking method based on the R2 indicator for many-objective optimization[C].2013 IEEE Congress on Evolutionary Computation.IEEE,2013:1523-1530.

[22]GMEZ R H,COELLO C A C.MOMBI:a new metaheuristic for many-objective optimization based on the R2 indicator[C].2013 IEEE Congress on Evolutionary Computation,2013:2488-2495.

[23]ADRA S F,DODD T J,GRIFFIN I A,et al.Convergence acceleration operator for multiobjective optimization[J].IEEE Transactions on Evolutionary Computation,2009,13(4):825-847.

[24]WANG Y,CAI Z,GUO G,et al.Multiobjective optimization and hybrid evolutionary algorithm to solve constrained optimization problems[J].IEEE Transactions on Systems,Man,and Cybernetics,Part B (Cybernetics),2007,37(3):560-575.

[25]ELHOSSINI A,AREIBI S,DONY R.Strength Pareto particle swarm optimization and hybrid EA-PSO for multi-objective optimization[J].Evolutionary Computation,2010,18(1):127-156.

[26]YANG D,JIAO L,GONG M.Adaptive multi-objective optimization based on nondominated solutions[J].Computational Intelligence,2009,25(2):84-108.

(责任编辑:黄健)

基本差分进化算法

基本差分进化算法 基本模拟退火算法概述 DE 算法是一种基于群体进化的算法,其本质是一种基于实数编码的具有保优思想的贪婪遗传算法。由于DE 算法操作简单,寻优能力强,自提出以来引起了国内外学者的高度关注,目前已在电力系统优化调度、配网重构等领域得到了应用。 1、算法原理 DE 算法首先在N 维可行解空间随机生成初始种群P 0001[,,]N =X x x L ,其中000T 1[,,]i i iN x x =x L ,p N 为DE 种群规模。DE 算法的核心思想在于采取变异和交叉操 作生成试验种群,然后对试验种群进行适应度评估,再通过贪婪思想的选择机制,将原种群和试验种群进行一对一比较,择优进入下一代。 基本DE 算法主要包括变异、交叉和选择三个操作。首先,在种群中随机选取三个个体,进行变异操作: 1123()t t t t i r r r F +=+-v x x x 其中1t i +v 表示变异后得到的种群,t 表示种群代数,F 为缩放因子,一般取(0,2],它的大小可以决定种群分布情况,使种群在全局范围内进行搜索;1t r x 、2t r x 、3t r x 为从种群中随机抽取的三个不同的个体。 然后,将变异种群和原种群进行交叉操作: 1,R 1 ,,R () or () () and ()t i j t i j t i j v rand j C j randn i u x rand j C j randn i ++?≤=?=?>≠?? 其中t 1,i j u +表示交叉后得到的种群,()rand j 为[0,1]之间的随机数,j 表示个体的第j 个分量,R C 为交叉概率,()randn i 为[1,,]N L 之间的随机量,用于保证新个体至少有一维分量由变异个体贡献。 最后,DE 算法通过贪婪选择模式,从原种群和试验种群中选择适应度更高的个体进入下一代: 11t 11 ()() ()()t t t i i i i t t t i i i f f f f ++++?<=?≥?u u x x x u x 1()t i f +u 、()t i f x 分别为1t i +u 和t i x 的适应度。当试验个体1t i +u 的适应度优于t i x 时,

进化计算综述

进化计算综述 1.什么是进化计算 在计算机科学领域,进化计算(Evolutionary Computation)是人工智能(Artificial Intelligence),进一步说是智能计算(Computational Intelligence)中涉及到组合优化问题的一个子域。其算法是受生物进化过程中“优胜劣汰”的自然选择机制和遗传信息的传递规律的影响,通过程序迭代模拟这一过程,把要解决的问题看作环境,在一些可能的解组成的种群中,通过自然演化寻求最优解。 2.进化计算的起源 运用达尔文理论解决问题的思想起源于20世纪50年代。 20世纪60年代,这一想法在三个地方分别被发展起来。美国的Lawrence J. Fogel提出了进化编程(Evolutionary programming),而来自美国Michigan 大学的John Henry Holland则借鉴了达尔文的生物进化论和孟德尔的遗传定律的基本思想,并将其进行提取、简化与抽象提出了遗传算法(Genetic algorithms)。在德国,Ingo Rechenberg 和Hans-Paul Schwefel提出了进化策略(Evolution strategies)。 这些理论大约独自发展了15年。在80年代之前,并没有引起人们太大的关注,因为它本身还不够成熟,而且受到了当时计算机容量小、运算速度慢的限制,并没有发展出实际的应用成果。

到了20世纪90年代初,遗传编程(Genetic programming)这一分支也被提出,进化计算作为一个学科开始正式出现。四个分支交流频繁,取长补短,并融合出了新的进化算法,促进了进化计算的巨大发展。 Nils Aall Barricelli在20世纪六十年代开始进行用进化算法和人工生命模拟进化的工作。Alex Fraser发表的一系列关于模拟人工选择的论文大大发展了这一工作。 [1]Ingo Rechenberg在上世纪60 年代和70 年代初用进化策略来解决复杂的工程问题的工作使人工进化成为广泛认可的优化方法。[2]特别是John Holland的作品让遗传算法变得流行起来。[3]随着学术研究兴趣的增长,计算机能力的急剧增加使包括自动演化的计算机程序等实际的应用程序成为现实。[4]比起人类设计的软件,进化算法可以更有效地解决多维的问题,优化系统的设计。[5] 3.进化计算的分支 进化计算的主要分支有:遗传算法GA ,遗传编程GP、进化策略ES、进化编程EP。下面将对这4个分支依次做简要的介绍。 1遗传算法(Genetic Algorithms): 遗传算法是一类通过模拟生物界自然选择和自然遗传机制的随机化搜索算法,由美国John HenryHoland教授于1975年在他的专著《Adaptation in Natural and Artificial Systems》中首次提出。[6]它是利用某种编码技术作用于称为染色体的二进制数串,其基本思想是模拟由这些串组成的种群的进化过程,通过有组织地然而是随机地信息交换来重新组合那些适应性好的串。遗传算法对求解问题的本身一无所知,它所需要的仅是对算法所产生的每个染

多目标进化算法总结

MOGA i x 是第t 代种群中个体,其rank 值定义为: () (,)1t i i rank x t p =+ ()t i p 为第t 代种群中所有支配i x 的个体数目 适应值(fitness value )分配算法: 1、 将所有个体依照rank 值大小排序分类; 2、 利用插值函数给所有个体分配适应值(从rank1到 rank * n N ≤),一般采用线性函数 3、 适应值共享:rank 值相同的个体拥有相同的适应值, 保证后期选择时同一rank 值的个体概率相同 最后采用共享适应值随机选取的方法选择个体进入下一代 一种改进的排序机制(ranking scheme ): 向量,1,(,,)a a a q y y y =???和,1,(,,)b b b q y y y =???比较 goal vector :() 1,,q g g g =??? 分为以下三种情况: 1、 ()() ,,1,,1; 1,,; 1,,; a i i a j j k q i k j k q y g y g ?=???-?=????=+???>∧≤ 2、() ,1,,; a i i i q y g ?=???>

当a y 支配b y 时,选择a y 3、() ,1,,; a j j j q y g ?=???≤ 当b y 支配a y 时,选择b y 优点:算法思想容易,效率优良 缺点:算法容易受到小生境的大小影响 理论上给出了参数share σ的计算方法

NPGA 基本思想: 1、初始化种群Pop 2、锦标赛选择机制:随机选取两个个体1x 和2x 和一个Pop 的 子集CS(Comparison Set)做参照系。若1x 被CS 中不少于一 个个体支配,而2x 没有被CS 中任一个体支配,则选择2x 。 3、其他情况一律称为死结(Tie ),采用适应度共享机制选择。 个体适应度:i f 小生境计数(Niche Count ):(),i j Pop m Sh d i j ∈= ????∑ 共享函数:1-,()0,share share share d d Sh d d σσσ? ≤?=??>? 共享适应度(the shared fitness ): i i f m 选择共享适应度较大的个体进入下一代 优点:能够快速找到一些好的非支配最优解域 能够维持一个较长的种群更新期 缺点:需要设置共享参数

多目标进化算法总结

MOGA i x 是第t 代种群中个体,其rank 值定义为: () (,)1t i i rank x t p =+ ()t i p 为第t 代种群中所有支配i x 的个体数目 适应值(fitness value )分配算法: 1、 将所有个体依照rank 值大小排序分类; 2、 利用插值函数给所有个体分配适应值(从rank1到 rank * n N ≤),一般采用线性函数 3、 适应值共享:rank 值相同的个体拥有相同的适应值, 保证后期选择时同一rank 值的个体概率相同 最后采用共享适应值随机选取的方法选择个体进入下一代 一种改进的排序机制(ranking scheme ): 向量,1,(,,)a a a q y y y =???和,1,(,,)b b b q y y y =???比较 goal vector :() 1,,q g g g =??? 分为以下三种情况:

1、 ()() ,,1,,1; 1,,; 1,,; a i i a j j k q i k j k q y g y g ?=???-?=????=+???>∧≤ 2、() ,1,,; a i i i q y g ?=???> 当a y 支配b y 时,选择a y 3、() ,1,,; a j j j q y g ?=???≤ 当b y 支配a y 时,选择b y 优点:算法思想容易,效率优良 缺点:算法容易受到小生境的大小影响 理论上给出了参数share σ的计算方法

NPGA 基本思想: 1、初始化种群Pop 2、锦标赛选择机制:随机选取两个个体1x 和2x 和一个Pop 的 子集CS(Comparison Set)做参照系。若1x 被CS 中不少于一 个个体支配,而2x 没有被CS 中任一个体支配,则选择2x 。 3、其他情况一律称为死结(Tie ),采用适应度共享机制选择。 个体适应度:i f 小生境计数(Niche Count ):(),i j Pop m Sh d i j ∈= ????∑ 共享函数:1-,()0,share share share d d Sh d d σσσ? ≤?=??>? 共享适应度(the shared fitness ): i i f m 选择共享适应度较大的个体进入下一代 优点:能够快速找到一些好的非支配最优解域 能够维持一个较长的种群更新期 缺点:需要设置共享参数

用于约束多目标优化问题的双群体差分进化算法

用于约束多目标优化问题的双群体差分进化算法 孟红云1 张小华2 刘三阳1 (1.西安电子科技大学 应用数学系,西安,710071; 2.西安电子科技大学 智能信息处理研究所,西安,710071) 摘 要:首先给出一种改进的差分进化算法,然后提出一种基于双群体搜索机制的求解约束多目标优化问题的差分进化算法.该算法同时使用两个群体,其中一个用于保存搜索过程中找到的可行解,另一个用于记录在搜索过程中得到的部分具有某些优良特性的不可行解,避免了构造罚函数和直接删除不可行解.此外,将本文算法、N SGA-Ⅱ和SPEA 的时间复杂度进行比较表明,NS GA-Ⅱ最优,本文算法与SPE A相当.对经典测试函数的仿真结果表明,与NSGA-Ⅱ相比较,本文算法在均匀性及逼近性方面均具有一定的优势. 关键字: 差分进化算法;约束优化问题;多目标优化问题; 中图分类号:TP18 1 引言 达尔文的自然选择机理和个体的学习能力推动进化算法的出现和发展,用进化算法求解优化问题已成为一个研究的热点[1-3].但目前研究最多的却是无约束优化问题.然而,在科学研究和工程实践中,许多实际问题最终都归结为求解一个带有约束条件的函数优化问题,因此研究基于进化算法求解约束优化问题是非常有必要的.不失一般性,以最小化问题为例,约束优化问题(Constrai ned Opti mizatio n Prob lem ,COP )可定义如下: )(COP ()()()()q j x h p i x g t s x f x f x f x F j i k R x n ,,1,0)( ,,1,0)( ..,,,)(min 21 ===≤=∈ (1) 其中)(x F 为目标函数,)(),(x h x g j i 称为约束条件,n n R x x x x ∈=),,,(21 称为n 维决策 向量.将满足所有约束条件的解空间S 称为(1)的可行域.特别的,当1=k 时,(1)为单目标优化问题;当1>k 时,(1)为多目标优化问题.)(x g i 为第i 个不等式约束,)(x h j 是第j 个等式约束.另一方面,对于等式约束0)(=x h j 可通过容许误差(也称容忍度)0>δ将它转化为两个不等式约束: ?????≤--≤-0 )(0)(δδx h x h j j (2) 故在以后讨论问题时,仅考虑带不等式约束的优化问题.进一步,如果x 使得不等式约束0)(=x g i ,则称约束()x g i 在x 处是积极的.在搜索空间S 中,满足约束条件的决策变量x 称为可行解,否则称为不可行解. 定义1(全局最优解)() **2*1*,,,n x x x x =是COP 的全局最优解,是指S x ∈*且)(*x F 不劣于可行域内任意解y 所对应的目标函数)(y F ,表示为)( )(* y F x F . 对于单目标优化问题,)( )(*y F x F 等价为)()(*y F x F ≤,而对于多目标优化问题是指不存在y ,使得)(y F Pa re to 优于)(*x F . 目前,进化算法用于无约束优化问题的文献居多,与之比较,对约束优化问题的研究相对

Pareto最优概念的多目标进化算法综述

Pareto最优概念的多目标进化算法综述 作者:唐云岚, 赵青松, 高妍方, 陈英武, TANG Yun-lan, ZHAO Qing-song, GAO Yan-fang , CHEN Ying-wu 作者单位:唐云岚,TANG Yun-lan(国防科学技术大学信息系统与管理学院 长沙 410073;武警工程学院通信工程系,西安710086), 赵青松,高妍方,陈英武,ZHAO Qing-song,GAO Yan-fang,CHEN Ying-wu(国防科学技术大学信息系统与管理学院 长沙 410073) 刊名: 计算机科学 英文刊名:COMPUTER SCIENCE 年,卷(期):2008,35(10) 被引用次数:1次 参考文献(23条) 1.Zitzler E;Thiele L Multiobjective Evolutionary Algorithms:A Comparative Case Study and the Strength Pareto Approach[外文期刊] 1999(04) 2.Srinivas N;Deb K Muhiobjective Optimization Using Nondomi-nated Sorting in Genetic Algorithms[外文期刊] 1995(03) 3.Hans A E Multicriteria optimization for highly accurate syste-ms 1988 4.Chankong V;Haimes Y Y Multiobjective decision making theo-ry and methodology 1983 5.Knowles J;Come D查看详情 1999 6.Horn J;Nafpliotis N查看详情 1994 7.Fonseca C M;Fleming P J Genetic Algorithm 1993 8.Richardson J T;Palmer M R;Liepins G查看详情[外文期刊] 1989 9.Schaffer J D Some experiments in machine learning using vector evaluated genetic algorithms 1984 10.Rosenberg R S Simulation of Genetic Populations with Bio-chemical Properties 1967 11.Zitzler E Evolutionary algorithms for multiobjeetive optimiza-tion:Methods and applications 1999 12.Deb K Muhiobjeetive Optimization using Evolutionary Algo-rithms 2001 https://www.360docs.net/doc/5613507362.html,umanns M;Thiele L;Deb K Combining Convergence and Diversity in Evolutionary Multi-Objective Optimization[外文期刊] 2002(03) 14.Mann J W;Smith G D A Comparison of Heuristics for Tele-communications Traffic Routing 1996 15.Deb K Genetic algorithms in multimodal function optimization 1989 16.Srinivas N Multiobjective optimization using nondominated sor-ting in genetic algorithms 1994 17.Goldberg D E;Deb K A Comparison of Selsction Schemes used in Genetic Algorithms 1991 18.Goldberg D E;Richardson J查看详情 1987 19.Deb K;Goldberg D E查看详情 1989 20.Osman M S;Abo-Sinna M A;Mousa A A IT-CEMOP:An iter-ative co-evolutionary algorithm for muhiobjeetive optimization problem with nonlinear constraints[外文期刊] 2006(1) 21.Shin S-Y;Lee I-H;Kim D Multiobjeetive Evolutionary O-ptimization of DNA Sequences for Reliable DNA Computing[外文期刊] 2005(02) 22.Deb K;Prata PA;Agatwal S A Fast and Elitist Muhiob-jective Genetic Algorithm:NSGA-II 2002 23.Zitzler E;Laumanns M;Thiele L SPEA2:ImprovingtheS-trength Pareto Evolutionary Algorithm 2001

最新高维多目标进化算法总结

高维多目标进化算法 二、文献选读内容分析及思考 (一)Borg算法 Borg算法是基于ε-MOEA算法(Deb,2003)的一种全新改进算法[32],下面将从创新点、原理、算法流程和启发思考四方面进行阐述。 1.创新点 1)在ε支配关系的基础上提出ε盒支配的概念,具有能同时保证算法收敛性与多样性的特点。 2)提出了ε归档进程,能提高算法计算效率和防止早熟。 3)种群大小的自适应调整。 4)交叉算子的自适应选择。由于处理实际问题时,是不知道目标函数具有什么特性,前沿面如何,在具有多个交叉算子的池子里,根据进程反馈,选择不同的交叉算子,使产生的后代具有更好的特性针对要研究的问题。 2. Borg算法原理 1)ε盒支配:通过对目标空间向量的每一维除以一个较小的ε,然后取整后进行pareto支配比较。这样的支配关系达到的效果是把目标空间划分成以ε为边长的网格(2目标时),当点处于不同的网格时,按pareto支配关系比较;当处于同一网格时,比较哪个点距离中心点(网格最左下角)最近。这样一来,网格内都只有一个点。 2)ε归档进程 如图1所示,黑点表示已经归档的,想要添加到档案集的新解用×表示,阴影表示归档解支配的区域。当新解的性能提升量超过阈值ε才属于ε归档进程。比如解1、解2加入归档集属于ε归档进程,解3加入归档集就不属于ε归档进程。 图1 ε支配网格 在这个过程中设置了一个参数c,表示每一代中加入归档集解得个数,每隔一定迭代次数检测c有没有增加,如果没有增加表明算法停滞,重启机制启动。 3)重启 自适应种群大小:重启后的种群大小是根据归档集的大小设置。γ表示种群大小与归档集大小的比值,这个值也用于第二步中,如果γ值没超过1.25,重启机制也启动。启动后,γ人为设定为固定值,种群被清空,填充归档集的所有个体,不足的个体是随机选取归档集中个体变异所得。与之相匹配的锦标赛比较集大小是归档集大小乘以固定比值τ。 4)交叉算子的自适应选择 摒弃以往采用单一的交叉算子,采用包含各类交叉算子的池子,比如有K

多目标进化算法总结

x 是第 t 代种群中个体,其 rank 值定义为: rank (x ,t ) =1+p (t ) p (t )为第t 代种群中所有支配x 的个体数目 适应值 (fitness value )分配算法: 1、 将所有个体依照 rank 值大小排序分类; 2、 利用插值函数给所有个体分配适应值(从 rank1 到 rank n * N ),一般采用线性函数 3、 适应值共享:rank 值相同的个体拥有相同的适应值, 保证后期选择时同一 rank 值的个体概率相同 最后采用共享适应值随机选取的方法选择个体进入下一代 一种改进的排序机制(ranking scheme ): 向量y a =(y a ,1,,y a ,q )和y b =(y b ,1,,y b ,q )比较 分为以下三种情况: k =1,,q -1; i =1,,k ; j =k +1,,q ; (y a ,i g i )(y a ,j g j ) i =1, ,q ; (y a ,i g i ) 当 y a 支配 y b 时,选择 y a 3、j =1, ,q ; (y a ,j g j ) 当 y b 支配 y a 时,选择 y b 优点:算法思想容易,效率优良 缺点:算法容易受到小生境的 大小影响 理论上给出了参数share 的计算方法 goal vector : g = (g 1, ,g q ) 1、 2、

基本思想: 1、初始化种群 Pop 2、锦标赛选择机制:随机选取两个个体 x 和 x 和一个 Pop 的 子集 CS(Comparison Set)做参照系。若 x 被 CS 中不少于一 个个体支配,而 x 没有被 CS 中任一个体支配,则选择 x 。 3、其他情况一律称为死结(Tie ),采用适应度共享机制选择。 个体适应度: f i 小生境计数(Niche Count ): m =j Pop Sh d (i , j ) 共享适应度(the shared fitness ): 选择共享适应度较大的个体进入下一代 优点:能够快速找到一 些好的非支配最优解域 能够维持一个较长的种群更新期 缺 点:需要设置共享参数 需要选择一个适当的锦标赛机制 限制 了该算法的实际应用效果 1- 共享函数: Sh (d ) = d share 0, d share d share

差分进化算法综述概况

差分进化算法(DE)[1]是Storn 和Price 在1995 年提出的一种基于种群差异的进化算法,DE是一种随机的并行搜索算法。差分进化计算和其他进化计算算法一样,都是基于群体智能理论的优化算法,利用群体内个体之间的合作与竞争产生的群体智能模式来指导优化搜索的进行。与其他进化计算不同的是,差分进化计算保留了基于种群的全局搜索策略,采用实数编码、基于差分的简单变异操作和一对一的竞争生存策略,降低了进化操作的复杂性。差分进化计算特有的进化操作使得其具有较强的全局收敛能力和鲁棒性,非常适合求解一些复杂环境中的优化问题。 最初试图使用向量差进行向量种群的混洗,以此来解决切比雪夫多项式适应性问题。DE 通过种群内个体间的合作与竞争来实现对优化问题的求解,其本质上是一种基于实数编码的具有保优思想的进化算法。该算法实现技术简单,在对各种测试问题的实验中表现优异,已经成为近年来进化算法研究中的热点之一。 差分进化算法基本原理 基本的差分进化算法是基于候选方案种群的算法,在整个搜索空间内进行方案的搜索,通过使用简单的数学公式对种群中的现有方案进行组合实现的。如果新的方案有所改进,则被接受,否则被丢弃,重复这一过程直到找到满意的方案。 设 f 是最小化适应度函数,适应度函数以实数向量的形式取一个候选方案作为参数,给出一个实数数值作为候选方案的输出适应值。其目的是在搜索空间的所有方案p 中找到m 使得f(m) ≤f(p)。最大化是找到一个m 使得f(m) ≥f(p)。 设X=(x1, x2,…, xn)∈?n是种群中一个个体,基本的差分进化算法如下所述: ?在搜索空间中随机地初始化所有的个体。 ?重复如下操作直到满足终止条件(最大迭代数或者找到满足适应值的个体) o 对于种群中的每个个体: ●随机地从种群中选择三个彼此不同的个体a,b 和c。 ●选择一个随机索引R ∈{1, ..., n},n 是被优化问题的维数。 ●通过对每个i ∈{1, ..., n}进行如下的迭代计算可能的新个体Y = [y1, ..., yn] 生成一 个随机数ri~U(0,1); ●如果(i=R)或者(ri3。差分进化算法作为一种新出现的优化算法在实际应用中表现出了优异的性能,被广泛应用到不同的领域,已经成为近年来优化算法的研究的热点之一。研究差分进化算法,探索提高差分进化算法性能的新方法,并将其应用到具体工程问题的解决中,具有重要的学术意义和应用价值。 差分进化计算的群体智能搜索策略分析 1 个体行为及个体之间信息交互方法分析 差分进化的个体表示方式与其他进化计算相同,是模拟生物进化中的关键因素,即生物的染色体和基因,构造每个解的形式,构成了算法的基础。一切的寻优操作都是在个体的基础上进行的,最优个体是搜寻到的最优的解。 差分进化的个体行为主要体现在差分变异算子和交叉算子上。

差分进化算法介绍

1.差分进化算法背景 差分进化(Differential Evolution,DE)是启发式优化算法的一种,它是基于群体差异的启发式随机搜索算法,该算法是Raincr Stom和Kenneth Price为求解切比雪夫多项式而提出的。差分进化算法具有原理简单、受控参数少、鲁棒性强等特点。近年来,DE在约束优化计算、聚类优化计算、非线性优化控制、神经网络优化、滤波器设计、阵列天线方向图综合及其它方面得到了广泛的应用。 差分算法的研究一直相当活跃,基于优胜劣汰自然选择的思想和简单的差分操作使差分算法在一定程度上具有自组织、自适应、自学习等特征。它的全局寻优能力和易于实施使其在诸多应用中取得成功。 2.差分进化算法简介 差分进化算法采用实数编码方式,其算法原理同遗传算法相似刚,主要包括变异、交叉和选择三个基本进化步骤。DE算法中的选择策略通常为锦标赛选择,而交叉操作方式与遗传算法也大体相同,但在变异操作方面使用了差分策略,即:利用种群中个体间的差分向量对个体进行扰动,实现个体的变异。与进化策略(Es)采用Gauss或Cauchy分布作为扰动向量的概率密度函数不同,DE使用的差分策略可根据种群内个体的分布自动调节差分向量(扰动向量)的大小,自适应好;DE 的变异方式,有效地利用了群体分布特性,提高了算法的搜索能力,避免了遗传算法中变异方式的不足。 3.差分进化算法适用情况 差分进化算法是一种随机的并行直接搜索算法,最初的设想是用于解决切比雪夫多项式问题,后来发现差分进化算法也是解决复杂优化问题的有效技术。它可以对非线性不可微连续空间的函数进行最小化。目前,差分进化算法的应用和研究主要集中于连续、单目标、无约束的确定性优化问题,但是,差分进化算法在多目标、有约束、离散和噪声等复杂环境下的优化也得到了一些进展。 4.基本DE算法 差分进化算法把种群中两个成员之间的加权差向量加到第三个成员上以产生新的参数向量,这一操作称为“变异”。然后,变异向量的参数与另外事先确

差分进化算法-入门

基本差分进化算法 1基本差分进化算法的基本思想 DE 算法是一种基于实数编码的用于优化函数最小值的进化算法,是在求解有关切比雪夫多项式的问题时提出来的,是基于群体差异的进化计算方法。它的整体结构类似于遗传算法,一样都存在变异、交叉和选择操作,但是它又不同于遗传算法。与基本遗传算法的主要区别在于变异操作上,如: 1、传统的遗传算法采用二进制编码,而差分进化算法采用实数编码。 2、在遗传算法过两个父代个体的交叉产生两个子个体,而在差分进化算法过第两个或几个个体的差分矢量做扰动来产生新个体。 3、在传统的遗传算法中,子代个体以一定概率取代其父代个体,而在差分进化中新产生的个体只有当它比种群中的个体优良时才替换种群中的个体。 变异是DE 算法的主要操作,它是基于群体的差异向量来修正各个体的值,其基本原理是通过把种群中两个个体的向量差加权后,按一定的规划与第三个个体求和来产生新个体,然后将新个体与当代种群中某个预先决定的个体相比较,如果新个体的目标值优于与之相比较的个体的目标值,则在下一代中就用新个体取代,否则,旧个体仍保存下来。 差分进化算法其基本思想是:首先由父代个体间的变异操作构成变异个体;接着按一定的概率,父代个体与变异个体之间进行交叉操作,生成一试验个体;然后在父代个体与试验个体之间根据适应度的大小进行贪婪选择操作,保留较优者,实现种群的进化。 2 差分进化算法的基本操作 设当前进化代数为t ,群体规模为NP ,空间维数为D ,当前种群为 {}12(),, ,t t t NP X t x x x =,()12,, ,T t t t t i i i iD x x x x =为种群中的第i 个个体。在进化过程 中,对于每个个体t i x 依次进行下面三种操作。 2.1 变异操作 对于每个个体t i x 按下式产生变异个体12(,, ,)t t t t T i i i iD v v v v =,则 123() 1,2, ,D t t t t ij r j r j r j v x F x x j =+-= (1) 其中111112(,,,)t t t t T r r r r D x x x x =,222212(,,,)t t t t T r r r r D x x x x =和333312(,, ,)t t t t T r r r r D x x x x =是群 体中随机选择的三个个体,并且123r r r i ≠≠≠;1t r j x ,2t r j x 和3t r j x 分别为个体1r ,2r 和3r 的第j 维分量;F 为变异因子,一般取值于[0,2]。这样就得到了变异个体t i v 。

遗传算法综述

遗传算法综述 史俊杰 摘要:遗传算法来源于进化论和群体遗传学,是计算智能的重要组成部分,正受到众多学科的高度重视。本文主要回顾了遗传算法的起源和发展历程,并对遗传算法的基本原理及特点作了简要阐述。进一步指出了遗传算法存在的问题及相应的改进措施,讨论了遗传算法在实际中的应用,并对遗传算法的未来的发展进行了探讨。 关键字:遗传算法,适应度函数,神经网络 1.遗传算法的起源 遗传算法(Genetic Algorithm,GA)是模拟自然界生物进化机制的一种算法,即遵循适者生存、优胜劣汰的法则,也就是寻优过程中有用的保留,无用的则去除。在科学和生产实践中表现为,在所有可能的解决方法中找出最符合该问题所要求的条件的解决方法,即找出一个最优解。这种算法是1960年由Holland提出来的,其最初的目的是研究自然系统的自适应行为,并设计具有自适应功能的软件系统。 2.遗传算法的发展过程 从二十世纪六十年代开始,密切根大学教授Holland开始研究自然和人工系统的自适应行为,在这些研究中,他试图发展一种用于创造通用程序和机器的理论。在六十年代中期至七十年代末期,Bagly发明“遗传算法”一词并发表了第一篇有关遗传算法应用的论文。1975年竖立了遗传算法发展史上的两块里程碑,一是Holland出版了经典著作“Adaptation in Nature and Artifieial System”,二是Dejong完成了具有指导意义的博士论文“An Analysis of the Behavior of a Class of Genetie Adaptive System”。进入八十年代,随着以符号系统模仿人类智能的传统人工智能暂时陷入困境,神经网络、机器学习和遗传算法等从生物系统底层模拟智能的研究重新复活并获得繁荣。进入九十年代,以不确定性、非线性、时间不可逆为内涵,以复杂问题为对象的科学新范式得到学术界普遍认同,如广义进化综合理论。由于遗传算法能有效地求解属于、NPC类型的组合优化问题及非线性多模型、多目标的函数优化问题,从而得到了多学科的广泛重视。3.遗传算法特点 遗传算法作为具有系统优化、适应和学习的高性能计算和建模方法的研究渐趋成熟。遗传算法具有进化计算的所有特征,同时又具有自身的特点: (1)搜索过程既不受优化函数的连续性约束,也没有优化函数导数必须存在的要

用于约束多目标优化问题的双群体差分进化算法精编

用于约束多目标优化问题的双群体差分进化算 法精编 Document number:WTT-LKK-GBB-08921-EIGG-22986

用于约束多目标优化问题的双群体差分进化算法 孟红云 1 张小华2刘三阳1 (1.西安电子科技大学应用数学系,西安,710071; 2.西安电子科技大学智能信息处理研究所,西安,710071)摘要:首先给出一种改进的差分进化算法,然后提出一 种基于双群体搜索机制的求解约束多目标优化问题的差分 进化算法.该算法同时使用两个群体,其中一个用于保存 搜索过程中找到的可行解,另一个用于记录在搜索过程中 得到的部分具有某些优良特性的不可行解,避免了构造罚 函数和直接删除不可行解.此外,将本文算法、NSGA-Ⅱ和SPEA的时间复杂度进行比较表明,NSGA-Ⅱ最优,本文算法与SPEA相当.对经典测试函数的仿真结果表明,与NSGA-Ⅱ相比较,本文算法在均匀性及逼近性方面均具有一定的优势. 关键字:差分进化算法;约束优化问题;多目标优化问题; 中图分类号:TP18 1 引言 达尔文的自然选择机理和个体的学习能力推动进化算 法的出现和发展,用进化算法求解优化问题已成为一个研 究的热点[1-3].但目前研究最多的却是无约束优化问题.然而,在科学研究和工程实践中,许多实际问题最终都归结 为求解一个带有约束条件的函数优化问题,因此研究基于 进化算法求解约束优化问题是非常有必要的.不失一般

性,以最小化问题为例,约束优化问题(Constrained Optimization Problem ,COP )可定义如下: )(COP ()()()()q j x h p i x g t s x f x f x f x F j i k R x n ,,1,0)( ,,1,0)( ..,,,)(min 21 ===≤=∈ (1) 其中)(x F 为目标函数,)(),(x h x g j i 称为约束条件, n n R x x x x ∈=),,,(21 称为n 维决策向量.将满足所有约束条件的 解空间S 称为(1)的可行域.特别的,当1=k 时,(1)为单目 标优化问题;当1>k 时,(1)为多目标优化问题.)(x g i 为 第i 个不等式约束,)(x h j 是第j 个等式约束.另一方面,对于等式约束0)(=x h j 可通过容许误差(也称容忍度)0>δ将它转 化为两个不等式约束: ?????≤--≤-0)(0)(δδx h x h j j (2) 故在以后讨论问题时,仅考虑带不等式约束的优化问题.进一步,如果x 使得不等式约束0)(=x g i ,则称约束() x g i 在x 处是积极的.在搜索空间S 中,满足约束条件的决策变量x 称为可行解,否则称为不可行解. 定义1(全局最优解)()**2 *1*,,,n x x x x =是COP 的全局最优解,是指S x ∈*且)(*x F 不劣于可行域内任意解y 所对应的目标 函数)(y F ,表示为)( )(*y F x F . 对于单目标优化问题, )( )(*y F x F 等价为)()(*y F x F ≤,而对于多目标优化问题是指不 存在y ,使得)(y F Pareto 优于)(*x F . 目前,进化算法用于无约束优化问题的文献居多,与 之比较,对约束优化问题的研究相对较少[4-6]。文[7] 对当前基于进化算法的各种约束处理方法进行了较为详细的综述. 对于约束优化问题的约束处理方法基本上分为两类:基于 罚函数的约束处理技术和基于多目标优化技术的约束处理

多目标进化算法综述电子教案

多目标进化算法综述

多目标进化算法综述 作者:梅志伟 来源:《软件导刊》2017年第06期 摘要:基于种群的进化算法在一次运行中能够产生一组近似的 Pareto 最优解集,因此多目标进化算法成为处理多目标优化问题中的主流方法。介绍了多目标优化问题中的数学模型以及相关定义,根据多目标进化算法的特点,将现有算法分为4类并分别进行阐述,同时分析了它们的优缺点。 关键词:多目标优化;进化算法;支配;分解 DOIDOI:10.11907/rjdk.171169 中图分类号:TP301 文献标识码:A 文章编号:1672-7800(2017)006-0204-04 0 引言 在人们的实际生活中,大多数优化问题都是多目标优化问题,广泛存在于经济管理、工程实践和科学研究等领域中。当前,多目标优化在理论和应用方面均取得了不少进展,但是由于多目标优化问题的复杂性,因此仍存在大量挑战。 多目标优化问题中往往存在多个彼此相互冲突的目标。与单目标优化不同,在多目标优化中,提高一个目标的性能会引起其它一个或多个目标性能的下降。因此,多目标优化问题中不存在一个单独的最优解,而是存在一组表示各个目标间权衡和折中关系的解集,称该解集为Pareto最优解集。Pareto最优解集在目标域的投影被称为Pareto前沿。 由于很多现实工程问题中的优化问题是NP难,传统的数学规划方法将会变得异常困难。而具有自然界规律启发式特征的求解方法往往适合近似求解这些困难问题,这些方法被称为进化计算[1]。进化算法基于种群的特性使其十分适合多目标优化问题的求解。同时,进化算法还具有鲁棒性强的特点。因此,进化算法被广泛应用在多目标优化问题的求解上。 1 多目标进化问题概述 多目标优化问题同时优化多个目标,这些待优化的目标包含最大化、最小化或者两者都有的问题。在实际处理时,为了简化问题,可以将最大化或最小化问题取反,使所有优化目标全部转化成最小化或最大化问题。本文中将讨论最小化问题。 2 多目标进化算法一般流程 生物进化是一个不断优化的过程,在不断的变化过程中增加自身的适应性。进化计算以生物进化为启发,对一个解进行抽象编码,模拟生物进化中的基因。进化算法以种群为基础,是一个黑盒的搜索、优化方法,进化算法不需要优化问题具备一定的前提条件,例如连续性、可微性等,且一次运行能够产生一组解。因此,进化算法特别适合处理多目标优化问题。

MOEAD(基于分解的多目标进化算法)

基于分解的多目标进化算法
摘要:在传统的多目标优化问题上常常使用分解策略。但是,这项策略还没有被广泛的 应用到多目标进化优化中。本文提出了一种基于分解的多目标进化算法。该算法将一个多目 标优化问题分解为一组???单目标优化问题并对它们同时优化。通过利用与每一个子问题 相邻的子问题的优化信息来优化它本身,这是的该算法比 MOGLS 和非支配排序遗传算法 NSGA-Ⅱ相比有更低的计算复杂度。实验结果证明:在 0-1 背包问题和连续的多目标优化问 题上,利用一些简单的分解方法本算法就可以比 MOGLS 和 NSGA-Ⅱ表现的更加出色或者 表现相近。实验也表明目标正态化的 MOEA/D 算法可以解决规模围相异的多目标问题,同 时使用一个先进分解方法的 MOEA/D 可以产生一组分别非常均匀的解对于有 3 个目标问题 的测试样例。最后,MOEA/D 在较小种群数量是的性能,还有可扩展性和敏感性都在本篇 论文过实验经行了相应的研究。
I. 介绍
多目标优化问题可以用下面式子表示:
其中 Ω 是决策空间, 以得到的目标集合成为
,包含了 m 个实值目标方法, 被称为目标区间。对于可 。
如果
,并且所有的目标函数都是连续的,那么 Ω 则可以用
其中 hj 是连续的函数,我们可以称(1)为一个连续的多目标优化问题。 如果目标函数互斥,那么同时对所有目标函数求最优解往往是无意义的。有意义的是获
得一个能维持他们之间平衡的解。这些在目标之间获得最佳平衡的以租借被定义 Pareto 最 优。
令 u, v∈Rm,如果
对于任意的 i,并且至少存在一个
,那
么 u 支配 v。如果在决策空间中,没有一个点 F(y)能够支配 F(x)点,那么 x 就是 Pareto 最优, F(x)则被称为 Pareto 最优向量。换句话说,对于 Pareto 最优点在某一个目标函数上的提高, 都会造成至少一个其余目标函数的退化。所有 Pareto 最优解的集合称为 Pareto 集合,所有 最优向量的集合被称为 Pareto 前沿。
在许多多目标优化的实际应用中,通过选择器选择一个接近 Pareto 最优前沿的解作为 最后的解。大多数多目标优化问题都有许多甚至是无穷个 Pareto 最优向量,如果想要获得 一个完整的最优前沿,将是一件非常耗时的事情。另一方面,选择器可能不会专注于获得一 个过于庞大的最优解向量集合来解决问题,因为信息的溢出。因此,许多多目标优化算法往 往是获得一个均匀分布在 Pareto 最优前沿周围的最优解向量,这样就具有更好的代表性。 许多研究人员也致力于使用数学模型来获得一个近似的最优前沿。
一般来说,在温和控制下多目标优化问题的 Pareto 最优解,可以看做是一个标量优化 问题的最优解(其中目标函数是 fi 的集合)。因此,Pareto 最优前沿的近似求解可以被分解为

MOEAD(基于分解的多目标进化算法)

摘要:在传统的多目标优化问题上常常使用分解策略。但是,这项策略还没有被广泛的应用到多目标进化优化中。本文提出了一种基于分解的多目标进化算法。该算法将一个多目标优化问题分解为一组单目标优化问题并对它们同时优化。通过利用与每一个子问题相邻的子问题的优化信息来优化它本身,这是的该算法比MOGLS和非支配排序遗传算法NSGA-Ⅱ相比有更低的计算复杂度。实验结果证明:在0-1背包问题和连续的多目标优化问题上,利用一些简单的分解方法本算法就可以比MOGLS和NSGA-Ⅱ表现的更加出色或者表现相近。实验也表明目标正态化的MOEA/D算法可以解决规模范围相异的多目标问题,同时使用一个先进分解方法的MOEA/D可以产生一组分别非常均匀的解对于有3个目标问题的测试样例。最后,MOEA/D在较小种群数量是的性能,还有可扩展性和敏感性都在本篇论文中通过实验经行了相应的研究。 I.介绍 多目标优化问题可以用下面式子表示: Maximize F(x)=((f1(f)…...f f(f))f subject to x∈Ω 其中Ω是决策空间,F:Ω→f f,包含了m个实值目标方法,f f被称为目标区间。对于 可以得到的目标集合成为{F(x)|x∈Ω}。 如果x∈R m,并且所有的目标函数都是连续的,那么Ω则可以用 Ω={x∈f f|h f(x)≤0,j=1……m} 其中hj是连续的函数,我们可以称(1)为一个连续的多目标优化问题。 如果目标函数互斥,那么同时对所有目标函数求最优解往往是无意义的。有意义的是获得一个能维持他们之间平衡的解。这些在目标之间获得最佳平衡的以租借被定义Pareto最优。 令u, v∈Rm,如果f f≥f f对于任意的i,并且至少存在一个f f≥f f(i,j∈{1…..m}),那么u支配v。如果在决策空间中,没有一个点F(y)能够支配F(x)点,那么x就是Pareto最优,F(x)则被称为Pareto最优向量。换句话说,对于Pareto最优点在某一个目标函数上的提高,都会造成至少一个其余目标函数的退化。所有Pareto最优解的集合称为Pareto集合,所有最优向量的集合被称为Pareto前沿。 在许多多目标优化的实际应用中,通过选择器选择一个接近Pareto最优前沿的解作为最后的解。大多数多目标优化问题都有许多甚至是无穷个Pareto最优向量,如果想要获得一个完整的最优前沿,将是一件非常耗时的事情。另一方面,选择器可能不会专注于获得一个过于庞大的最优解向量集合来解决问题,因为信息的溢出。因此,许多多目标优化算法往往是获得一个均匀分布在Pareto最优前沿周围的最优解向量,这样就具有更好的代表性。许多研究人员也致力于使用数学模型来获得一个近似的最优前沿。 一般来说,在温和控制下多目标优化问题的Pareto最优解,可以看做是一个标量优化问题的最优解(其中目标函数是fi的集合)。因此,Pareto最优前沿的近似求解可以被分解为一组标量目标优化子问题。这个想法是建立在许多传统的对最优前沿求近似解的数学编程方法上的。现在有许多的聚合方法,最流行的是切比雪夫法和加权法。最近,边界交叉方法也引起了许多的关注。 如今多目标进化算法并没有将分解这一概念引入当前的主要发展领域。这些算法将多目标优化问题看成一个整体。他们并没有通过任何特别的标量优化将每一个解相互联系在一起。在一个标量目标优化问题中,所有的解都可以通过他们的目标函数值进行对比,而挑战

相关文档
最新文档