神经网络和遗传算法的模糊系统的自动设计论文中英文资料对照外文翻译

神经网络和遗传算法的模糊系统的自动设计论文中英文资料对照外文翻译
神经网络和遗传算法的模糊系统的自动设计论文中英文资料对照外文翻译

基于神经网络和遗传算法的模糊系统的自动设计摘要

本文介绍了基于神经网络和遗传算法的模糊系统的设计,其目的在于缩短开发时间并提高该系统的性能。介绍一种利用神经网络来描绘的多维非线性隶属函数和调整隶属函数参数的方法。还提及了基于遗传算法的集成并自动化三个模糊系统的设计平台。

1 前言

模糊系统往往是人工手动设计。这引起了两个问题:一是由于人工手动设计是费时间的,所以开发费用很高;二是无法保证获得最佳的解决方案。为了缩短开发时间并提高模糊系统的性能,有两种独立的途径:开发支持工具和自动设计方法。前者包括辅助模糊系统设计的开发环境。许多环境已具有商业用途。后者介绍了自动设计的技术。尽管自动设计不能保证获得最优解,他们仍是可取的手工技巧,因为设计是引导走向和依某些标准的最优解。

有三种主要的设计决策模糊控制系统设计:

(1)确定模糊规则数,

(2)确定隶属度函数的形式。

(3)确定变化参数

再者,必须作出另外两个决定:

(4)确定输入变量的数量

(5)确定论证方法

(1)和(2)相互协调确定如何覆盖输入空间。他们之间有高度的相互依赖性。(3)用以确定TSK(Takagi-Sugeno-Kang)模式【1】中的线性方程式的系数,或确定隶属度函数以及部分的Mamdani模型【2】。(4)符合决定最低套相关的输入变量,计算所需的目标决策或控制的价值观。像逆向消除(4)和信息标准的技术在此设计中经常被利用。(5)相当于决定使用哪一个模糊算子和解模糊化的方法。虽然由数种算法和模糊推理的方法已被提出,仍没有选择他们标准。[5]表明动态变化的推理方法,他依据这个推理环境的结果在性能和容错性高于任何固定的推理的方法。

神经网络模型(以更普遍的梯度)和基于遗传算法的神经网络(最常见的梯度的基础)和遗传算法被用于模糊系统的自动设计。基于神经网络的方法主要是用来设计模糊隶属度函数。这有两种主要的方法;

(一)直接的多维的模糊隶属度函数的设计:

该方法首先通过数据库确定规则的数目。然后通过每个簇的等级的训练来确定隶属函数的形式。更多细节将在第二章给出。

(二)间接的多维的模糊隶属度函数的设计:

这种方法通过结合一维模糊隶属函数构建多维的模糊隶属度函数。隶属度函数梯度技术被用于调节试图减少模糊系统的期望产量和实际生产所需的产出总量的误差。

第一种方法的优点在于它可以直接产生非线性多维的模糊隶属度函数;没有必要通过结合一维模糊隶属函数构建多维的模糊隶属度函数。第二种方法的优点在于可通过监测模糊系统的最后性能来调整。这两种方法都将在第二章介绍。

许多基于遗传算法的方法与方法二在本质上一样;一维隶属函数的形式利用遗传算法

自动的调整。这些方法中很多只考虑了一个或两个前面提及的设计问题。在第三章中,我们将介绍一种三个设计问题同时考虑的方法。

2 神经网络方法

2.1多维输入空间的直接的模糊分区

该方法利用神经网络来实现多维的非线性隶属度函数,被称为基于NN的模糊推理。

该方法的优点在于它可以产生非线性多维的模糊隶属度函数。在传统的模糊系统中,用于前期部分的一维隶属度函数是独立设计的,然后结合起来间接实现多维的模糊隶属度函数。可以说,神经网络方法在由神经网络吸收的结合操作方面是传统模糊系统的一种更普遍的形式。当输入变量是独立的时传统的间接设计方法就有问题。例如,设计一个基于将温度和湿度作为输入的模糊系统的空调控制系统。在模糊系统的传统设计方法中,隶属函数的温度和湿度是独立设计的。输入空间所产生的模糊分区如图1(a)。然而,当输入变量是独立的,如温度、湿度,模糊分区如图1(b)比较合适。很难构建这样来自一维模糊隶属度函数的非线性分区。由于NN-driven模糊推理直接构建多维的非线性的模糊隶属度函数,很有可能使线性分区如图1(b)。

NN-driven模糊推理的设计的有三个步骤:聚集给出的训练数据,利用神经网络的模糊分区输入空间,和设计各分区空间的随机部分。

第一步是要聚集培训资料,确定规则的数目。这一步之前,不恰当的输入变量已经利用信息或淘汰落后指标的方法消除掉了。逆向消除方法的任意消除n个输入变量和训练神经网络的n - 1个输入变量。然后比较n个和n-1个变量的神经网络的性能。如果n-1个变量的神经网络的性能与n个变量的性能相似或者更好,那么消除输入变量就被认为是无关紧要的。然后这些数据被聚集,得到了数据的分布。集群数量是规则的数目。

第二步是决定在第一步中得到的集群资料的簇边界;输入空间的划分并确定多维输入的隶属函数。监督数据是由在第1步中获得的隶属度的输入数据聚类提供的。第一个带有n输入和c输出的神经网络被准备好,其中n是输入变量的数量,c是在第一步中得到的集群数量。为了神经网络的数据,图2中NN数量,产生于第一步提供的集群信息。一般来说,每个输入变量被分配到其中的一个集群。集群任务就是将输入变量和培训模式相结合。例如,在属于集群2的四个集群和输入向量的案例中,监督的培训模式将是(0,1,0,0)。在某些情况下,如果他/她相信一个输入的数据点应按不同的聚类,用户不得非法干预和手动建造部分监督。举例来说,如果用户认为一个数据点同样属于一个两个班,适当的监管输出模式可能(0.5,0.5,0,0)。这个神经网络在关于该培训资料的训练结束后,神经网络计算特定输入属于各集群向量。因此,我们认为该神经网络通过学习获得特征的隶属度函数所有的规则,可以产生与隶属度相适应的任意的输入向量。利用神经网络如发生器的模糊系统是NN-driven模糊推理。

第三步是随机的设计。因为我们知道哪个集群能举出一个输入数据,我们可以使用输入数据和期望的结果训练随机的部分。神经网络的表达可在这里,如[3,4]中所言,但是其他的方法,如数学方程或模糊变量,可以用来代替。该模型的最关键的是神经网络的输入空间分割模糊聚类。

图2所示的一个例子NN-driven模糊推理系统。这是一个输出由神经网络或TSK模型计算的一个单独的价值的模型。在图乘法和加法计算加权平均值。如果后续的部分输出模糊值,适当的t-conorm和/或解模糊化操作应该被使用。

图1.模糊划分:(a)常规(b)期望

图2.NN-driven结构模糊推理实例

2.2调整参数的模糊系统

这个定义隶属度函数形式的参数来减少模糊系统输出和监督的数据之间的误差。两种方法用于修改这些参数:摘要现有基于梯度方法和遗传算法。遗传算法的方法将在下一章节讲述,基于梯度的方法将在这部分解释。

这个基于梯度的方法的程序是:(1)决定如何确定的隶属度函数的形式(2)利用梯度方法调整降低模糊系统的实际输出与期望输出的参数,通常最速下降。隶属函数的中心的位置和宽度通常用来定义参数的形状。Ichihashi et al. [6]and Nomura et al. [7, 8], Horikawa et al.

[9][10], Ichihashi et al.[ll] and Wang et al. [12], Jang [13][14] 已经分别用三角形,结合sigmoidal、高斯,钟型隶属度函数。他们利用最速下降法来调整模糊隶属函数参数。

图3. 神经网络调整模糊系统的参数图4. 调整模糊系统的神经网络

图3显示了此方法和同构于图4. 图中的u ij在i-th 规则下输入模糊隶属函数的参数x j,而它实际上是代表一个描述隶属度函数的形式的参数向量。也就是说,这个方法使模糊系统作为神经网络的模糊隶属度函数和通过节点执行重量和规则一样。任何网络学习算法,例如反向传播算法,可以用来设计这种结构。

3遗传算法方法

3.1遗传算法与模糊控制

遗传算法是进行优化、生物激励的技术,他的运行用二进制表示,并进行繁殖,交叉和变异。繁殖后代的权利是通过应用程序提供的一种健身价值。遗传算法吸引人是因为他们不需要存在的衍生物,他们的同时搜索的鲁棒性很强,并能避免陷入局部最小。

SeverM的论文提出了利用自动遗传算法的模糊系统的设计方法。大量的工作主要集中在调整的模糊隶属度函数[17]-[25]。其他的方法使用遗传算法来确定模糊规则数[18,26]。在[26]中,通过专家制定了一系列规则,并且遗传算法找到他们的最佳的组合。在[18],卡尔已经开发出一种方法用于测定模糊隶属度函数和模糊规则数。在这篇文章中,卡尔的方法首先用遗传算法按照预先定义的规则库确定规则的数目。这个阶段后,利用遗传算法来调整模

糊隶属度函数。虽然这些方法设计的系统表现的比手工设计的系统好,它们仍可能会欠佳,因为他们一次只有一个或两个三大设计阶段。因为这些设计阶段可能不会是独立的,所以重要的是要考虑它们同时找到全局最优解。在下一节里,我们提出一个结合的三个主要设计阶段自动设计方法。

3.2基于遗传算法的模糊系统的综合设计

这部分提出了一种利用遗传算法的自动模糊系统的设计方法, 并将三个主要设计阶段一体化:隶属函数的形式, 模糊规则数, 和规则后件同一时间内确定[27]。

当将遗传算法应用于程序上时,有两个主要步骤;(a)选择合适的基因表达,(b) 设计一个评价函数的人口排名。在接下来的段落里,我们讨论我们的模糊系统表现及基因表达。一个嵌入验前知识的评价函数和方法将会在接下来的章节中提及

模糊系统和基因表现我们用TSK模型的模糊系统,它被广泛应用于控制问题,对地图系统的状态来控制的价值。TSK模型在随之而来的模糊模型中的线性方程与模糊语言表达方面有别于传统的模糊系统。例如,一个TSK模型规则的形式:

如果X1是A,X2是B,那么y=w1X1+w2X2+w3;

是常数

其中w

最后的控制价值通过每个规则的输出和依据规则的加权的射击力量来计算。我们利用左基地,右基地,和以往的中心点距离(第一个中心是一个绝对的位置)对三角形隶属度函数进行参数化,。其他参数化的形状,如双曲形、高斯,钟形,或梯形可以代替。不同于大多数方法、重叠限制不是放在在我们的系统和完整的重叠存在(见图5)。

图5. (a)隶属度函数表示法(b)可能的隶属函数

一般来说,每个输入变量模糊集理论的数量与确定的模糊规则的数目相结合。例如,一个带有m输入变量的TSK模型,每n个模糊集,将会产生n m模糊规则。因为规则的数目直接取决于这个数目的隶属函数,消除隶属度函数对消除规则有直接的影响。

每一隶属函数需要三个参数并且每一个模糊规则需要三个参数。因此,每个变量需要n个模糊输入的m-input-one-output系统要求3(mn+n m)参量。

这个基因表达明确包含三个成员函数的参数及前述的随机参数。然而,规则的数,通过应用编码含蓄的边界条件和隶属函数的定位。我们可以隐含的控制规则的数目,消除隶属函数的中心位置的范围之外的相应的包含这些内容的输入变量和规则。例如,在单摆应用隶属度函数使用θ的中心位置大于90°都是可以避免的。这意味着规则的数目可以在同一时间进行了遗传算法优化隶属函数的形式和随之而来的参数。实际的遗传编码是由定义为一组染色体的参数,代表一个更高水平的实体,比如模糊隶属函数或规则后件的参数设置(见图6)。图7显示染色体连接在一起,形成整个模糊系统。

图6. 复合染色体

图7. 基因图

3.3 评价函数

评估单摆控制器这个单摆代表一个经典的非线性控制问题的任务是寻找一个控制策略,它能平衡极点上移动车。在我们的仿真中,两杆和车的运动局限于垂直面上,并且车被允许无限在任一方向沿轨道。该控制器采用角位移和速度来计算一个力,并将其应用于整个控制之间的间隔。更多详情可参阅[14]和[27]。

不同于模糊系统,评价函数直接依赖于应用程序。遗传算法利用客观的计算性能指标的措施来引导以寻求更好、更好的控制。一个单摆试验可以三个不同的条件为结果:(1)单摆变得平衡,(2)模拟时间用光了,(3)单摆摔倒。当实验结束时t end代表时间,t max代表最大仿真的时间。根据这三个条件,我们提出下面的指导方针:如果系统平衡极点,较短的时间比更长的时间;如果单摆摔倒,直到失败的相当长一段时间要比较短的时间好。其表示如图8。

a 1(t max-t end)+a2reward (1)

分数(t end)= reward (2)

b·t end (3)

其中a1,a2,,b和record是常数,

图8. 原始得分功能(1)单摆变得平衡,(2) t end=t max,(3)单摆摔倒(|θ|≥90°)。当525审判结束时t代表的时间, t代表最大526模拟时间。

该控制器的工作在大范围的初始条件也是可取的。考虑到这一点, 我们评估了从个体的初始条件控制器综合成绩进行了试验。然后我们充实我们带有附加的条款评价函数来考虑稳态误差并根据系统规则的数目惩罚系统。一个试验的适当评分为结果的计算如下:

在稳态误差的加权整体角度偏移和偏移程度的参数控制规则的规定处罚。

嵌入知识有两个层次先前知识可以被添加到我们的模糊控制系统的设计方法中:在这个级别的模糊系统和层次的应用。我们可以将我们的模糊系统的知识并可进入我们的系统几个方面:通过初始条件,通过模糊系统的表示,或者通过目标函数[28]。

传统的遗传算法开始于随机生成的人口解决方案。该程序的目的是为了随机覆盖的解空间,希望可能接近全局最优解。我们可以用我们的应用知识的一些成员对初始种群具有良好的参数设置。偏置的人口以这样的方式并不限制了遗传算法寻找解决方案在附近的初始方案,因为该突变、交叉和生殖的行动还是允许的遗传算法来搜索分从遥远的起始点。如果

初始解大体正确,我们可以获得显著加速。然而,如果他们靠近局部最小,遗传算法可暂时心烦意乱,需要更多的时间来寻找最优。

从我们的经模糊系统的经验,我们知道同样分区的输入维数是一个不错的主意。使用这些知识,我们可以初始化几个成员的人口覆盖输入维数。我们的成员初始种群包含同样划分成不同数量的输入维数模糊集除了随机生成的成员。

这个单摆已经被深入研究,其控制规律比如:

已经开发出来了。我们可以通过设置该函数参数、w3、不变的部分的后续TSK控制律的价值时,它是评价在中心点的隶属度函数。我们也可以利用单摆的对称平衡的任务的优点以要求潜在的模糊系统的对称。例如对称模糊系统将信号输入空间划分的起源和约束随之而来的参数来反映的对称性。除了可能性能的提高产生的制度,在初始条件的训练可以降低一半。

另一种技术合并对称设计系统是隐纳入本评价函数。由包括起始点对称的评价过程中,我们可以确保对称条件进行了较为深入的探讨。

3.4 实验方法与结果

我们的方法结合遗传算法,惩罚策略,以及豪放,隶属度函数来自动设计的模糊系统的重叠。在本节中,我们首先发现的结果而不使用任何先前知识。然后我们比较了这些结果与我们的方法先前知识已被纳入设计过程。

实验方法有与遗传算法和相关参数与应用程序相关的实验参数。交叉率、交叉、变异率、人口分大小、后代产生的数量是遗传算法的参数。最大的模糊集/输入变量和参数的分辨率是参数与模糊系统和模糊系统的编码。偏移,最大仿真,分数和均衡标准参数用于评估控制器。

我们用两个点交叉的遗传算法并设置交叉率为0.6、变异率为0.0333、种群数量为10。后代的产生数量取决于实验。我们用一个精英策略,以最高的健身价值的成员自动先进给下一代。

最大的模糊集在我们的实验中输入是个变量这是通过限制应用的经验倒立摆。因为我们包含一个包括规则的数目惩罚策略,使得设定的号码是不那么重要。所有参数的精确到8位。结果对模糊系统使用基因表达我们的实验中包括360参数或2880位(见图6)。

试验中平衡的标准是精确到0.0001。如果以下条件得到满足,单摆就会平衡:

分数设置为是5000,最大仿真t为200,评价参数偏移为10。

实验结果毕竟这些参数的设定,遗传算法已经开始了搜索。每个控制器进行了人口的初始条件的评估:(θ,δθ/δt)=(5.22,6.93),(5.11,6.97),(-8.41,-1.37),(6.22,-7.14)。完成迭代的请求次数后,最好的方法保持而将其余的丢弃。在这一项实验中,该方法产生了一种只有四个规则系统。他们的对称规则是:

如果X1是A,X2是B,那么y=w1X1+w2X2+w3

其中i=1~4

所得四个部分的参数为(w1i,w2i,w3i)=(0.44,1.02,-31.65),(1.54,-0.61,-30.14),(1.54,-0.61,30.14),(0.44,1.02,31.65)。获得三角形隶属度函数,A i和B i关系是

A1=A3={-119.65,-62.12,4.56},A2=A4={-4.59,62.12,-119.65},B1=B3={-219,-1.99,238.56},

B2=B4={-238.56,1.99,219.64}。图9和10显示几初始条件的轨迹。

图9. θ和θ的轨迹图10. θ位移和时间的关系我们有四种实验来研究包括不同的组合的先前知识关于系统的设计方法和系统结果的影响。嵌入到设计方法先前知识形式是对称的模糊系统的体系结构和启发式的初始化。健康与世代关系如图11及其实验条件表。

图11.健康与世代关系

每个实验在八个对称初始条件下进行5000次迭代。运用模糊系统的实验只采用轴对称的一半,并因此执行非不对称的系统同样多的评估函数的一半。有趣的是,虽然这个实验启动式的初始最初并不优异的性能比随机初始化后,他们需要更多的时间去获得更高的健康水平。这可能是由于给予代表局部最小的初始条件。

4 结论

神经网络和遗传算法已成长为自动模糊系统设计的实用工具。神经网络方法完全厘清模糊系统自动已经使他们的商业的初次登场。神经网络和遗传算法的模糊控制系统设计为全自动就是利用一个技术来加强另一个的两个例子。更多的组合包括两种或两种以上的配合技术有待发现和探索。

工业设计专业英语英文翻译

工业设计原著选读 优秀的产品设计 第一个拨号电话1897年由卡罗耳Gantz 第一个拨号电话在1897年被自动电器公司引入,成立于1891年布朗强,一名勘萨斯州承担者。在1889年,相信铃声“中央交换”将转移来电给竞争对手,强发明了被拨号系统控制的自动交换机系统。这个系统在1892年第一次在拉波特完成史端乔系统中被安装。1897年,强的模型电话,然而模型扶轮拨条的位置没有类似于轮齿约170度,以及边缘拨阀瓣。电话,当然是被亚历山大格雷厄姆贝尔(1847—1922)在1876年发明的。第一个商业交换始建于1878(12个使用者),在1879年,多交换机系统由工程师勒罗伊B 菲尔曼发明,使电话取得商业成功,用户在1890年达到250000。 直到1894年,贝尔原批专利过期,贝尔电话公司在市场上有一个虚拟的垄断。他们已经成功侵权投诉反对至少600竞争者。该公司曾在1896年,刚刚在中央交易所推出了电源的“普通电池”制度。在那之前,一个人有手摇电话以提供足够的电力呼叫。一个连接可能仍然只能在给予该人的名义下提出要求达到一个电话接线员。这是强改变的原因。 强很快成为贝尔的强大竞争者。他在1901年引进了一个桌面拨号模型,这个模型在设计方面比贝尔的模型更加清晰。在1902年,他引进了一个带有磁盘拨号的墙面电话,这次与实际指孔,仍然只有170度左右在磁盘周围。到1905年,一个“长距离”手指孔已经被增加了。最后一个强的知名模型是在1907年。强的专利大概过期于1914年,之后他或他的公司再也没有听到过。直到1919年贝尔引进了拨号系统。当他们这样做,在拨号盘的周围手指孔被充分扩展了。 强发明的拨号系统直到1922年进入像纽约一样的大城市才成为主流。但是一旦作为规规范被确立,直到70年代它仍然是主要的电话技术。后按键式拨号在1963年被推出之后,强发明的最初的手指拨号系统作为“旋转的拨号系统”而知名。这是强怎样“让你的手指拨号”的。 埃姆斯椅LCW和DCW 1947 这些带有复合曲线座位,靠背和橡胶防震装置的成型胶合板椅是由查尔斯埃姆斯设计,在赫曼米勒家具公司生产的。 这个原始的概念是被查尔斯埃姆斯(1907—1978)和埃罗沙里宁(1910—1961)在1940年合作构想出来的。在1937年,埃姆斯成为克兰布鲁克学院实验设计部门的领头人,和沙里宁一起工作调查材料和家具。在这些努力下,埃姆斯发明了分成薄片和成型胶合板夹板,被称作埃姆斯夹板,在1941年收到了来自美国海军5000人的订单。查尔斯和他的妻子雷在他们威尼斯,钙的工作室及工厂和埃文斯产品公司的生产厂家一起生产了这批订单。 在1941年现代艺术博物馆,艾略特诺伊斯组织了一场比赛用以发现对现代生活富有想象力的设计师。奖项颁发给了埃姆斯和沙里宁他们的椅子和存储碎片,由包括埃德加考夫曼,大都会艺术博物馆的阿尔弗雷德,艾略特诺伊斯,马尔塞布鲁尔,弗兰克帕里什和建筑师爱德华达雷尔斯通的陪审团裁决。 这些椅子在1946年的现代艺术展览博物馆被展出,查尔斯埃姆斯设计的新的家具。当时,椅子只有三条腿,稳定性问题气馁了大规模生产。 早期的LCW(低木椅)和DWC(就餐木椅)设计有四条木腿在1946年第一次被埃文斯产品公司(埃姆斯的战时雇主)生产出来,被赫曼米勒家具公司分配。这些工具1946年被乔治纳尔逊为赫曼米勒购买,在1949年接手制造权。后来金属脚的愿景在1951年制作,包括LCW(低金属椅)和DWC(就餐金属椅)模型。配套的餐饮和咖啡桌也产生。这条线一直

遗传算法——耐心看完-你就掌握了遗传算法【精品毕业设计】(完整版)

遗传算法入门到掌握 读完这个讲义,你将基本掌握遗传算法,要有耐心看完。 想了很久,应该用一个怎么样的例子带领大家走进遗传算法的神奇世界呢?遗传算法的有趣应用很多,诸如寻路问题,8数码问题,囚犯困境,动作控制,找圆心问题(这是一个国外网友的建议:在一个不规则的多边形中,寻找一个包含在该多边形内的最大圆圈的圆心。),TSP问题(在以后的章节里面将做详细介绍。),生产调度问题,人工生命模拟等。直到最后看到一个非常有趣的比喻,觉得由此引出的袋鼠跳问题(暂且这么叫它吧),既有趣直观又直达遗传算法的本质,确实非常适合作为初学者入门的例子。这一章将告诉读者,我们怎么让袋鼠跳到珠穆朗玛峰上去(如果它没有过早被冻坏的话)。 问题的提出与解决方案 让我们先来考虑考虑下面这个问题的解决办法。 已知一元函数: 图2-1 现在要求在既定的区间内找出函数的最大值。函数图像如图2-1所示。 极大值、最大值、局部最优解、全局最优解

在解决上面提出的问题之前我们有必要先澄清几个以后将常常会碰到的概念:极大值、最大值、局部最优解、全局最优解。学过高中数学的人都知道极大值在一个小邻域里面左边的函数值递增,右边的函数值递减,在图2.1里面的表现就是一个“山峰”。当然,在图上有很多个“山峰”,所以这个函数有很多个极大值。而对于一个函数来说,最大值就是在所有极大值当中,最大的那个。所以极大值具有局部性,而最大值则具有全局性。 因为遗传算法中每一条染色体,对应着遗传算法的一个解决方案,一般我们用适应性函数(fitness function)来衡量这个解决方案的优劣。所以从一个基因组到其解的适应度形成一个映射。所以也可以把遗传算法的过程看作是一个在多元函数里面求最优解的过程。在这个多维曲面里面也有数不清的“山峰”,而这些最优解所对应的就是局部最优解。而其中也会有一个“山峰”的海拔最高的,那么这个就是全局最优解。而遗传算法的任务就是尽量爬到最高峰,而不是陷落在一些小山峰。(另外,值得注意的是遗传算法不一定要找“最高的山峰”,如果问题的适应度评价越小越好的话,那么全局最优解就是函数的最小值,对应的,遗传算法所要找的就是“最深的谷底”)如果至今你还不太理解的话,那么你先往下看。本章的示例程序将会非常形象的表现出这个情景。 “袋鼠跳”问题 既然我们把函数曲线理解成一个一个山峰和山谷组成的山脉。那么我们可以设想所得到的每一个解就是一只袋鼠,我们希望它们不断的向着更高处跳去,直到跳到最高的山峰(尽管袋鼠本身不见得愿意那么做)。所以求最大值的过程就转化成一个“袋鼠跳”的过程。下面介绍介绍“袋鼠跳”的几种方式。 爬山法、模拟退火和遗传算法 解决寻找最大值问题的几种常见的算法: 1. 爬山法(最速上升爬山法): 从搜索空间中随机产生邻近的点,从中选择对应解最优的个体,替换原来的个体,不断重复上述过程。因为只对“邻近”的点作比较,所以目光比较“短浅”,常常只能收敛到离开初始位置比较近的局部最优解上面。对于存在很多局部最优点的问题,通过一个简单的迭代找出全局最优解的机会非常渺茫。(在爬山法中,袋鼠最有希望到达最靠近它出发点的山顶,但不能保证该山顶是珠穆朗玛峰,或者是一个非常高的山峰。因为一路上它只顾上坡,没有下坡。) 2. 模拟退火: 这个方法来自金属热加工过程的启发。在金属热加工过程中,当金属的温度超过它的熔点(Melting Point)时,原子就会激烈地随机运动。与所有的其它的物理系统相类似,原子的这种运动趋向于寻找其能量的极小状态。在这个能量的变

人工神经网络原理及实际应用

人工神经网络原理及实际应用 摘要:本文就主要讲述一下神经网络的基本原理,特别是BP神经网络原理,以及它在实际工程中的应用。 关键词:神经网络、BP算法、鲁棒自适应控制、Smith-PID 本世纪初,科学家们就一直探究大脑构筑函数和思维运行机理。特别是近二十年来。对大脑有关的感觉器官的仿生做了不少工作,人脑含有数亿个神经元,并以特殊的复杂形式组成在一起,它能够在“计算"某些问题(如难以用数学描述或非确定性问题等)时,比目前最快的计算机还要快许多倍。大脑的信号传导速度要比电子元件的信号传导要慢百万倍,然而,大脑的信息处理速度比电子元件的处理速度快许多倍,因此科学家推测大脑的信息处理方式和思维方式是非常复杂的,是一个复杂并行信息处理系统。1943年Macullocu和Pitts融合了生物物理学和数学提出了第一个神经元模型。从这以后,人工神经网络经历了发展,停滞,再发展的过程,时至今日发展正走向成熟,在广泛领域得到了令人鼓舞的应用成果。本文就主要讲述一下神经网络的原理,特别是BP神经网络原理,以及它在实际中的应用。 1.神经网络的基本原理 因为人工神经网络是模拟人和动物的神经网络的某种结构和功能的模拟,所以要了解神经网络的工作原理,所以我们首先要了解生物神经元。其结构如下图所示: 从上图可看出生物神经元它包括,细胞体:由细胞核、细胞质与细胞膜组成;

轴突:是从细胞体向外伸出的细长部分,也就是神经纤维。轴突是神经细胞的输出端,通过它向外传出神经冲动;树突:是细胞体向外伸出的许多较短的树枝状分支。它们是细胞的输入端,接受来自其它神经元的冲动;突触:神经元之间相互连接的地方,既是神经末梢与树突相接触的交界面。 对于从同一树突先后传入的神经冲动,以及同一时间从不同树突输入的神经冲动,神经细胞均可加以综合处理,处理的结果可使细胞膜电位升高;当膜电位升高到一阀值(约40mV),细胞进入兴奋状态,产生神经冲动,并由轴突输出神经冲动;当输入的冲动减小,综合处理的结果使膜电位下降,当下降到阀值时。细胞进入抑制状态,此时无神经冲动输出。“兴奋”和“抑制”,神经细胞必呈其一。 突触界面具有脉冲/电位信号转换功能,即类似于D/A转换功能。沿轴突和树突传递的是等幅、恒宽、编码的离散电脉冲信号。细胞中膜电位是连续的模拟量。 神经冲动信号的传导速度在1~150m/s之间,随纤维的粗细,髓鞘的有无而不同。 神经细胞的重要特点是具有学习功能并有遗忘和疲劳效应。总之,随着对生物神经元的深入研究,揭示出神经元不是简单的双稳逻辑元件而是微型生物信息处理机制和控制机。 而神经网络的基本原理也就是对生物神经元进行尽可能的模拟,当然,以目前的理论水平,制造水平,和应用水平,还与人脑神经网络的有着很大的差别,它只是对人脑神经网络有选择的,单一的,简化的构造和性能模拟,从而形成了不同功能的,多种类型的,不同层次的神经网络模型。 2.BP神经网络 目前,再这一基本原理上已发展了几十种神经网络,例如Hopficld模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart 等的多层感知机模型和Kohonen的自组织网络模型等等。在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。 这里我们重点的讲述一下BP神经网络。多层感知机神经网络的研究始于50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算),实现了Minsky的多层网络设想,其网络模型如下图所示。它可以分为输入层,影层(也叫中间层),和输出层,其中中间层可以是一层,也可以多层,看实际情况而定。

毕业论文外文翻译模版

吉林化工学院理学院 毕业论文外文翻译English Title(Times New Roman ,三号) 学生学号:08810219 学生姓名:袁庚文 专业班级:信息与计算科学0802 指导教师:赵瑛 职称副教授 起止日期:2012.2.27~2012.3.14 吉林化工学院 Jilin Institute of Chemical Technology

1 外文翻译的基本内容 应选择与本课题密切相关的外文文献(学术期刊网上的),译成中文,与原文装订在一起并独立成册。在毕业答辩前,同论文一起上交。译文字数不应少于3000个汉字。 2 书写规范 2.1 外文翻译的正文格式 正文版心设置为:上边距:3.5厘米,下边距:2.5厘米,左边距:3.5厘米,右边距:2厘米,页眉:2.5厘米,页脚:2厘米。 中文部分正文选用模板中的样式所定义的“正文”,每段落首行缩进2字;或者手动设置成每段落首行缩进2字,字体:宋体,字号:小四,行距:多倍行距1.3,间距:前段、后段均为0行。 这部分工作模板中已经自动设置为缺省值。 2.2标题格式 特别注意:各级标题的具体形式可参照外文原文确定。 1.第一级标题(如:第1章绪论)选用模板中的样式所定义的“标题1”,居左;或者手动设置成字体:黑体,居左,字号:三号,1.5倍行距,段后11磅,段前为11磅。 2.第二级标题(如:1.2 摘要与关键词)选用模板中的样式所定义的“标题2”,居左;或者手动设置成字体:黑体,居左,字号:四号,1.5倍行距,段后为0,段前0.5行。 3.第三级标题(如:1.2.1 摘要)选用模板中的样式所定义的“标题3”,居左;或者手动设置成字体:黑体,居左,字号:小四,1.5倍行距,段后为0,段前0.5行。 标题和后面文字之间空一格(半角)。 3 图表及公式等的格式说明 图表、公式、参考文献等的格式详见《吉林化工学院本科学生毕业设计说明书(论文)撰写规范及标准模版》中相关的说明。

基于BP神经网络的车型识别外文翻译

、外文资料 License Plate Recognition Based On Prior Knowledge Abstract - In this paper, a new algorithm based on improved BP (back propagation) neural network for Chinese vehicle license plate recognition (LPR) is described. The proposed approach provides a solution for the vehicle license plates (VLP) which were degraded severely. What it remarkably differs from the traditional methods is the application of prior knowledge of license plate to the procedure of location, segmentation and recognition. Color collocation is used to locate the license plate in the image. Dimensions of each character are constant, which is used to segment the character of VLPs. The Layout of the Chinese VLP is an important feature, which is used to construct a classifier for recognizing. The experimental results show that the improved algorithm is effective under the condition that the license plates were degraded severely. Index Terms - License plate recognition, prior knowledge, vehicle license plates, neural network. I. INTRODUCTION Vehicle License-Plate (VLP) recognition is a very interesting but difficult problem. It is important in a number of applications such as weight-and-speed-limit, red traffic infringement, road surveys and park security [1]. VLP recognition system consists of the plate location, the characters segmentation, and the characters recognition. These tasks become more sophisticated when dealing with plate images taken in various inclined angles or under various lighting, weather condition and cleanliness of the plate. Because this problem is usually used in real-time systems, it requires not only accuracy but also fast processing. Most existing VLP recognition methods [2], [3], [4], [5] reduce the complexity and increase the recognition rate by using some specific features of local VLPs and establishing some constrains on the position, distance from the camera to vehicles, and the inclined angles. In addition, neural network was used to increase the recognition rate [6], [7] but the traditional recognition methods seldom consider the prior knowledge of the local VLPs. In this paper, we proposed a new improved learning method of BP algorithm based on specific features of Chinese VLPs. The proposed algorithm overcomes the low speed convergence of BP neural network [8] and remarkable increases the recognition rate especially under the condition that the license plate images were degrade severely.

遗传算法应用论文

论文 题目:遗传应用算法 院系:计算机工程系 专业:网络工程 班级学号: 学生姓名: 2014年10月23日

摘要: 遗传算法是基于自然界生物进化基本法则而发展起来的一类新算法。本文在简要介绍遗传算法的起源与发展、算法原理的基础上,对算法在优化、拟合与校正、结构分析与图谱解析、变量选择、与其他算法的联用等方面的应用进行了综述。该算法由于无需体系的先验知识,是一种全局最优化方法,能有效地处理复杂的非线性问题,因此有着广阔的应用前景。 关键词: 遗传算法; 化学计量学; 优化 THEORY AND APPL ICATION OF GENETIC AL GORITHM ABSTRACT: Genetic Algo rithm( GA) is a kind of recursive computational procedure based on the simulation of principle principles of evaluati on of living organisms in nature1Based on brief int roduction of the principle ,the beginning and development of the algorithms ,the pape r reviewed its applications in the fields of optimization ,fitting an d calibration,structure analysis and spectra interpretation variable selection ,and it s usage in combination with othersThe application o f GA needs no initiating knowledge of the system ,and therefore is a comprehensive optimization method with extensive application in terms of processing complex nonlinear problems。 KEY WORDS : Genetic Algorithm( GA) Chemometrics Optimization 遗传算法是在模拟自然界生物遗传进化过程中形成的一种自适应优化的概率搜索算法,它于1962年被提出,直到1989年才最终形成基本框架。遗传算法是一种借鉴生物界自然选择和自然遗传机制的随机化搜索算法, 由美国J. H. Ho llad教授提出, 其主要特点是群体搜索策略和群体中个体之间的信息交换。该算法尤其适用于处理传统搜索方法难以解决的复杂和非线性问题, 可广泛用于组合优化、机器学习、自适应控制、规划设计和人工生命等领域。 顾名思义,遗传算法(Genetic Algorithm ,GA)是模拟自然界生物进化机制的一种算法 ,即遵循适者生存、优胜劣汰的法则 ,也就是寻优过程中有用的保留 ,无用的则去除。在科学和生产实践中表现为 ,在所有可能的解决方法中找出最符合该问题所要求的条件的解决方法 ,即找出一个最优解。这种算法是 1960 年由

工业设计外文翻译

Interaction design Moggridge Bill Interaction design,Page 1-15 USA Art Press, 2008 Interaction design (IxD) is the study of devices with which a user can interact, in particular computer users. The practice typically centers on "embedding information technology into the ambient social complexities of the physical world."[1] It can also apply to other types of non-electronic products and services, and even organizations. Interaction design defines the behavior (the "interaction") of an artifact or system in response to its users. Malcolm McCullough has written, "As a consequence of pervasive computing, interaction design is poised to become one of the main liberal arts of the twenty-first century." Certain basic principles of cognitive psychology provide grounding for interaction design. These include mental models, mapping, interface metaphors, and affordances. Many of these are laid out in Donald Norman's influential book The Psychology of Everyday Things. As technologies are often overly complex for their intended target audience, interaction design aims to minimize the learning curve and to increase accuracy and efficiency of a task without diminishing usefulness. The objective is to reduce frustration and increase user productivity and satisfaction. Interaction design attempts to improve the usability and experience of the product, by first researching and understanding certain users' needs and then designing to meet and exceed them. (Figuring out who needs to use it, and how those people would like to use it.) Only by involving users who will use a product or system on a regular basis will designers be able to properly tailor and maximize usability. Involving real users, designers gain the ability to better understand user goals and experiences. (see also: User-centered design) There are also positive side effects which include enhanced system capability awareness and user ownership. It is important that the user be aware of system capabilities from an early stage so that expectations regarding functionality are both realistic and properly understood. Also, users who have been active participants in a product's development are more likely to feel a sense of ownership, thus increasing overall satisfa. Instructional design is a goal-oriented, user-centric approach to creating training and education software or written materials. Interaction design and instructional design both rely on cognitive psychology theories to focus on how users will interact with software. They both take an in-depth approach to analyzing the user's needs and goals. A needs analysis is often performed in both disciplines. Both, approach the design from the user's perspective. Both, involve gathering feedback from users, and making revisions until the product or service has been found to be effective. (Summative / formative evaluations) In many ways, instructional

人工神经网络的发展及应用

人工神经网络的发展与应用 神经网络发展 启蒙时期 启蒙时期开始于1980年美国著名心理学家W.James关于人脑结构与功能的研究,结束于1969年Minsky和Pape~发表的《感知器》(Perceptron)一书。早在1943年,心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型(即M—P模型),该模型把神经细胞的动作描述为:1神经元的活动表现为兴奋或抑制的二值变化;2任何兴奋性突触有输入激励后,使神经元兴奋与神经元先前的动作状态无关;3任何抑制性突触有输入激励后,使神经元抑制;4突触的值不随时间改变;5突触从感知输入到传送出一个输出脉冲的延迟时问是0.5ms。可见,M—P模型是用逻辑的数学工具研究客观世界的事件在形式神经网络中的表述。现在来看M—P 模型尽管过于简单,而且其观点也并非完全正确,但是其理论有一定的贡献。因此,M—P模型被认为开创了神经科学理论研究的新时代。1949年,心理学家D.0.Hebb 提出了神经元之间突触联系强度可变的假设,并据此提出神经元的学习规则——Hebb规则,为神经网络的学习算法奠定了基础。1957年,计算机学家FrankRosenblatt提出了一种具有三层网络特性的神经网络结构,称为“感知器”(Perceptron),它是由阈值性神经元组成,试图模拟动物和人脑的感知学习能力,Rosenblatt认为信息被包含在相互连接或联合之中,而不是反映在拓扑结构的表示法中;另外,对于如何存储影响认知和行为的信息问题,他认为,存储的信息在神经网络系统内开始形成新的连接或传递链路后,新 的刺激将会通过这些新建立的链路自动地激活适当的响应部分,而不是要求任何识别或坚定他们的过程。1962年Widrow提出了自适应线性元件(Ada—line),它是连续取值的线性网络,主要用于自适应信号处理和自适应控制。 低潮期 人工智能的创始人之一Minkey和pape~经过数年研究,对以感知器为代表的网络系统的功能及其局限性从数学上做了深入的研究,于1969年出版了很有影响的《Perceptron)一书,该书提出了感知器不可能实现复杂的逻辑函数,这对当时的人工神经网络研究产生了极大的负面影响,从而使神经网络研究处于低潮时期。引起低潮的更重要的原因是:20世纪7O年代以来集成电路和微电子技术的迅猛发展,使传统的冯·诺伊曼型计算机进入发展的全盛时期,因此暂时掩盖了发展新型计算机和寻求新的神经网络的必要性和迫切性。但是在此时期,波士顿大学的S.Grossberg教授和赫尔辛基大学的Koho—nen教授,仍致力于神经网络的研究,分别提出了自适应共振理论(Adaptive Resonance Theory)和自组织特征映射模型(SOM)。以上开创性的研究成果和工作虽然未能引起当时人们的普遍重视,但其科学价值却不可磨灭,它们为神经网络的进一步发展奠定了基础。 复兴时期 20世纪80年代以来,由于以逻辑推理为基础的人工智能理论和冯·诺伊曼型计算机在处理诸如视觉、听觉、联想记忆等智能信息处理问题上受到挫折,促使人们

大学毕业论文---软件专业外文文献中英文翻译

软件专业毕业论文外文文献中英文翻译 Object landscapes and lifetimes Tech nically, OOP is just about abstract data typing, in herita nee, and polymorphism, but other issues can be at least as importa nt. The rema in der of this sect ion will cover these issues. One of the most importa nt factors is the way objects are created and destroyed. Where is the data for an object and how is the lifetime of the object con trolled? There are differe nt philosophies at work here. C++ takes the approach that con trol of efficie ncy is the most importa nt issue, so it gives the programmer a choice. For maximum run-time speed, the storage and lifetime can be determined while the program is being written, by placing the objects on the stack (these are sometimes called automatic or scoped variables) or in the static storage area. This places a priority on the speed of storage allocatio n and release, and con trol of these can be very valuable in some situati ons. However, you sacrifice flexibility because you must know the exact qua ntity, lifetime, and type of objects while you're writing the program. If you are trying to solve a more general problem such as computer-aided desig n, warehouse man ageme nt, or air-traffic con trol, this is too restrictive. The sec ond approach is to create objects dyn amically in a pool of memory called the heap. In this approach, you don't know un til run-time how many objects you n eed, what their lifetime is, or what their exact type is. Those are determined at the spur of the moment while the program is runnin g. If you n eed a new object, you simply make it on the heap at the point that you n eed it. Because the storage is man aged dyn amically, at run-time, the amount of time required to allocate storage on the heap is sig ni fica ntly Ion ger tha n the time to create storage on the stack. (Creat ing storage on the stack is ofte n a si ngle assembly in structio n to move the stack poin ter dow n, and ano ther to move it back up.) The dyn amic approach makes the gen erally logical assumpti on that objects tend to be complicated, so the extra overhead of finding storage and releas ing that storage will not have an importa nt impact on the creati on of an object .In additi on, the greater flexibility is esse ntial to solve the gen eral program ming problem. Java uses the sec ond approach, exclusive". Every time you want to create an object, you use the new keyword to build a dyn amic in sta nee of that object. There's ano ther issue, however, and that's the lifetime of an object. With Ian guages that allow objects to be created on the stack, the compiler determines how long the object lasts and can automatically destroy it. However, if you create it on the heap the compiler has no kno wledge of its lifetime. In a Ianguage like C++, you must determine programmatically when to destroy the

外文翻译---人工神经网络

英文文献 英文资料: Artificial neural networks (ANNs) to ArtificialNeuralNetworks, abbreviations also referred to as the neural network (NNs) or called connection model (ConnectionistModel), it is a kind of model animals neural network behavior characteristic, distributed parallel information processing algorithm mathematical model. This network rely on the complexity of the system, through the adjustment of mutual connection between nodes internal relations, so as to achieve the purpose of processing information. Artificial neural network has since learning and adaptive ability, can provide in advance of a batch of through mutual correspond of the input/output data, analyze master the law of potential between, according to the final rule, with a new input data to calculate, this study analyzed the output of the process is called the "training". Artificial neural network is made of a number of nonlinear interconnected processing unit, adaptive information processing system. It is in the modern neuroscience research results is proposed on the basis of, trying to simulate brain neural network processing, memory information way information processing. Artificial neural network has four basic characteristics: (1) the nonlinear relationship is the nature of the nonlinear common characteristics. The wisdom of the brain is a kind of non-linear phenomena. Artificial neurons in the activation or inhibit the two different state, this kind of behavior in mathematics performance for a nonlinear relationship. Has the threshold of neurons in the network formed by the has better properties, can improve the fault tolerance and storage capacity. (2) the limitations a neural network by DuoGe neurons widely usually connected to. A system of the overall behavior depends not only on the characteristics of single neurons, and may mainly by the unit the interaction between the, connected to the. Through a large number of connection between units simulation of the brain limitations. Associative memory is a typical example of limitations. (3) very qualitative artificial neural network is adaptive, self-organizing, learning ability. Neural network not only handling information can have all sorts of change, and in the treatment of the information at the same time, the nonlinear dynamic system itself is changing. Often by iterative process description of the power system evolution. (4) the convexity a system evolution direction, in certain conditions will depend on a particular state function. For example energy function, it is corresponding to the extreme value of the system stable state. The convexity refers to the function extreme value, it has DuoGe DuoGe system has a stable equilibrium state, this will cause the system to the diversity of evolution. Artificial neural network, the unit can mean different neurons process of the object, such as characteristics, letters, concept, or some meaningful abstract model. The type of network processing unit is divided into three categories: input unit, output unit and hidden units. Input unit accept outside the world of signal and data; Output unit of output system processing results; Hidden unit is in input and output unit, not between by external observation unit. The system The connections between neurons right value reflect the connection between the unit strength, information processing and embodied in the network said the processing unit in the connections. Artificial neural network is a kind of the procedures, and adaptability, brain style of information processing, its essence is through the network of transformation and dynamic behaviors have a

相关文档
最新文档