数学建模bp神经网络讲解学习
BP神经网络详解-最好的版本课件(1)

月份 1
销量 月份 销量
2056 7
1873
2
2395 8
1478
3
2600 9
1900
4
2298 10
1500
5
1634 11
2046
6
1600 12
1556
BP神经网络学习算法的MATLAB实现
➢%以每三个月的销售量经归一化处理后作为输入
P=[0.5152
0.8173 1.0000 ;
0.8173
计算误差函数对输出层的各神经元的偏导
数
。 o ( k )
p
e e yio w ho y io w ho
(
yio(k) h who
whohoh(k)bo)
who
hoh(k)
e
yio
(12oq1(do(k)yoo(k)))2 yio
(do(k)yoo(k))yoo(k)
(do(k)yoo(k))f(yio(k)) o(k)
1.0000 0.7308;
1.0000
0.7308 0.1390;
0.7308
0.1390 0.1087;
0.1390
0.1087 0.3520;
0.1087
0.3520 0.0000;]';
➢%以第四个月的销售量归一化处理后作为目标向量
T=[0.7308 0.1390 0.1087 0.3520 0.0000 0.3761];
BP神经网络模型
三层BP网络
输入层 x1
x2
隐含层
输出层
-
y1
z1
1
T1
y2
z2
-
2
BP神经网络及简单示例ppt课件

1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
-10 -8 -6 -4 -2
0
2
4
6
8 10
.
newff
常用函数
创建一个BP网络,其调用格式为:
net=newff
net=newff(PR,[S1 S2 …SN1],{TF1 TF2…TFN1},BTF,BLF,PF)
输入层
i
中间层 j
输出层
k
xi
ji .
kj
n
p
V kf( (f( (xiji))k)j)0或 1
j1
i1
输入层
i
中间层 j
输出层
k
xi
ji
kj
2、通过已知样本训练出合适的权值 ji、kj
使输出为(0,1)或(1,0)。
3、将待区分的蠓虫数据输入网络,求值。 .
权值求法:向后传播法
理想输出 Af类(1,0),Apf类(0,1)记为 { Tis}
.
应用范围
医学:疾病识别
图像:识别、去噪、增强、配准、 融合
金融:股票和有价证券的预测分 析、资本收益的预测和分析、风 险管理、信用评估等等
.
神经网络结构图
输入层
中间层
输出层
.
生物神经元结构:
树突
细胞体
细胞核
轴突
.
突触 神经末梢
神经元结构模型
x1
x2
x3
xj
ij
BP神经网络概述

BP神经网络概述BP神经网络由输入层、隐藏层和输出层组成。
输入层接收外界输入的数据,隐藏层对输入层的信息进行处理和转化,输出层输出最终的结果。
网络的每一个节点称为神经元,神经元之间的连接具有不同的权值,通过权值的调整和激活函数的作用,网络可以学习到输入和输出之间的关系。
BP神经网络的学习过程主要包括前向传播和反向传播两个阶段。
前向传播时,输入数据通过输入层向前传递到隐藏层和输出层,计算出网络的输出结果;然后通过与实际结果比较,计算误差函数。
反向传播时,根据误差函数,从输出层开始逆向调整权值和偏置,通过梯度下降算法更新权值,使得误差最小化,从而实现网络的学习和调整。
BP神经网络通过多次迭代学习,不断调整权值和偏置,逐渐提高网络的性能。
学习率是调整权值和偏置的重要参数,过大或过小的学习率都会导致学习过程不稳定。
此外,网络的结构、激活函数的选择、错误函数的定义等也会影响网络的学习效果。
BP神经网络在各个领域都有广泛的应用。
在模式识别中,BP神经网络可以从大量的样本中学习特征,实现目标检测、人脸识别、手写识别等任务。
在数据挖掘中,BP神经网络可以通过对历史数据的学习,预测未来的趋势和模式,用于市场预测、股票分析等。
在预测分析中,BP神经网络可以根据历史数据,预测未来的房价、气温、销售额等。
综上所述,BP神经网络是一种强大的人工神经网络模型,具有非线性逼近能力和学习能力,广泛应用于模式识别、数据挖掘、预测分析等领域。
尽管有一些缺点,但随着技术的发展,BP神经网络仍然是一种非常有潜力和应用价值的模型。
BP神经网络学习及算法

BP神经网络学习及算法1.前向传播:在BP神经网络中,前向传播用于将输入数据从输入层传递到输出层,其中包括两个主要步骤:输入层到隐藏层的传播和隐藏层到输出层的传播。
(1)输入层到隐藏层的传播:首先,输入数据通过输入层的神经元进行传递。
每个输入层神经元都与隐藏层神经元连接,并且每个连接都有一个对应的权值。
输入数据乘以对应的权值,并通过激活函数进行处理,得到隐藏层神经元的输出。
(2)隐藏层到输出层的传播:隐藏层的输出被传递到输出层的神经元。
同样,每个隐藏层神经元与输出层神经元连接,并有对应的权值。
隐藏层输出乘以对应的权值,并通过激活函数处理,得到输出层神经元的输出。
2.反向传播:在前向传播后,可以计算出网络的输出值。
接下来,需要计算输出和期望输出之间的误差,并将误差通过反向传播的方式传递回隐藏层和输入层,以更新权值。
(1)计算误差:使用误差函数(通常为均方差函数)计算网络输出与期望输出之间的误差。
误差函数的具体形式根据问题的特点而定。
(2)反向传播误差:从输出层开始,将误差通过反向传播的方式传递回隐藏层和输入层。
首先,计算输出层神经元的误差,然后将误差按照权值比例分配给连接到该神经元的隐藏层神经元,并计算隐藏层神经元的误差。
依此类推,直到计算出输入层神经元的误差。
(3)更新权值:利用误差和学习率来更新网络中的权值。
通过梯度下降法,沿着误差最速下降的方向对权值和阈值进行更新。
权值的更新公式为:Δwij = ηδjxi,其中η为学习率,δj为神经元的误差,xi为连接该神经元的输入。
以上就是BP神经网络的学习算法。
在实际应用中,还需要考虑一些其他的优化方法和技巧,比如动量法、自适应学习率和正则化等,以提高网络的性能和稳定性。
此外,BP神经网络也存在一些问题,比如容易陷入局部极小值、收敛速度慢等,这些问题需要根据实际情况进行调优和改进。
BP神经网络的基本原理_一看就懂

BP神经网络的基本原理_一看就懂BP神经网络(Back Propagation Neural Network)是一种常用的人工神经网络模型,用于解决分类、回归和模式识别问题。
它的基本原理是通过反向传播算法来训练和调整网络中的权重和偏置,以使网络能够逐渐逼近目标输出。
1.前向传播:在训练之前,需要对网络进行初始化,包括随机初始化权重和偏置。
输入数据通过输入层传递到隐藏层,在隐藏层中进行线性加权和非线性激活运算,然后传递给输出层。
线性加权运算指的是将输入数据与对应的权重相乘,然后将结果进行求和。
非线性激活指的是对线性加权和的结果应用一个激活函数,常见的激活函数有sigmoid函数、ReLU函数等。
激活函数的作用是将线性运算的结果映射到一个非线性的范围内,增加模型的非线性表达能力。
2.计算损失:将网络输出的结果与真实值进行比较,计算损失函数。
常用的损失函数有均方误差(Mean Squared Error)和交叉熵(Cross Entropy)等,用于衡量模型的输出与真实值之间的差异程度。
3.反向传播:通过反向传播算法,将损失函数的梯度从输出层传播回隐藏层和输入层,以便调整网络的权重和偏置。
反向传播算法的核心思想是使用链式法则。
首先计算输出层的梯度,即损失函数对输出层输出的导数。
然后将该梯度传递回隐藏层,更新隐藏层的权重和偏置。
接着继续向输入层传播,直到更新输入层的权重和偏置。
在传播过程中,需要选择一个优化算法来更新网络参数,常用的优化算法有梯度下降(Gradient Descent)和随机梯度下降(Stochastic Gradient Descent)等。
4.权重和偏置更新:根据反向传播计算得到的梯度,使用优化算法更新网络中的权重和偏置,逐步减小损失函数的值。
权重的更新通常按照以下公式进行:新权重=旧权重-学习率×梯度其中,学习率是一个超参数,控制更新的步长大小。
梯度是损失函数对权重的导数,表示了损失函数关于权重的变化率。
bp神经网络

BP神经网络框架BP(Back Propagation)网络是1986年由Rumelhart和McCelland为首的科学家小组提出,是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。
BP网络能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。
它的学习规则是使用最速下降法,通过反向传播来不断调整网络的权值和阈值,使网络的误差平方和最小。
BP神经网络模型拓扑结构包括输入层(input)、隐层(hide layer)和输出层(output layer)。
1BP神经网络基本原理BP神经网络的基本原理可以分为如下几个步骤:(1)输入信号Xi→中间节点(隐层点)→输出节点→输出信号Yk;(2)网络训练的每个样本包括输入向量X和期望输出量t,网络输出值Y 和期望输出值t之间的偏差。
(3)通过调整输入节点与隐层节点的联接强度取值Wij和隐层节点与输出节点之间的联接强度取值Tjk,以及阈值,使误差沿梯度方向下降。
(4)经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练到此停止。
(5)经过上述训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线性转换的信息。
2BP神经网络涉及的主要模型和函数BP神经网络模型包括输入输出模型、作用函数模型、误差计算模型和自学习模型。
输出模型又分为:隐节点输出模型和输出节点输出模型。
下面将逐个介绍。
(1)作用函数模型作用函数模型,又称刺激函数,反映下层输入对上层节点刺激脉冲强度的函数。
一般取(0,1)内的连续取值函数Sigmoid函数:f x=11+e^(−x)(2)误差计算模型误差计算模型反映神经网络期望输出与计算输出之间误差大小的函数:Ep=12(tpi−Opi)2其中,tpi为i节点的期望输出值;Opi为i节点的计算输出值。
(3)自学习模型自学习模型是连接下层节点和上层节点之间的权重矩阵Wij的设定和修正过程。
BP神经网络

BP神经⽹络2013参考数学建模常⽤⽅法:数学建模常⽤⽅法系列资料由圣才⼤学⽣数学建模竞赛⽹整理收集。
希望能对您有所帮助!BP神经⽹络⽅法摘要⼈⼯神经⽹络是⼀种新的数学建模⽅式,它具有通过学习逼近任意⾮线性映射的能⼒。
本⽂提出了⼀种基于动态BP神经⽹络的预测⽅法,阐述了其基本原理,并以典型实例验证。
关键字神经⽹络,BP模型,预测1 引⾔在系统建模、辨识和预测中,对于线性系统,在频域,传递函数矩阵可以很好地表达系统的⿊箱式输⼊输出模型;在时域,Box-Jenkins⽅法、回归分析⽅法、ARMA模型等,通过各种参数估计⽅法也可以给出描述。
对于⾮线性时间序列预测系统,双线性模型、门限⾃回归模型、ARCH模型都需要在对数据的内在规律知道不多的情况下对序列间关系进⾏假定。
可以说传统的⾮线性系统预测,在理论研究和实际应⽤⽅⾯,都存在极⼤的困难。
相⽐之下,神经⽹络可以在不了解输⼊或输出变量间关系的前提下完成⾮线性建模[4,6]。
神经元、神经⽹络都有⾮线性、⾮局域性、⾮定常性、⾮凸性和混沌等特性,与各种预测⽅法有机结合具有很好的发展前景,也给预测系统带来了新的⽅向与突破。
建模算法和预测系统的稳定性、动态性等研究成为当今热点问题。
⽬前在系统建模与预测中,应⽤最多的是静态的多层前向神经⽹络,这主要是因为这种⽹络具有通过学习逼近任意⾮线性映射的能⼒。
利⽤静态的多层前向神经⽹络建⽴系统的输⼊/输出模型,本质上就是基于⽹络逼近能⼒,通过学习获知系统差分⽅程中的⾮线性函数。
但在实际应⽤中,需要建模和预测的多为⾮线性动态系统,利⽤静态的多层前向神经⽹络必须事先给定模型的阶次,即预先确定系统的模型,这⼀点⾮常难做到。
近来,有关基于动态⽹络的建模和预测的研究,代表了神经⽹络建模和预测新的发展⽅向。
2BP神经⽹络模型BP⽹络是采⽤Widrow-Hoff学习算法和⾮线性可微转移函数的多层⽹络。
典型的BP 算法采⽤梯度下降法,也就是Widrow-Hoff算法。
BP神经网络算法

BP神经网络算法BP神经网络算法(BackPropagation Neural Network)是一种基于梯度下降法训练的人工神经网络模型,广泛应用于分类、回归和模式识别等领域。
它通过多个神经元之间的连接和权重来模拟真实神经系统中的信息传递过程,从而实现复杂的非线性函数拟合和预测。
BP神经网络由输入层、隐含层和输出层组成,其中输入层接受外部输入的特征向量,隐含层负责进行特征的抽取和转换,输出层产生最终的预测结果。
每个神经元都与上一层的所有神经元相连,且每个连接都有一个权重,通过不断调整权重来优化神经网络的性能。
BP神经网络的训练过程主要包括前向传播和反向传播两个阶段。
在前向传播中,通过输入层将特征向量引入网络,逐层计算每个神经元的输出值,直至得到输出层的预测结果。
在反向传播中,通过计算输出层的误差,逐层地反向传播误差信号,并根据误差信号调整每个连接的权重值。
具体来说,在前向传播过程中,每个神经元的输出可以通过激活函数来计算。
常见的激活函数包括Sigmoid函数、ReLU函数等,用于引入非线性因素,增加模型的表达能力。
然后,根据权重和输入信号的乘积来计算每个神经元的加权和,并通过激活函数将其转化为输出。
在反向传播过程中,首先需要计算输出层的误差。
一般采用均方差损失函数,通过计算预测值与真实值之间的差异来衡量模型的性能。
然后,根据误差信号逐层传播,通过链式法则来计算每个神经元的局部梯度。
最后,根据梯度下降法则,更新每个连接的权重值,以减小误差并提高模型的拟合能力。
总结来说,BP神经网络算法是一种通过多层神经元之间的连接和权重来模拟信息传递的人工神经网络模型。
通过前向传播和反向传播两个阶段,通过不断调整权重来训练模型,并通过激活函数引入非线性因素。
BP 神经网络算法在分类、回归和模式识别等领域具有广泛的应用前景。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
数学建模B P神经网络论文BP 神经网络算法原理:输入信号i x 通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号k y ,网络训练的每个样本包括输入向量x 和期望输出量d ,网络输出值y 与期望输出值d 之间的偏差,通过调整输入节点与隐层节点的联接强度取值ij w 和隐层节点与输出节点之间的联接强度jk T 以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。
此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。
变量定义:设输入层有n 个神经元,隐含层有p 个神经元,输出层有q 个神经元 输入向量:()12,,,n x x x x =隐含层输入向量:()12,,,p hi hi hi hi = 隐含层输出向量:()12,,,p ho ho ho ho = 输出层输入向量:()12,,,q yi yi yi yi = 输出层输出向量:()12,,,q yo yo yo yo =期望输出向量: ()12,,,q do d d d =输入层与中间层的连接权值: ih w 隐含层与输出层的连接权值: ho w 隐含层各神经元的阈值:h b 输出层各神经元的阈值: o b 样本数据个数: 1,2,k m =激活函数: ()f ⋅误差函数:211(()())2qo o o e d k yo k ==-∑算法步骤:Step1.网络初始化 。
给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e ,给定计算精度值ε和最大学习次数M 。
Step2.随机选取第k 个输入样本()12()(),(),,()n x k x k x k x k =及对应期望输出()12()(),(),,()q d k d k d k d k =oStep3.计算隐含层各神经元的输入()1()()1,2,,nh ih i h i hi k w x k b h p ==-=∑和输出()()(())1,2,,h h ho k f hi k h p ==及输出层各神经元的输入()1()()1,2,po ho h o h yi k w ho k b o q ==-=∑和输出()()(())1,2,,o o yo k f yi k o p ==Step4.利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数()o k δ。
oho o hoyi e e w yi w ∂∂∂=∂∂∂ (())()()pho h o o hh hohow ho k b yi k ho k w w ∂-∂==∂∂∑211((()()))2(()())()(()())f (())()qo o o o o oo oo o o o d k yo k e d k yo k yo k yi yi d k yo k yi k k δ=∂-∂'==--∂∂'=---∑ Step5.利用隐含层到输出层的连接权值、输出层的()o k δ和隐含层的输出计算误差函数对隐含层各神经元的偏导数()h k δ。
()()oo h ho o hoyi e e k ho k w yi w δ∂∂∂==-∂∂∂ 1()()(())()()h ih h ih nih i h h i i ihihhi k e e w hi k w w x k b hi k x k w w =∂∂∂=∂∂∂∂-∂==∂∂∑212121111((()()))()2()()()1((()f(())))()2()()1(((()f(())))()2()()(()())f (())qo o o h h h h qo o o h h h qpo ho h o o h h h h o o o hoo d k yo k ho k e hi k ho k hi k d k yi k ho k ho k hi k d k w ho k b ho k ho k hi k d k yo k yi k w =====∂-∂∂=∂∂∂∂-∂=∂∂∂--∂=∂∂'=--∑∑∑∑1()()(())f (())()qh h qo ho h h o ho k hi k k w hi k k δδ=∂∂'=--∑∑ Step6.利用输出层各神经元的()o k δ和隐含层各神经元的输出来修正连接权值()ho w k 。
1()()()()()ho o h ho N Nho ho o h ew k k ho k w w w k ho k μμδηδ+∂∆=-=∂=+Step7.利用隐含层各神经元的()h k δ和输入层各神经元的输入修正连接权()ih w k 。
1()()()()()()()h ih h i ih h ih N Nih ih h i hi k e e w k k x k w hi k w w w k x k μμδηδ+∂∂∂∆=-=-=∂∂∂=+Step8.计算全局误差。
2111(()())2qm o o k o E d k y k m ===-∑∑Step9.判断网络误差是否满足要求。
当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。
否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。
算法流程图:参数确定:确定了网络层数、每层节点数、传递函数、初始权系数、学习算法等也就确定了BP网络。
确定这些选项时有一定的指导原则,但更多的是靠经验和试凑。
1. 样本数据采用BP 神经网络方法建模的首要和前提条件是有足够多典型性好和精度高的样本。
而且,为监控训练(学习)过程使之不发生“过拟合”和评价建立的网络模型的性能和泛化能力,必须将收集到的数据随机分成训练样本、检验样本(10%以上)和测试样本(10%以上)3部分。
2.输入/输出变量一般地,BP 网络的输入变量即为待分析系统的内生变量(影响因子或自变量)数,一般根据专业知识确定。
若输入变量较多,一般可通过主成份分析方法压减输入变量,也可根据剔除某一变量引起的系统误差与原系统误差的比值的大小来压减输入变量。
输出变量即为系统待分析的外生变量(系统性能指标或因变量),可以是一个,也可以是多个。
一般将一个具有多个输出的网络模型转化为多个具有一个输出的网络模型效果会更好,训练也更方便。
3.数据的预处理由于BP 神经网络的隐层一般采用Sigmoid 转换函数,为提高训练速度和灵敏性以及有效避开Sigmoid 函数的饱和区,一般要求输入数据的值在0~1之间。
因此,要对输入数据进行预处理。
一般要求对不同变量分别进行预处理,也可以对类似性质的变量进行统一的预处理。
如果输出层节点也采用Sigmoid 转换函数,输出变量也必须作相应的预处理,否则,输出变量也可以不做预处理。
但必须注意的是,预处理的数据训练完成后,网络输出的结果要进行反变换才能得到实际值。
再者,为保证建立的模型具有一定的外推能力,最好使数据预处理后的值在0.2~0.8之间。
标准化:minmax mind d d d d αβ-'=⨯+-4.隐层数一般认为,增加隐层数可以降低网络误差,提高精度,但也使网络复杂化,从而增加了网络的训练时间和出现“过拟合(overfitting)” 造成网络的性能脆弱,泛化能力(generalization ability)下降。
Hornik 等早已证明:若输入层和输出层采用线性转换函数,隐层采用Sigmoid 转换函数,则含一个隐层的MLP 网络能够以任意精度逼近任何有理函数。
显然,这是一个存在性结论。
在设计BP 网络时可参考这一点,应优先考虑3层BP 网络(即有1个隐层)。
图 三层BP 网络的拓扑结构5.隐层节点数在BP 网络中,若隐层节点数太少,网络可能根本不能训练或网络性能很差;若隐层节点数太多,虽然可使网络的系统误差减小,但一方面使网络训练时间延长,另一方面,训练容易陷入局部极小点而得不到最优点,也是训练时出现“过拟合”的内在原因,但是目前理论上还没有一种科学的和普遍的确定方法。
为尽可能避免训练时出现“过拟合”现象,保证足够高的网络性能和泛化能力,确定隐层节点数的最基本原则是:在满足精度要求的前提下取尽可能紧凑的结构,即取尽可能少的1x 2x 1Nx隐层节点数。
因此,合理隐层节点数应在综合考虑网络结构复杂程度和误差大小的情况下用节点删除法和扩张法确定。
6.传递函数图BP网络常用的传递函数BP网络的传递函数有多种。
Log-sigmoid型函数的输入值可取任意值,输出值在0和1之间;tan-sigmod型传递函数tansig的输入值可取任意值,输出值在-1到+1之间;线性传递函数purelin的输入与输出值可取任意值。
BP网络通常有一个或多个隐层,该层中的神经元均采用sigmoid型传递函数,输出层的神经元则采用线性传递函数,整个网络的输出可以取任意值。
7.学习率学习率影响系统学习过程的稳定性。
大的学习率可能使网络权值每一次的修正量过大,甚至会导致权值在修正过程中超出某个误差的极小值呈不规则跳跃而不收敛;但过小的学习率导致学习时间过长,不过能保证收敛于某个极小值。
所以,一般倾向选取较小的学习率以保证学习过程的收敛性(稳定性),通常在0.01~0.8之间。
8.网络的初始连接权值BP算法决定了误差函数一般存在(很)多个局部极小点,不同的网络初始权值直接决定了BP算法收敛于哪个局部极小点或是全局极小点。
因此,要求计算程序必须能够自由改变网络初始连接权值。
由于Sigmoid转换函数的特性,一般要求初始权值分布在-0.5~0.5之间比较有效。
10.收敛误差界值Emin在网络训练过程中应根据实际情况预先确定误差界值。
误差界值的选择完全根据网络模型的收敛速度大小和具体样本的学习精度来确定。
当Emin 值选择较小时,学习效果好,但收敛速度慢,训练次数增加。
如果Emin值取得较大时则相反。
网络模型的性能和泛化能力:训练神经网络的首要和根本任务是确保训练好的网络模型对非训练样本具有好的泛化能力(推广性),即有效逼近样本蕴含的内在规律,而不是看网络模型对训练样本的拟合能力。
判断建立的模型是否已有效逼近样本所蕴含的规律, 主要不是看测试样本误差大小的本身,而是要看测试样本的误差是否接近于训练样本和检验样本的误差。
非训练样本误差很接近训练样本误差或比其小,一般可认为建立的网络模型已有效逼近训练样本所蕴含的规律,否则,若相差很多(如几倍、几十倍甚至上千倍)就说明建立的网络模型并没有有效逼近训练样本所蕴含的规律,而只是在这些训练样本点上逼近而已,而建立的网络模型是对训练样本所蕴含规律的错误反映。
算法的特点:1.非线性映照能力。