标准BP算法及改进的BP算法

合集下载

基本 BP 神经网络算法改进研究

基本 BP 神经网络算法改进研究
A r t i f i c i a l I n t e l l i g e n c e・ 人工智能
基本 E I P神经 网络算法 改进研 究
文/ 顾润龙
键词】B P 神经 网络 算 法 改进
随着 科学 技 术的 飞速 发展 ,人 工神 经 网 I 得 到了迅速 的发展 ,它成 为了智能领域 中 [ 要 组成部分之一 ,现 已被应 用到多个领域 t B P神经 网络算 法模型 是人 工神经 网络 卜 _ ‘ 个典型算法 ,它具有 较强的非线性映射 f ,对 解决一些非线性 问题 具有重要作用 , 它 的网络拓扑结构较为 简单 ,还具有较高 搓 精度 以及较强的可操作性 。
收 敛 速 度 过慢
在标 准 B P网络学 习的过程 中,其学 习速 : 敛 的速度 较慢 ,这种 情况容易导 致 B P算 l 出现一个 持续时间较长的输 出误差平 台。
不 能确 保 收 敛 的 最 优 结 果
标准 B P网络算法是 一个针对数值 优化 的 } 性 优化问题 ,它不可避免 的也会存在局部 、 值 的问题 。BP网络会 沿着一 个局部 的方 改善 极值 ,然后希望使 输出的误差函数 、 化 的一组全局解 ,但通常得 不到这一组全 l 二 是得 到一个局部 的极小值 ,不能达到使 I 的误差 函数最小化的 目的 。
具 有 一 定 的 不稳 定 性
标 准的 B P算法具有 一定的不稳 定性 ,这 P网络 与人 脑 的主 要 区别 之一 ,BP在 完 练进入 新的学习模式 时,其 训练好的连接 数就 会被打乱 ,导致训练好 的记 忆消失 , 的学 习模 式也会被打破 ,只 能学 习新的模 而 人在 学习新的知识 时,不 会对 原有记忆 太大 的影响 , 人 的大脑 系统是 比较稳定的。

标准BP算法及改进的BP算法标准BP算法及改进的BP算法应用(1)

标准BP算法及改进的BP算法标准BP算法及改进的BP算法应用(1)
➢ 网络的层数
➢ 隐含层神经元数
➢ 初始权值的选取 ➢ 学习速率 ➢ 期望误差的选取
22
2020/3/6
网络的层数
理论上已经证明:具有偏差和至少一个S型隐含层 加上一个线性输出层的网络,能够逼近任何有理函 数
定理:
增加层数主要可以进一步的降低误差,提高精度, 但同时也使网络复杂化,从而增加了网络权值的训 练时间。
%输入向量P和目标向量T
P = -1:0.1:1
T = [-0.96 -0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201 ];
4.3 BP学习算法
假设输入为P,输入神经元有r个,隐含层内有s1个神经 元,激活函数为F1,输出层内有s2个神经元,对应的激 活函数为F2,输出为A,目标矢量为T
12
2020/3/6
4.3 BP学习算法
信息的正向传递
隐含层中第i个神经元的输出
输出层第k个神经元的输出
定义误差函数
13
4.4.2应用举例
1、用BP神经网络实现两类模式分类 p=[1 -1 -2 -4;2 1 1 0]; t=[0 1 1 0]; %创建BP网络和定义训练函数及参数 NodeNum=8;%隐含层节点数 TypeNum=1;%输出维数 Epochs=1000;%训练次数 TF1='logsig'; TF2='logsig';
D1=deltatan(A1,D2,W2);
[dWl,dBl]=learnbp(P,D1,lr);

BP网络算法的问题及改进

BP网络算法的问题及改进

经验选取的。
4.对于新加入的样本, 要影响到已经学完的样本。
5.描 述 每 个 输 入 特 征 样 本 的 数 目 要 求 必 须 相 同 。
( 二) 改进 BP 算法
1.改进算法描述 为了克服传统 BP 算法收敛速度慢且容易陷入
局部极小的问题, 我们对标准 BP 算法进行了改进。改进主要有两点:
(1) 自适应学习率 学习速率 & 的选择很重要, & 大则收敛快, 但
果当前的误差梯度修正方向正确, 就增大学习率, 加入动量项; 否则减
小学习率, 甩掉动量项, 从而使学习速度加快, 效率有较大提高。
3.改进算法流程图 改进 BP 算法的流程图如图 1 所示。
图 3 改进学习率 BP 算法误差曲线图 Figure 4- 3 Improve d le a rn ra te a rithme tic e rror curve
当△E<0; &=&
(5- 5)
当△E<0; &=0
(5- 6)
其中△E=E(t)- E(t- 1)
(5- 7)
2.改进之处 与 BP 算法相比, 本算法有两点改进:
(1)降低权值修改频率, 使权 值 沿 总 体 误 差 最 小 的 方 向 调 整 , 使 总
误差收敛的速度加快。
(2)根据情况确定学习速率, 即让学习速率 ! 和 动 量 项 & 可 变 , 如
类, 在实际应用中也取得了较好的效果, 但它仍存在着以下问题:
1.学 习 算 法 的 收 敛 速 度 很 慢 。
2.局部极小: 从数学角度看, BP 网络的学习 过 程 使 用 的 是 最 速 下
降梯度法, 所以不可避免的会遇到优化过程中最常见的局部极小问

BP神经网络学习算法的改进及应用

BP神经网络学习算法的改进及应用
Ab t a t I r e o e e r h h a p ia in f t e sr c : n o d r t r s a c t e p l t o h BP e r l ewo k mp o e la n n ag r h c o n u a n t r i r v d e r i g lo i m fu p a t a p l a in t o r r ci l p i t s c a c o w r r i e y mp o e B e r l ewo k l a n n l o i m,a d h o g c mp i n te e e r i g lo i ms t o t i t e e e tan d b i r v d P n u a n t r e r i g a g r h t n t r u h o r i g h s la n n ag rt o b an h s h a a tt n c p o h m.T u , t e cu l y e o e e r h u sin e w r s e n p e iin t c o s a p o rae e r i g d p a i s o e f t e o h s h a t a t p f r s a c q e t ,n t o k i a d rc so o h o e p r p i t o z l an n ag rt m e e a c r e .T e e p r n a e u t s o d h t L lo i w r c o d d h h x ei me tl r s l h we t a M ag rt m a g o t e t e u cin p r xna in i t n t s lo i w s o d o b h f n t a p o ilt ,l o h o o n tr l r e s ae ewok ;Th c n eg n e p e f RP b ag - c l n t r s e o v r e c s e d o ROP l o i m w s f s h n i wa a p id at n r c g i o ,b t o ag r h t a at w e t s p l p t e o n t n u n l e m’ i

BP算法及BP改进算法

BP算法及BP改进算法

BP算法及BP改进算法BP算法通过不断调整网络的权重和偏置,以最小化网络输出与实际输出之间的误差。

算法包含两个主要步骤:前向传播和反向传播。

在前向传播阶段,输入信号通过神经网络的各个层,直至到达输出层。

每一层都对输入信号进行加权求和,并通过激活函数进行非线性映射,然后传递给下一层。

最终,网络将产生一个预测输出。

在反向传播阶段,算法计算输出误差,并根据该误差调整网络权重和偏置。

误差通过比较网络预测输出与实际输出之间的差异得到。

然后,误差从输出层向输入层反向传播,根据权重的贡献程度进行分配,并相应地更新权重和偏置。

尽管BP算法在训练神经网络方面非常成功,但也存在一些问题。

其中之一是局部极小值问题,即算法可能在梯度下降的过程中陷入一个局部最小值,并无法找到全局最小值。

为了解决这个问题,已经提出了一些BP的改进算法。

其中一种改进算法是Momentum算法。

Momentum算法在误差梯度的基础上引入了一个动量项,该项记录了前一次权重更新所带来的动量。

它可以帮助算法跳出局部最小值,并在梯度下降的过程中加速更新。

该算法通过在权重更新中添加当前梯度和上一次更新的动量的乘积,实现对网络优化的加速。

另一种改进算法是Adaptive Learning Rate算法。

传统的BP算法在每次权重更新中使用固定的学习率。

然而,不同的权重可能具有不同的学习速度要求。

Adaptive Learning Rate算法通过根据权重梯度的大小动态地调整学习率,以使网络能够更快地收敛。

还有一种改进算法是正则化算法,其中最常用的是L1和L2正则化。

正则化通过在误差函数中添加一个惩罚项,以限制权重的大小。

这有助于防止过拟合现象的发生,并提高网络的泛化能力。

除了这些改进算法,还有许多其他的技术被用于改进BP算法。

例如,一些算法结合了遗传算法和BP算法,以从初始权重的随机样本中找到最佳的。

还有一些算法,如RPROP和QuickProp,通过引入自适应的权重更新规则来加速训练过程。

BP算法及其优缺点

BP算法及其优缺点
▪ 作用:
▪ 动量项反映了以前积累的调整经验,对于t时刻的调整 起阻尼作用。
▪ 当误差曲面出现骤然起伏时,可减小振荡趋势,提高 训练速度。
改进2:自适应调节学习率
▪ 提出的原因:
▪ 标准BP算法中,学习率η也称为步长,确定一个从始 至终都合适的最佳学习率很难。
▪ 平坦区域内,η太小会使训练次数增加; ▪ 在误差变化剧烈的区域,η太大会因调整量过大而跨
p< P? N
E < E m in Y
结束
BP算法的程序实现
另一种方法是在所有样本输 入之后,计算网络的总误差:
Pl
E总
1 2
(dkp okp)2
p1k1
然后根据总误差计算各层的误差 信号并调整权值。
初 始 化 V、 W 计 数 器 q= 1, p= 1
输入第一对样本
计算各层输出
计算误差:
E
有效,且=θ (θ>1 )。
改进3: 引入陡度因子
▪ 提出的原因:
▪ 误差曲面上存在着平坦区域。 ▪ 权值调整进入平坦区的原因是神经元输出进入了转移
函数的饱和区。
▪ 基本思想:
▪ 如果在调整进入平坦区后,设法压缩神经元的净输入, 使其输出退出转移函数的不饱和区,就可以改变误差 函数的形状,从而使调整脱离平坦区。
XC=(111100111)T XI=(111100111)T XT=(111100111)T
(2)曲线输入

、 训
x(t)

xn






x1
012345
t n
Xp(x1 p,x2 p,.x .ip .,,.x .n p .)T , p=1,2,…,P

BP神经网络算法

BP神经网络算法
1


一、BP神经网络算法概述
二、BP神经网络算法原理
三、BP神经网络算法特点及改进
2
一.BP神经网络算法概述
BP神经网络(Back-Propagation Neural Network),即误差
后向传播神经网络,是一种按误差逆向传播算法训练的多层前馈网
络,是目前应用最广泛的网络模型之一。
11
二.BP神经网络算法原理
图5 Tan-Sigmoid函数在(-4,4)范围内的函数曲线
12
二.BP神经网络算法原理
激活函数性质:
① 非线性
② 可导性:神经网络的优化是基于梯度的,求解梯度需要确保函
数可导。
③ 单调性:激活函数是单调的,否则不能保证神经网络抽象的优
化问题转化为凸优化问题。
④ 输出范围有限:激活函数的输出值范围有限时,基于梯度的方

= 1 ෍
=1
7
,
= 1,2,3 … , q
二.BP神经网络算法原理
输出层节点的输出为:

j = 2 ෍ ,
= 1,2,3. . . ,
=1
至此,BP网络完成了n维空间向量对m维空间的近似映射。
图2 三层神经网络的拓扑结构
8
二.BP神经网络算法原理
BP神经网络是多层前馈型神经网络中的一种,属于人工神经网
络的一类,理论可以对任何一种非线性输入输出关系进行模仿,因
此 被 广 泛 应 用 在 分 类 识 别 ( classification ) 、 回 归
(regression)、压缩(compression)、逼近(fitting)等领域。
在工程应用中,大约80%的神经网络模型都选择采用BP神经网

BP算法的改进(可打印修改)

BP算法的改进附加动量法附加动量法使网络在修正其权值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响。

在没有附加动量的作用下,网络可能陷入浅的局部极小值,利用附加动量的作用有可能滑过这些极小值。

该方法是在反向传播法的基础上在每一个权值(或阈值)的变化上加上一项正比于前次权值(或阈值)变化量的值,并根据反向传播法来产生新的权值(或阈值)变化。

带有附加动量因子的权值和阈值调节公式为:其中k为训练次数,mc为动量因子,一般取0.95左右。

附加动量法的实质是将最后一次权值(或阈值)变化的影响,通过一个动量因子来传递。

当动量因子取值为零时,权值(或阈值)的变化仅是根据梯度下降法产生;当动量因子取值为1时,新的权值(或阈值)变化则是设置为最后一次权值(或阈值)的变化,而依梯度法产生的变化部分则被忽略掉了。

以此方式,当增加了动量项后,促使权值的调节向着误差曲面底部的平均方向变化,当网络权值进入误差曲面底部的平坦区时, i将变得很小,于是,从而防止了的出现,有助于使网络从误差曲面的局部极小值中跳出。

根据附加动量法的设计原则,当修正的权值在误差中导致太大的增长结果时,新的权值应被取消而不被采用,并使动量作用停止下来,以使网络不进入较大误差曲面;当新的误差变化率对其旧值超过一个事先设定的最大误差变化率时,也得取消所计算的权值变化。

其最大误差变化率可以是任何大于或等于1的值。

典型的取值取1.04。

所以,在进行附加动量法的训练程序设计时,必须加进条件判断以正确使用其权值修正公式。

训练程序设计中采用动量法的判断条件为:E(k)为第k步误差平方和。

V = net.iw{1,1}%输入层到中间层权值theta1 = net.b{1}%中间层各神经元阈值W = net.lw{2,1}%中间层到输出层权值theta2 = net.b{2}%输出层各神经元阈值。

BP方法的效率和可靠性分析

BP方法的效率和可靠性分析一、BP算法简介BP算法是一种神经网络训练算法,将输入数据传送至所有神经元,逐层进行计算,最终得到输出结果。

二、BP算法效率分析BP算法的运算量是非常大的,在大规模数据集上训练时,BP 算法的耗时远高于其他算法。

主要原因在于BP算法需要进行反向传播,这个过程需要逐层计算所有神经元的误差,然后再逐层反向传播,更新各层的连接权值。

当神经网络的层数增加时,这个复杂度会成指数级增加,导致算法的计算量非常大。

三、BP算法可靠性分析BP算法的可靠性非常高。

BP算法收敛性证明非常完备,发现数据集大小或者服务于隐藏层数和神经元数都不会对算法的收敛性产生影响。

BP算法可以处理非线性问题,并且通过选择正确的预处理器和激活函数,可以高度优化BP算法的性能。

四、BP算法的改进方法BP算法的效率和可靠性问题使得科学家们一直在探索BP算法的改进方法,以下是一些常见的BP算法改进方法:1. 随机梯度下降算法(SGD)SGD是一种随机最速下降法。

将数据集分为若干个子集,然后用每个子集的数据更新权重。

由于每个子集数据量较小,从而大大降低了算法的计算复杂度。

2. 稀疏性正则化算法(L1正则化)L1正则化是一种基于权重的正则化方法。

它通过在损失函数中增加L1约束,约束权重的大小,使得网络中的大部分权重是0。

从而降低了算法的计算复杂度。

3. 自适应学习率算法(Adaptive Learning Rate)Adaptive Learning Rate是一种自适应学习率方法。

它根据每个权重的梯度大小自适应地调整学习率,从而提高算法的收敛速度和精度。

4. Dropout算法Dropout是一种随机失活算法。

它随机地关闭一些神经元,从而减少了网络中的冗余连接,提高了算法的泛化性能。

五、结论BP算法是一种高效和可靠的神经网络训练算法,但由于它的计算复杂度很高,所以需要采用改进方法或者并行计算来提高算法的效率。

未来的研究方向可以探索更高效的BP算法,以应对大规模数据集的训练需求。

标准BP算法及改进的BP算法课件

流程 1. 初始化网络权重和偏置。
2. 计算网络的输出和误差。
动量项BP算法的流程和公式
01
3. 更新权重和偏置,同时考虑动 量项。
02
4. 重复执行步骤2和3,直到达到 预设的迭代次数或满足收敛条件 。
动量项BP算法的流程和公式
公式 1. 计算输出:`y = sigmoid(Wx + b)`
2. 计算误差:`E = d - y`
标准BP算法的优缺点
优点 适用于多类问题:标准BP算法可以解决回归和分类问题。
灵活性强:可以自由设计神经网络的架构和激活函数等元素。
标准BP算法的优缺点
• 自适应能力强:能够自适应地学习和调整权重和 偏置等参数。
标准BP算法的优缺点
01 02 03 04
缺点
易陷入局部最小值:标准BP算法使用梯度下降算法优化权重和偏置 ,可能会陷入局部最小值,导致无法获得全局最优解。
神经网络的基本元素
神经元是神经网络的基本元素,每个神经元接收输入信号,通过激 活函数进行非线性转换,并输出到其他神经元。
神经网络的结构
神经网络由输入层、隐藏层和输出层组成,每一层都包含若干个神 经元。
BP算法简介
BP算法的定义
BP算法是一种通过反向传播误差 来不断调整神经网络权重的训练
算法。
BP算法的原理
动量项BP算法的流程和公式
3. 更新权重:`W = W - α * E * x - β * ΔW`
ቤተ መጻሕፍቲ ባይዱ
4. 更新偏置:`b = b - α * E - β * Δb`
其中,α和β分别是学习率和动 量项系数,ΔW和Δb是上一次更
新的权重和偏置。
动量项BP算法的实例
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

自适应学习速率应用
P = -1:0.1:1 T = [-0.96 -0.577 -0.0729 0.377 0.641 0.66 [0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 0.2183 -0.3201 ]; [R,Q] = size(P); [S2,Q] = size(T); S1 = 5; [W1,B1] = rands(S1,R); [W2,B2] = rands(S2,S1);
10
2
Performance is 0.0199998, Goal is 0.02
10 Training-Blue Goal-Black
1
10
0
10
-1
10
-2
0
100
200
300 400 664 Epochs
500
600
采用动量法时的训练误差记录
1.3 自适应学习率调整法
在BP算法中,网络权值的调整取决于学习 BP算法中,网络权值的调整取决于学习 速率和梯度。在标准BP 速率和梯度。在标准BP 算法中,学习速率 是不变的。 而在自适应学习率调整法中,通常学习速 率的调整准则是:检查权值的修正是否真 正降低了误差函数,如果确实如此,则说 明所选的学习率小了,可对其增加一个量; 若不是则说明产生了过调,那么就应减小 学习速率的值。
标准BP算法及改进的 标准BP算法及改进的BP 算法及改进的BP 算法应用
1.1 标准的BP算法 标准的BP算法
BP标准的BP算法是基于梯度下降法,通过 BP标准的BP算法是基于梯度下降法,通过 计算目标函数对网络权值和阈值的梯度进 行修正。 X(k + 1 ) = X(k) - µ∆F( X(K) ) X(K)为由网络所有权值和阈值所形成的向 X(K)为由网络所有权值和阈值所形成的向 量; µ为学习速率; ∆F( X(K) )为目标函数的梯度; )为目标函数的梯度;
10
1
Performance is 0.0199693, Goal is 0.02
Training-Blue Goal-Black
10
0
10
-1
10
-2
0
50
100
150
200
250 300 522 Epochs
350
400
450
500
标准的BP 标准的BP 算法虽然原理简单,实现方便, 但由于训练过程中为一较小的常数,因而 存在收敛速度慢和局部极小的问题。 对于复杂问题,训练过程需迭代几千、几 万次才能收敛到期望的精度。 因此,标准的BP 因此,标准的BP 网络在很大程度上表现出 它的不实用性,特别是对实时性很强的系 统。为此就有了各种改进算法。
标准BP网络的应用 标准BP网络的应用
P = -1:0.1:1 T = [-0.96 -0.577 -0.0729 0.377 0.641 0.66 [0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 0.2183 -0.3201 ]; [R,Q] = size(P); [S2,Q] = size(T); S1 = 5; [W1,B1] = rands(S1,R); [W2,B2] = rands(S2,S1);
X(k + 1 ) = X(k) - µ(K)∆F( X(K) ) 通过调整学习率µ(K),从而可得到比标准的 通过调整学习率µ(K),从而可得到比标准的 BP算法更快的收敛速度。 BP算法更快的收敛速度。 因此,将附加动量法和自适应学习率调整 法两种策略结合起来,既可有效地抑制网 络陷入局部极小,又有利于缩短学习时间。 但上述两种改进方法都是在标准梯度下降 法基础上发展起来的,它们只利用了目标 函数对网络权值和阈值的一阶导数信息。 因此,当用于较复杂的问题时,也还存在 收敛速度不够快的问题。
net = newff( minmax(P), [5,1], {'tansig','purelin'},'traingdx' ); net.trainParam.epochs = 700; net.trainParam.mc = 0.95; net.trainParam.lr = 0.05; net.performFcn = 'sse'; net.trainParam.goal = 0.02; [net,tr] = train(net,P,T); Y = sim(net,P); plot(P,T,P,Y,’o’)
附加动量法的应用
P = -1:0.1:1 T = [-0.96 -0.577 -0.0729 0.377 0.641 0.66 [0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 0.2183 -0.3201 ]; [R,Q] = size(P); [S2,Q] = size(T); S1 = 5; [W1,B1] = rands(S1,R); [W2,B2] = rands(S2,S1);
当动量因子的取值为零时,权值的变化仅 是根据梯度下降法产生的。 当动量因子的取值为1 当动量因子的取值为1时,新的权值变化为 最后一次权值的变化,而依梯度法产生的 变化部分则被忽略掉了。 为此当增加了动量项后,促使权值的调节 向着误差曲面底部的平均方向变化。可在 一定程度上解决局部极小问题,但收敛速 度仍然很慢。
net = newff( minmax(P), [5,1], {'tansig','purelin'},'traingdx' ); net.trainParam.epochs = 1000; net.trainParam.lr = 0.05; net.trainParam.lr_inc = 1.05; net.trainParam.lr_dec = 0.7; net.performFcn = 'sse'; net.trainParam.goal = 0; [net,tr] = train(net,P,T); Y = sim(net,P); plot(P,T,P,Y,’o’)
net = newcf( minmax(P), [5,1], {'tansig','purelin'},'traingd' ); net.trainParam.epochs = 7000; net.performFcn = 'sse'; net.trainParam.goal = 0.02; [net,tr] = train(net,P,T); Y = sim(net,P); plot(P,T,P,Y,’o’)
0.6
0.8
1
训练次3000次的结果
0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 -1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
训练7366次的结果
10
2
Performance is 0.0199986, Goal is 0.02
10 Training-Blue Goal-Black
1
10
0
10
-1
10
-2
0
1000
2000
3000 4000 7366 Epochs
5000
6000
7000
训练结束后的网络误差记录
1.2 附加动量法
附加动量法使网络在修正权值时不仅考虑 误差在梯度上的作用,而且考虑在误差曲 面上变化趋势的影响; X( K+1 ) = Mc( X(K) – X(K – 1) ) – (1 Mc)µ∆F(X(K)) 式中0 式中0 <= Mc <= 1 为动量因子; 为动量因子; 附加动量法的实质是将最后一次权值变化 的影响通过一个动量因子来传递。
0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 -1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.60.8ຫໍສະໝຸດ 1训练1000次的结果
0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1 -1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
相关文档
最新文档