神经网络2005第4讲

合集下载

第四讲单点控制-资料

第四讲单点控制-资料
(1)原则 (2)新建交叉口信号相位方案的确定
10
3、配时参数的计算
(1) 绿灯间隔时间
一个信号相位绿灯时间结束,到下一个相位信号绿灯时间开
始之间的时间间隔,称为绿灯间隔时间。与停止线到冲突点的距
离,车辆在进口道上的行驶车速,车辆制动时间等有关,公式如
下:
z
I ua ts
C
相位A r
相位B
35
三、半感应控制
1、检测器放在次要道路上 平时主路上总是绿灯,对次路预置最短绿灯时间。 P184图5-16———次路优先通行
36
2、检测器放在主要道路上
平时主路上总是绿灯,当检测器测不到主路由车辆时,才换 相位让次路通行。
► 避免主路车 被次路车辆打断, 且有利于次路上 自行车的通行。
37
四、全感应控制
(2)不适宜处于联动定时系统中的交叉口,宜用感应控制; (3)感应控制特别适用于交通只在一天的部分时间里需要信号
控制的地方; (4)感应控制在轻交通交叉口有其优越性,不致使主要道路上
的交通产生不必要的延误; (5)感应控制,在有几个流向的交通量时有时无或多变的复杂
交叉口上,可得到最大效益, (6)半感应信号通常适用于主次道路相交及只在次路有车辆和
c0
1.5L5 1Y
该式针对的是孤立的交叉口,假定其交通流量稳 定地到达交叉口。
26
(3)流量比: Y=Qd/Sd (4)总有效绿灯时间:
Ge=G0-L (5)各相位有效绿灯时间:
gej
Ge
yi Y
(6)各相位的绿信比: j

g ej C0
(7)各相位显示绿灯时间:gj gejAj lj
(8)最短绿灯时间:

神经网络基本知识

神经网络基本知识

神经网络基本知识一、内容简述神经网络是机器学习的一个重要分支,是一种模拟生物神经网络结构和功能的计算模型。

它以其强大的学习能力和自适应能力广泛应用于多个领域,如图像识别、语音识别、自然语言处理等。

《神经网络基本知识》这篇文章将带领读者了解神经网络的基本概念、原理和应用。

1. 神经网络概述神经网络是一种模拟生物神经系统结构和功能的计算模型。

它由大量神经元相互连接构成,通过学习和调整神经元之间的连接权重来进行数据处理和模式识别。

神经网络的概念自上世纪五十年代提出以来,经历了漫长的发展历程,逐渐从简单的线性模型演变为复杂的多层非线性结构。

神经网络在人工智能领域发挥着核心作用,广泛应用于计算机视觉、语音识别、自然语言处理等领域。

神经网络的基本构成单元是神经元,每个神经元接收来自其他神经元的输入信号,通过特定的计算方式产生输出信号,并传递给其他神经元。

不同神经元之间的连接强度称为权重,通过训练过程不断调整和优化。

神经网络的训练过程主要是通过反向传播算法来实现的,通过计算输出层误差并反向传播到输入层,不断调整权重以减小误差。

神经网络具有强大的自适应能力和学习能力,能够处理复杂的模式识别和预测任务。

与传统的计算机程序相比,神经网络通过学习大量数据中的规律和特征,自动提取高级特征表示,避免了手动设计和选择特征的繁琐过程。

随着深度学习和大数据技术的不断发展,神经网络的应用前景将更加广阔。

神经网络是一种模拟生物神经系统功能的计算模型,通过学习和调整神经元之间的连接权重来进行数据处理和模式识别。

它在人工智能领域的应用已经取得了巨大的成功,并将在未来继续发挥重要作用。

2. 神经网络的历史背景与发展神经网络的历史可以追溯到上个世纪。

最初的神经网络概念起源于仿生学,模拟生物神经网络的结构和功能。

早期的神经网络研究主要集中在模式识别和机器学习的应用上。

随着计算机科学的快速发展,神经网络逐渐成为一个独立的研究领域。

在20世纪80年代和90年代,随着反向传播算法和卷积神经网络的提出,神经网络的性能得到了显著提升。

神经网络(NeuralNetwork)

神经网络(NeuralNetwork)

神经⽹络(NeuralNetwork)⼀、激活函数激活函数也称为响应函数,⽤于处理神经元的输出,理想的激活函数如阶跃函数,Sigmoid函数也常常作为激活函数使⽤。

在阶跃函数中,1表⽰神经元处于兴奋状态,0表⽰神经元处于抑制状态。

⼆、感知机感知机是两层神经元组成的神经⽹络,感知机的权重调整⽅式如下所⽰:按照正常思路w i+△w i是正常y的取值,w i是y'的取值,所以两者做差,增减性应当同(y-y')x i⼀致。

参数η是⼀个取值区间在(0,1)的任意数,称为学习率。

如果预测正确,感知机不发⽣变化,否则会根据错误的程度进⾏调整。

不妨这样假设⼀下,预测值不准确,说明Δw有偏差,⽆理x正负与否,w的变化应当和(y-y')x i⼀致,分情况讨论⼀下即可,x为负数,当预测值增加的时候,权值应当也增加,⽤来降低预测值,当预测值减少的时候,权值应当也减少,⽤来提⾼预测值;x为正数,当预测值增加的时候,权值应当减少,⽤来降低预测值,反之亦然。

(y-y')是出现的误差,负数对应下调,正数对应上调,乘上基数就是调整情况,因为基数的正负不影响调整情况,毕竟负数上调需要减少w的值。

感知机只有输出层神经元进⾏激活函数处理,即只拥有⼀层功能的神经元,其学习能⼒可以说是⾮常有限了。

如果对于两参数据,他们是线性可分的,那么感知机的学习过程会逐步收敛,但是对于线性不可分的问题,学习过程将会产⽣震荡,不断地左右进⾏摇摆,⽽⽆法恒定在⼀个可靠地线性准则中。

三、多层⽹络使⽤多层感知机就能够解决线性不可分的问题,输出层和输⼊层之间的成为隐层/隐含层,它和输出层⼀样都是拥有激活函数的功能神经元。

神经元之间不存在同层连接,也不存在跨层连接,这种神经⽹络结构称为多层前馈神经⽹络。

换⾔之,神经⽹络的训练重点就是链接权值和阈值当中。

四、误差逆传播算法误差逆传播算法换⾔之BP(BackPropagation)算法,BP算法不仅可以⽤于多层前馈神经⽹络,还可以⽤于其他⽅⾯,但是单单提起BP算法,训练的⾃然是多层前馈神经⽹络。

神经网络精选全文完整版

神经网络精选全文完整版

概述
神经网络的发展简史
初创(1943—1969) 1943年,McCulloch和Pitts 提出了M-P模型 1949年,Hebb提出Hebb学习规则 1957年,Rosenblatt提出感知器(perceptrons) 1969年,Minsky和Papert发表“Perceptrons”
x
(0) p2
x
(0) p, n0
T
d p d p1 d p1 d p,nQ T
( p 1,2, P)
利用该样本集首先对BP网络进行训练,也即对网络的连接权系数 进行学习和调整,以使该网络实现给定的输入输出映射关系。
i
2) 误差函数
e 1 2
k
(yˆ k yk )2
yˆ, y 分别表示输出层上节点k的期望输出与实
际输出
3) 连接权值的修正
w jk (t 1) w jk (t) w jk
wjk(t+1)和wjk(t)分别表示t+1和t时刻上从 节点j到节点k的连接权值, ∆wjk为修正量。
为了使连接权值沿着e的梯度变化方向得以改 善,网络逐渐收敛,取
e 1
2
( yˆk
yk )2
e yk
( yˆ
y)
又 yk netk
f
' (netk )
k ( yˆ k yk ) f ' (netk )
节点k不是输出层上的节点
k
e netk
e Ok
Ok netk
又 e Ok
m
mwkm
Ok netk
f ' (netk )
k f ' (netk ) mwkm
Y
N

【课件】人工神经网络课程nn04精品版

【课件】人工神经网络课程nn04精品版
对于辅助变量并将阈值归入权参数:
x0 1, wj0 j , x'0 1, w'k0 'k , x''0 1, w''l0 ''l
则有: n
x' j f ( wji xi ), i0
n1
n2
x''k f ( w'kj x' j ), y l f ( w''lk x''k )
j0
k 0
2.3 非线性连续变换单元组成的网络
考虑第 个样本的误差:
E

1 2
|| t

y
||2
1 2
m
(tl
l 1

yl )2
进一步得总误差:
E

N
E
1

1 2
N
|| t
1

y
||2

1 2
N 1
m
(tl
l 1

yl )2
引入权参数矩阵:
W (w ji ) , n1(n1) W' (w'kj )n2(n11) ,
和总权参数向量:
W' ' (w' 'lk )m(n2 1)
vec[W]
W

vec[W
']


(w10, w11,
vec[W '']
, wsg ,
, wcd )T
2.3 非线性连续变换单元组成的网络
学习的条件:一组样本(对)

第04讲智能决策理论与方法

第04讲智能决策理论与方法
决策理论与方法-智能决策理论与方法
知识发现—空值估算
❖ 空值是指属性值未知且不可用、与其它任何值都不相同的符 号。在样本数据集中,空值在所有非主码属性中都可能出现。 空值出现的主要原因: 在信息收集时忽略了一些认为不重要的数据或信息提供 者不愿意提供,而这些数据对以后的信息处理可能是有 用的; 某些属性值未知; 数据模型的限制。

·粗糙集理论
·遗传算法
·据理论
·神经网络
可视化技术
数据库技术 ·面向数据集方 法 ·面向属性归纳 ·数据库统计
决策理论与方法-智能决策理论与方法
知识发现—基本概念
❖ 解释与评价阶段:
结果筛选:过滤(移去)不感兴趣的或显而易见的模式。 ❖利用描述规则特征的数值如信度、支持度或兴趣度等, 定义某个阈值,对规则进行筛选; ❖指定语义约束,规则的前件或后件只包含感兴趣的属 性,或者指定属性间的依赖性约束; ❖完全依靠用户对处理结果进行筛选。
聚类(相容关系):聚类也叫分段,就是将数据库中的实 体分成若干组或簇,每簇内的实体是相似的。规则形式 为IF O1与O2相似 Then O1、O2在同一簇。对象相似的判 断方法有多种如距离法。典型方法:K-means
决策理论与方法-智能决策理论与方法
知识发现—基本概念
发现特征规则:特征规则是刻划某个概念的特征的断言, 它相当于分类规则的逆命题。例如病症是某种疾病的特 征。规则一般形式是:IF A类 Then 特征表达式。
抽样 数据中心
预处理
变换
数据挖掘
解释/评价
样本集
预处理结果
变换结果
挖掘结果
知识
任务描述
决策理论与方法-智能决策理论与方法
知识发现—基本概念

神经网络使用方法及步骤详解

神经网络使用方法及步骤详解

神经网络使用方法及步骤详解随着人工智能的快速发展,神经网络成为了一个热门的研究方向。

神经网络是一种模拟人脑神经元相互连接的计算模型,它可以用来解决各种复杂的问题。

本文将详细介绍神经网络的使用方法及步骤。

一、神经网络的基本原理神经网络由多个神经元组成,这些神经元之间通过连接进行信息传递。

每个神经元都有一个权重,用来调整信号的传递强度。

神经网络通过不断调整权重,从而学习到输入和输出之间的映射关系。

这个过程称为训练。

二、神经网络的训练步骤1. 数据准备:首先,需要准备一组有标签的训练数据。

标签是指输入和输出之间的对应关系。

例如,如果要训练一个神经网络来识别手写数字,那么输入就是一张手写数字的图片,输出就是对应的数字。

2. 网络结构设计:接下来,需要设计神经网络的结构。

神经网络通常包括输入层、隐藏层和输出层。

输入层负责接收输入数据,隐藏层用来提取特征,输出层用来产生结果。

3. 权重初始化:在训练之前,需要对神经网络的权重进行初始化。

通常可以使用随机数来初始化权重。

4. 前向传播:在训练过程中,需要将输入数据通过神经网络进行前向传播。

前向传播是指将输入数据从输入层经过隐藏层传递到输出层的过程。

在每个神经元中,输入数据将与权重相乘,并经过激活函数处理,得到输出。

5. 计算损失:在前向传播之后,需要计算神经网络的输出与标签之间的差距,这个差距称为损失。

常用的损失函数有均方误差和交叉熵等。

6. 反向传播:反向传播是指根据损失来调整神经网络的权重,使得损失最小化。

反向传播通过计算损失对权重的导数,然后根据导数来更新权重。

7. 权重更新:通过反向传播计算得到权重的导数之后,可以使用梯度下降等优化算法来更新权重。

优化算法的目标是使得损失函数最小化。

8. 重复训练:以上步骤需要重复多次,直到神经网络的损失收敛到一个较小的值为止。

三、神经网络的应用神经网络在各个领域都有广泛的应用。

其中,图像识别是神经网络的一个重要应用之一。

机器学习及应用 第4章 神经网络

机器学习及应用 第4章 神经网络
# 训练集,XOR函数 trainingInputs = array([[0, 0], [0, 1], [1, 0], [1, 1]]) trainingOutputs = array([[0, 1, 1, 0]]).T # 初始化随机数种子 random.seed(1) #创建第一层 (4神经元, 每个2输入) layer1 = NeuronLayer(4, 2) #创建第二层 (单神经元,4输入) layer2 = NeuronLayer(1, 4)
XOR
(0,0)
(1,0)
x1

(a)线性可分
(0,0)
(1,0)
x1
(b) 线性不可分
4.3 感知机与多层神经网络
主要实现代码:
# 训练感知机 def train(self, inputs, targets, eta, nIterations):
# 偏置加入输入,构成4 * 3维矩阵 inputs = concatenate((inputs, - ones((self.nData,1))), axis = 1) # 训练 for n in range( nIterations ): # 前向传播 self.outputs = self.forward(inputs) # 修改权值 self.weights = self.weights + eta * dot(transpose(inputs), targets self.outputs)
print ("3) 预测: ") for i in range(len(trainingInputs)):
hidden_state, output = tlnn.predict(trainingInputs[i]) print(output)
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

上次内容:(1)多层感知器,离散作用函数 (2)BP 神经网络,连续作用函数(3)Hopfield 神经网络,上次讲到工作方式,现在先回忆,再继续。

*神经元:对称硬限函数:f(σ)=⎩⎨⎧≥<-0,10,1σσ*两种工作方式,异步:一次只有一个神经元改变状态,同步:一次所有神经元改变状态。

2DHNN 神经网络的稳定性,看神经网络改变状态到什么状态。

将神经网络看作一个非线性动力学系统,系统稳定,则从一个初始状态可以运动到平衡态。

● 什么是平衡态,稳定点。

X =f (WX-θ)=f (WX),通常:θ=0。

解释:W=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡nn n n n n w w w w w w w w w 212222111211,X=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡n x x x 21,θ=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡000 f (WX)=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡)()()(21x w f x w f x w f n ● 开始是混沌态,最终是稳定态。

这应该是万物的运动规律。

● 这种规律干什么用?定理2.4:(1)DHNN 异步工作模式,(2)W 对称,(3)w ii ≥0 则对任意初态,网络最终收敛到稳定态。

证明:下面的方法在Hopfield 之前没有人用过:构造能量函数:E(t)=-21X T (t)WX(t)+X T(t)θ 说明:该函数有界,上界和下界都有。

考察能量变化: ∆E=E(t+1)-E(t)= -21X T (t+1)WX(t+1)+X T (t+1)θ- [-21X T (t)WX(t) +X T (t)θ] =-21[X(t)+∆X(t)]T W[X(t)+∆X(t)]+[X(t)+∆X(t)]θ-[-21X T (t)WX(t) +X T (t)θ](因为:X(t+1)=X(t)+∆X(t))=-∆X T (t)[WX(t)-θ]-21∆X T (t)W ∆X(t) (∆X (t )=[0,0,…, ∆x i (t ),…,0]T )=-∆x i (t )[∑=-nj ijijt x w 1)(θ]-21[∆x i (t )]2w ii ≤0。

要讨论∆x i (t )[∑=-nj ijijt x w 1)(θ]=(x i (t +1)-x i (t ))[∑=-nj ijijt x w 1)(θ]≥0(1)只有当状态不变时,∆E 才为0。

(2)通常w ii =0,此时也是如此。

(3)当X ∈{0,1}时也有同样结论。

定理2.5:(1)DHNN 同步工作方式,(2)W 对称, 则神经网络最终收敛到2态极限环或平衡态。

证明:构造能量函数:E(t)=-X T (t)WX(t-1)+(X(t)+X(t-1))T θ∆E=E(t+1)-E(t)=-X T(t+1)WX(t)+(X(t+1)+X(t))Tθ-[-X T(t)WX(t-1)+(X(t)+X(t-1) )Tθ]=-∑=--+niiiittXtX1)())1()1((σ≤0.(σi(t)= ∑=-njijijtxw1)(θ)因能量函数有界,所以收敛。

∆E=0时只有两种情况,即定理中的情况。

定理2.5:(1)DHNN,(2)同步方式工作,(3)W对称且非负定。

则对任意初态,神经网络总能收敛到平衡态。

二次型,线性代数中讲过。

证明:E(t)=-21X T(t)WX(t)+X T(t)θ∆E(t)=E(t+1)-E(t)=-∑=∆niiittx1)()(σ-21∆XT(t)W∆X(t)≤0(1)前面一项前面已经证明是不会大于0,后面一项由W非负定保证。

故得证。

3联想记忆神经网络(Associate Memory)HAM问题:(1)给定向量:X1=(x11,x12,…,x1n)TX2=(x21,x22,…,x2n)T………X N=(x N1,x N2,…,x Nn)T要求:构造神经网络,使X1,X2,…,X N是神经网络的吸引子或稳定点。

W=X 1X 1T +X 2X 2T +X 3X 3T +…+X N X N T -N I (1)利用Hebb 规则解释 (2)例子X 1=(1,1,-1,-1,-1,-1)T X 2=(-1,-1,1,1,1,-1)TW=()()⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫⎝⎛---⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫ ⎝⎛--+----⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫ ⎝⎛----10000001000000100000010000001000000121,1,1,1,1,11111111,1,1,1,1,1111111=⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫⎝⎛----------------022222202222220222222022222202222220神经网络如下:连续Hopfield 神经网络结构:三n 个微分方程表述。

⎪⎪⎪⎩⎪⎪⎪⎨⎧=+-=-=∑=)(11i i i i i nj ij ij i y f x y dtdy x w στθσX 1X 2X nHopfield 神经网络的稳定性,从任意初态均可收敛到平衡态定理2.6:任意连续Hopfield 神经网络,若: (1)w ij =w ji (2)f(∙)单调增则神经网络从任意初态开始均能收敛到网络平衡态。

是稳定的。

证明:能量函数:E(t)=⎰∑∑∑∑-====++-i xni i n i i i n i n j j i ij d f t x t x t x w 011111)(1)()()(21ηητθ=⎰∑-=++-i xni i TT d f t X t WX t X 011)(1)()()(21ηητθ 需要证明0≤dtdE,下面证明: dtdx x f t x w dt dx x E dt dE i n i nj i i i j ij n i i i ∑∑∑==-=++-=∂∂=1111])(1)([τθ0121≤⎪⎭⎫ ⎝⎛-=-=∑∑==ni i i i ni i i dt dx dx dy dt dx dt dy因为f()单调增,所以f -1(x i )单调增。

所以:0>iidx dy ,因而有上式的不大于0。

2.3Boltzmann 机单层反馈神经网络,工作方式是一个随机收敛过程,随机动力学模型:结构如下:神经元的工作模式:离散的,状态离散变化,不连续。

i nj i ij i t x w θσ--=∑=1)1(Tt i et x P i )(11)1)((σ-+== Tt i t i eet x P i )()(1)0)((σσ--+==下一个状态时什么?抛硬币决定。

根据前面的概率。

最后结果怎么样,也会稳定,稳定概率为1。

这种神经网络也能用来求解优化问题,怎么做:构造一个由问题的参数组成的函数,恰好是一个二次型,根据二次型可以构造神经网络,认为函数是神经网络的能量函数。

可以证明,利用这种机器可以求得最优解的概率为1。

实际效果不见得好。

§2.4Hamming 神经网络:例子:X 1=(0,0,1,1,1,1)T ,X 2=(1,1,0,0,1,1)T ,X 3=(1,1,1,1,0,0)T需要建立神经网络存储上述向量,存储器的容错能力应该较强。

不带附加的存储模式向量。

只有三个平衡态。

能否做到。

Hamming 网络就能做到。

神经元使什么样的:饱和线性函数。

x xy=f(σ)=⎪⎩⎪⎨⎧≥<≤<u u uσσσσ,0,0,0, 饱和线性函数hamming 距离计算:X 1=(x 11,x 12,…,x 1n )T ,X 2=(x 21,x 22,…,x 2n )T(2x 11-1)(2x 21-1)=⎩⎨⎧≠-=21112111,1,1x x x x(2x 11-1)(2x 21-1)+…+(2x 1n -1)(2x 2n -1)=-d(X 1,X 2)+n-d(X 1,X 2) =n-2d(X 1,X 2) n -d (X 1,X 2)=21n+∑=--ni i i x x 121)12)(12(构造神经网络:给定X=(x 1,…,x n ),求X 与X 1之间的hamming 距离:n -d (X 1,X )=21n +∑=-ni i i x x 11)12(-21∑=-ni i x 11)12(§2.5自组织神经网络 (1)神经网络结构(2)背景:视网膜是怎样辨别东西的?怎样成象?Kohonen总结出一套自组织工作的机制。

(3)工作过程●输入信息x●输出层竞争,只有一个神经元取胜,取胜神经元输出1,变成兴奋态,其他神经元输出0。

●取胜神经元修改权值,怎样修改?●希望什么?一个神经元代表一类。

举例说明:声音键盘:(1)a,b,…,x,y,z的声音编码,(2)结果是当输入不同声音时有不同区域的神经元兴奋,实验结果确实如此。

但是需要说明确实要达到这个效果。

(3)说明上述内容中的一些情况:X=(x1,x2,…,x n)T,W=(w1,w2,…,w n)T,看X和W距离有多么近,那个最近那个神经元取胜,取胜以后,W再去学习X,W朝着X 移动一点。

第三章模式分类与神经网络学习说明什么是模式分类问题:给定向量对:(X1,Y1),…,(X N,Y N),构造神经网络使输入X i,则输出Y i,i=1,2,…,N,最一般的认为:X i是n维实数向量,Y i是m 维实数向量。

下面一点一点看:先看单个神经元是怎样学习的:x x y =f (σ)=+e 11,σ=θ-∑=ni i i x w 1这样情况下,输入向量为n 维,输出向量为1维。

怎样学习: X 1=(x 11,…x 1n )T ,d 1 …………X N =(x N1,…,x Nn )T ,d N神经网络连接权值是任意的话,误差是多少? E=N 21[(d 1-y 1)2+(d 2-y 2)2+…+(d N -y N )2]上面函数是误差函数。

若E =0,则W 是所求的,否则不行。

其他情况下,E 越小越好。

怎样使误差减小?怎样改变w 。

有一个基本规则梯度下降:朝着梯度的反方向去改变w 会使得误差减小最快。

w i =w i -ηiwE ∂∂,i =1,2,…,n iw E ∂∂=N 21[2(d 1-y 1)(-idw dy 1)+…+2(d n -y n )(-nndw dy)]=N 1[-(d 1-y 1)f ’(σ1)x 1i -…-(d N -y N )f ’(σN )x Ni ]可以给出一个算法: (1)随机选定w i ,θ(2)若E <ε,则输出w i , θ,停止。

(3)计算iw E ∂∂,w i =w i -ηiwE ∂∂,i =1,2,…,n(4)转(2)感知器是怎样学习的?(1)样本,(X 1,Y 1),(X 2,Y 2),…,(X N ,Y N ) (2)求神经网络实现样本映射。

相关文档
最新文档