距离度量

合集下载

距离的度量方法

距离的度量方法

距离的度量方法
距离是我们经常使用的一个概念,在日常生活中,我们需要度量两个物体或者位置之间的距离,这个距离可以使用不同的方法进行度量。

距离的度量方法有很多种,包括欧几里得距离、曼哈顿距离、切比雪夫距离等等。

一、欧几里得距离
欧几里得距离是最常用的距离度量方法之一,它也是我们熟知的勾股定理的一个应用。

欧几里得距离被定义为两个点之间的直线距离。

如果我们将两个点表示为(x1,y1)和(x2,y2),那么它们之间的欧几里得距离可以用以下公式表示:
d((x1,y1),(x2,y2)) = √(x2-x1)² + (y2-y1)²
二、曼哈顿距离
曼哈顿距离也被称为城市街区距离,在离散空间中非常常见。

它被定义为两个点之间的距离,沿着网格线从一个点走到另一个点的距离。

如果我们将两个点表示为(x1,y1)和(x2,y2),那么它们之间的曼哈顿距离可以用以下公式表示:
d((x1,y1),(x2,y2)) = |x2-x1| + |y2-y1|
三、切比雪夫距离
切比雪夫距离可以被认为是欧几里得距离的一种泛化。

它被定义为两个点之间的最大坐标差值绝对值。

如果我们将两个点表示为(x1,y1)和(x2,y2),那么它们之间的切比雪夫距离可以用以下公式表示:
d((x1,y1),(x2,y2)) = max(|x2-x1|,|y2-y1|)
以上三种距离度量方法都有各自的应用场景,我们需要根据实际问题来选择合适的距离度量方法。

无论是什么距离度量方法,我们都需要明确度量的对象、度量的方式以及所得出的距离的意义,才能对问题进行准确的描述和处理。

聚类算法中的距离度量方法

聚类算法中的距离度量方法

聚类算法中的距离度量方法聚类算法是一种将数据点分成不同集合的无监督学习方法。

在聚类过程中,其中一个最为重要的环节就是距离度量方法。

距离度量方法根据数据点之间的距离来衡量它们之间的相似程度,并根据此将它们分成不同的类别。

1. 欧式距离欧式距离,也称为L2范数,是最常用的距离度量方法之一。

欧式距离的计算公式为:$d(\boldsymbol{x},\boldsymbol{y})=\sqrt{\sum\limits_{i=1}^{n}( x_i-y_i)^2}$其中,$\boldsymbol{x}$和$\boldsymbol{y}$是两个点的n维特征向量。

欧式距离常常用于连续数据的聚类,如图像处理和数据挖掘中的图像和文本数据降维。

2. 曼哈顿距离曼哈顿距离也称为L1范数,它是指两个点在坐标系中沿着网格线移动所需的距离。

曼哈顿距离的计算公式为:$d(\boldsymbol{x},\boldsymbol{y})=\sum\limits_{i=1}^{n}\mid x_i-y_i\mid$曼哈顿距离常用于聚类分析中对分类特征的距离计算。

3. 余弦相似度余弦相似度是根据两个向量的夹角来测量它们的相似程度。

余弦相似度的计算公式为:$cos\theta=\frac{\boldsymbol{x}\cdot\boldsymbol{y}}{||\boldsymbol{x}||\cdot ||\boldsymbol{y}||}$其中,$\boldsymbol{x}$和$\boldsymbol{y}$是两个向量,$\boldsymbol{x}\cdot \boldsymbol{y}$是它们的点积。

余弦相似度通常用于文本聚类,因为在文本聚类中,每个文档可以表示为一个向量,使得在向量空间中,文档之间的夹角越小,它们之间越相似。

4. 编辑距离编辑距离是指从一个字符串转换成另一个字符串所需的最少操作次数。

编辑距离通常用于对字符串数据进行分类,例如对DNA序列进行分类。

距离度量的几种方法

距离度量的几种方法

距离度量的几种方法距离度量是计算两个点之间距离的方法,常用于各种领域的计算和分析。

本文将介绍几种常见的距离度量方法。

一、欧氏距离欧氏距离是最常见的距离度量方法,它计算的是两个点之间的直线距离。

可以用公式表示为:D(x,y) = sqrt((x1-y1)^2 + (x2-y2)^2 + … + (xn-yn)^2),其中x和y是n维向量,x1、y1表示x和y 在第一维上的值,x2、y2表示在第二维上的值,以此类推。

欧氏距离适用于各种情况,特别是在二维或三维空间中的距离计算。

二、曼哈顿距离曼哈顿距离是另一种常见的距离度量方法,它计算的是两个点之间的曼哈顿距离,也就是在坐标系中,两点横纵坐标差的绝对值之和。

可以用公式表示为:D(x,y) = |x1-y1| + |x2-y2| + … + |xn-yn|。

曼哈顿距离适用于需要考虑路径长度而不是直线距离的情况,比如在城市规划和物流配送中。

三、切比雪夫距离切比雪夫距离是计算两个点之间的最大距离,也就是两点横纵坐标差的绝对值中的最大值。

可以用公式表示为:D(x,y) = max(|x1-y1|, |x2-y2|, …, |xn-yn|)。

切比雪夫距离适用于需要考虑最大距离的情况,比如在棋盘上的移动或在地图上的导航。

四、闵可夫斯基距离闵可夫斯基距离是欧氏距离和曼哈顿距离的一般化,可以用公式表示为:D(x,y) = (|x1-y1|^p + |x2-y2|^p + … + |xn-yn|^p)^(1/p),其中p是一个参数,当p=1时,闵可夫斯基距离等同于曼哈顿距离;当p=2时,闵可夫斯基距离等同于欧氏距离。

闵可夫斯基距离可以根据需要调整p值,适用于各种情况。

五、余弦相似度余弦相似度是一种用于计算两个向量夹角余弦值的距离度量方法。

可以用公式表示为:cos(theta) = dot(x,y) / (norm(x)*norm(y)),其中dot(x,y)是向量x和y的点积,norm(x)是向量x的范数。

一图看遍9种距离度量,图文并茂,详述应用场景!

一图看遍9种距离度量,图文并茂,详述应用场景!

⼀图看遍9种距离度量,图⽂并茂,详述应⽤场景!距离度量在CV 、NLP以及数据分析等领域都有众多的应⽤。

最常见的距离度量有欧式距离和余弦距离,本⽂将会分享九种距离,分析其优缺点以及相应的应⽤常见,如果对你有所帮助,在看完之后,可以分享给你朋友圈的好兄弟,好姐妹们,共同成长进步!有图有真相许多算法,⽆论是监督或⾮监督,都使⽤距离度量。

这些度量,如欧⼏⾥得距离或余弦相似度,经常可以在k-NN、UMAP、HDBSCAN等算法中找到。

理解距离度量⽐你可能⽐你想象中更加重要。

以k-NN为例,这是⼀种经常⽤于监督学习的技术。

作为默认值,它通常使⽤欧⼏⾥得距离。

它本⾝就是⼀个很⼤的距离。

但是,如果你的数据是⾼维的呢?那么欧⼏⾥得距离还有效吗?或者,如果你的数据包含地理空间信息呢?也许haversine距离是更好的选择!知道何时使⽤哪种距离度量可以帮助您从⼀个糟糕的分类器变成⼀个精确的模型。

在本⽂中,我们将介绍许多距离度量⽅法,并探讨如何以及何时最好地使⽤它们。

最重要的是,我将讨论它们的缺点,以便您能够意识到何时应该避开某些措施。

注意:对于⼤多数距离度量,很长的详细的⽂件可以并且已经写在它们的⽤例、优点和缺点上。

我会尽我所能去弥补,但可能会达不到!因此,本⽂是这些措施的总体概述。

1、Euclidean Distance我们从最常见的距离度量开始,即欧⼏⾥得距离。

它是⼀种距离度量,最好解释为连接两点的线段的长度。

这个公式相当简单,因为距离是从这些点的笛卡尔坐标⽤勾股定理计算出来的。

缺点尽管欧⼏⾥德距离是⼀种常见的距离度量,但它不是尺度不变的,这意味着计算的距离可能是倾斜的,这取决于特征的单位。

通常,在使⽤这个距离度量之前,需要对数据进⾏标准化(normalize)。

此外,随着数据维度的增加,欧⼏⾥得距离就变得不那么有⽤了。

这与维数的'诅咒'有关,它与⾼维空间并不像我们直观地期望的那样,在2维或3维空间中发挥作⽤的概念有关。

简述基于距离的分类算法

简述基于距离的分类算法

简述基于距离的分类算法一、引言基于距离的分类算法是机器学习中常用的一种分类方法,它通过计算不同样本之间的距离来确定样本之间的相似度,从而将它们分为不同的类别。

本文将从以下几个方面对基于距离的分类算法进行详细介绍。

二、基本概念1. 距离度量:在基于距离的分类算法中,需要定义不同样本之间的距离度量方法。

常用的方法有欧氏距离、曼哈顿距离、切比雪夫距离等。

2. 样本空间:指所有样本组成的空间,每个样本都可以看作该空间中一个点。

3. 样本特征:指每个样本所具有的特征或属性,如身高、体重等。

三、KNN算法KNN(K-Nearest Neighbor)算法是基于距离度量来进行分类和回归分析的一种非参数性统计方法。

它通过计算未知样本与已知样本之间的距离来找到最近邻居,并将未知样本归入与其最近邻居相同的类别中。

KNN算法具有简单易懂、效果好等优点,在实际应用中得到了广泛的应用。

四、K-means算法K-means算法是一种基于距离度量的聚类算法,它将样本空间划分为k个簇,每个簇包含距离最近的k个样本。

在算法开始时,需要随机选择k个样本作为初始中心点,然后计算所有样本与这些中心点之间的距离,并将每个样本归入距离最近的簇中。

接着重新计算每个簇的中心点,并重复以上步骤直到达到收敛条件。

K-means算法具有较高的效率和准确性,在数据挖掘和图像处理等领域得到了广泛应用。

五、DBSCAN算法DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种基于密度的聚类算法。

它通过计算每个样本周围其他样本的密度来确定该样本所属于的簇,并将密度较小的点归为噪声点。

在DBSCAN算法中,需要定义两个参数:邻域半径和最小密度。

邻域半径表示一个点周围所包含其他点的最大距离,而最小密度表示一个簇所包含点数目的下限值。

DBSCAN算法具有处理复杂数据集、不受初始化影响等优点,在图像处理和数据挖掘等领域得到了广泛应用。

距离度量方法

距离度量方法

距离度量方法
距离度量方法如下:
1、欧氏距离。

欧氏距离度量两个实值向量之间的最短距离。

由于其直观,使用简单和对许多用例有良好结果,所以它是最常用的距离度量和许多应用程序的默认距离度量。

欧氏距离有两个主要缺点。

首先,距离测量不适用于比2D或3D 空间更高维度的数据。

第二,如果我们不将特征规范化和/或标准化,距离可能会因为单位的不同而倾斜。

2、曼哈顿距离。

曼哈顿距离也被称为出租车或城市街区距离,因为两个实值向量之间的距离是根据一个人只能以直角移动计算的。

这种距离度量通常用于离散和二元属性,这样可以获得真实的路径。

曼哈顿的距离有两个主要的缺点。

它不如高维空间中的欧氏距离直观,它也没有显示可能的最短路径。

虽然这可能没有问题,但我们应该意识到这并不是最短的距离。

3、切比雪夫距离。

切比雪夫距离也称为棋盘距离,因为它是两个实值向量之间任意维度上的最大距离。

它通常用于仓库物流中,其中最长的路径决定了从一个点到另一个点所需的时间。

4、闵可夫斯基距离。

闵可夫斯基距离是上述距离度量的广义形式。

它可以用于相同的用例,同时提供高灵活性。

我们可以选择p值来找到最合适的距离度量。

由于闵可夫斯基距离表示不同的距离度量,它就有与它们相同的主要缺点,例如在高维空间的问题和对特征单位的依赖。

此外,p值的灵活性也可能是一个缺点,因为它可能降低计算效率,因为找到正确的p值需要进行多次计算。

常见的距离度量

常见的距离度量

常见的距离度量常见的距离度量在物理学、数学和计算机科学等领域,距离(distance)是一种用于度量物理空间中两个点之间的量。

距离度量可以表现为Euclidean距离、曼哈顿距离、切比雪夫距离、闵可夫斯基距离等多种形式。

1. Euclidean距离欧几里得距离(Euclidean distance),也称为欧氏距离,是一种常见的距离度量方式,它基于两点间的几何距离来量化它们的距离。

具体来说,欧氏距离就是两点之间的直线距离。

在二维空间中,点(x1, y1)和点(x2, y2)的欧氏距离可以计算为:√((x2 - x1)² + (y2 - y1)²)。

2. 曼哈顿距离曼哈顿距离(Manhattan distance),也称为城市街区距离,是一种基于两点间的曼哈顿距离来量化它们的距离。

在二维空间中,点(x1, y1)和点(x2, y2)的曼哈顿距离可以计算为:|x2 - x1| + |y2 - y1|。

这种方式度量两点之间只能沿着水平或垂直方向移动,而不能斜着走。

3. 切比雪夫距离切比雪夫距离(Chebyshev distance)是一种计算两个点之间的距离的方法。

它是基于两个点之间的最大差距,它是从一个点到另一个点,其路径只能是沿着水平或垂直线移动的距离。

在二维空间中,点(x1,y1)和点(x2, y2)的切比雪夫距离可以计算为:max(|x2 - x1|, |y2 - y1|)。

4. 闵可夫斯基距离闵可夫斯基距离(Minkowski distance)是一种距离度量方式,它包含了欧氏距离、曼哈顿距离和切比雪夫距离等多种度量方式。

在二维空间中,点(x1, y1)和点(x2, y2)的闵可夫斯基距离可以计算为:(abs(x2 - x1)^p + abs(y2 - y1)^p)^(1/p)。

综上所述,距离度量是计算机图形学、数据挖掘和机器学习等领域中非常重要的一个概念。

不同的度量方法可以适用于不同的情境和问题。

距离度量的几种方法

距离度量的几种方法

距离度量的几种方法
1. 欧氏距离(Euclidean Distance):欧氏距离是指在n 维空间中两个点之间的直线距离。

它是最常见的距离度量方法。

2. 曼哈顿距离(Manhattan Distance):曼哈顿距离是指在n 维空间中,两个点顺着坐标轴走的距离之和。

它也被称为城市街区距离。

3. 切比雪夫距离(Chebyshev Distance):切比雪夫距离是指在n 维空间中,两个点之间各个坐标绝对值差的最大值。

4. 余弦相似度(Cosine Similarity):余弦相似度通常用于度量文本相似度。

它是基于向量空间模型的方法。

5. 汉明距离(Hamming Distance):汉明距离是用于度量两个等长字符串之间的差异的距离度量方法。

它是字符串不同字符的数量。

6. 杰卡德相似系数(Jaccard Similarity Coefficient):杰卡德相似系数是定义为两个集合交集大小除以它们的并集大小。

它是一种集合相似性的度量方法。

7. 皮尔逊相关系数(Pearson Correlation Coefficient):皮尔逊相关系数是指在统计学中用来衡量两个变量之间相关性的度量方法。

它是从-1 到1 的范围内
的值。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

31
(1)杰卡德距离可用如下公式表示:
杰卡德距离用两个集合中不同元素占所有元素
的比例来衡量两个集合的区分度。
32
(2)Matlab
计算杰卡德距离 Matlab的pdist函数定义的杰卡德距离跟我这里 的定义有一些差别,Matlab中将其定义为不同 的维度的个数占“非全零维度”的比例。 例子:计算(1,1,0)、(1,-1,0)、(-1,1,0)两两之 间的杰卡德距离 X = [1 1 0; 1 -1 0; -1 1 0] D = pdist( X , 'jaccard') 结果 D = 0.5000 0.5000 1.0000
12
曼哈顿距离的命名原因是从规划为方型建筑区
块的城市(如曼哈顿)间,最短的行车路径而 来(忽略曼哈顿的单向车道以及只存在于3、 14大道的斜向车道)。任何往东三区块、往北 六区块的的路径一定最少要走九区块,没有其 他捷径。
13
出租车几何学满足除了SAS全等定理之外的希伯特 定理,SAS全等指任两个三角型两个边与一个角相 等,则这两个三角型必全等。 在出租车几何学中,一个圆是由从圆心向各个固定 曼哈顿距离标示出来的点围成的区域。因此这种圆 其实就是旋转了45度的正方形。如果有一群圆,任 两圆皆相交,则整群圆必在某点相交;因此曼哈顿 距离会形成一个超凸度量空间(Injective metric space)。对一个半径为r 的圆来说,这个正方形的 圆每边长√2r。此'"圆"的半径r对切比雪夫距离 (L∞ 空间)的二维平面来说,也是一个对座标轴来说边 长为2r的正方形,因此二维切比雪夫距离可视为等 同于旋转且放大过的二维曼哈顿距离。然而这种介 于L1与L∞的相等关系并不能延伸到更高的维度。
18
(1)二维平面两点a(x1,y1)与b(x2,y2)间的切比
雪夫距离:
(2)两个n维向量a(x11,x12,…,x1n)与
b(x21,x22,…,x2n)间的切比雪夫距离:
19
(3)Matlab计算切比雪夫距离 例子:计算向量(0,0)、(1,0)、(0,2)两两间的切
比雪夫距离 X = [0 0 ; 1 0 ; 0 2] D = pdist(X, 'chebychev') 结果: D = 1 2 2
个M×N的矩阵,则pdist(X)将X矩阵M行的每一 行作为一个N维向量,然后计算这M个向量两两 间的距离。
5
例子:计算向量(0,0)、(1,0)、(0,2)两两间的欧
式距离 X = [0 0 ; 1 0 ; 0 2] D = pdist(X,'euclidean') 结果: D = 1.0000 2.0000 2.2361

30
(2)Matlab计算汉明距离
Matlab中2个向量之间的汉明距离的定义为 2个向量不同的分量所占的百分比。 例子:计算向量(0,0)、(1,0)、(0,2)两两间的 汉明距离 X = [0 0 ; 1 0 ; 0 2]; D = PDIST(X, 'hamming') 结果: D = 0.5000 0.5000 1.0000
而其中向量Xi与Xj之间的马氏距离定义为:
27
若协方差矩阵是单位矩阵(各个样本向量之间
独立同分布),则公式就成了:
也就是欧氏距离了。
若协方差矩阵是对角矩阵,公式变成了标准化
欧氏距离。 (2)马氏距离的优缺点: 量纲无关,排除变量之间的相关性的干扰。
28
(3)
Matlab计算(1 2),( 1 3),( 2 2),( 3 1)两 两之间的马氏距离 X = [1 2; 1 3; 2 2; 3 1] Y = pdist(X,'mahalanobis')

3
欧氏距离是最常见的距离度量,衡量的是多维
空间中各个点之间的绝对距离。公式如下:
(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧
氏距离:
4
(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的
欧氏距离:
(3)Matlab计算欧氏距离
Matlab计算距离主要使用pdist函数。若X是一
17
切比雪夫距离起源于国际象棋中国王的走法,
我们知道国际象棋国王每次只能往周围的8格中 走一步,那么如果要从棋盘中A格(x1, y1) 走到B格(x2, y2)最少需要走几步?最少步 数总是max( | x2-x1 | , | y2-y1 | ) 步。 扩展到多维空间,其实切比雪夫距离就是当p 趋向于无穷大时的明氏距离:

6
(1)标准欧氏距离的定义
标准化欧氏距离是针对简单欧氏距离的缺 点而作的一种改进方案。标准欧氏距离的思路: 既然数据各维分量的分布不一样,好吧!那我 先将各个分量都“标准化”到均值、方差相等 吧。均值和方差标准化到多少呢?这里先复习 点统计学知识吧,假设样本集X的均值(mean) 为m,标准差(standard deviation)为s,那么X 的“标准化变量”表示为: 而且标准化变量的数学期望为0,方差为1。 因此样本集的标准化过程(standardization)用 公式描述就是:
9
西洋棋(国际象棋)
10
西洋棋(国际象棋)规则
王:横、竖、斜都可以走,每次限走一格 后:横、竖、斜都可以走,格数不限,不能越
子 象:只能斜走,格数不限,不能越子 马:每步棋先横走或竖走一格,然后再斜走一 格,可以越子 车:横、竖都可以走,不能斜走,格数不限, 除王车易位的情况,平时不能越子 兵:只能向前直走,每次只能走一格。走第一 步时,可以走一格,也可以直进两格。
Sabrina.Y
欧几里得距离(Euclidean Distance) 标准化欧氏距离(Standardized Euclidean distance) 曼哈顿距离(Manhattan Distance) 切比雪夫距离(Chebyshev Distance) 明可夫斯基距离(Minkowski Distance) 马哈拉诺比斯距离(Mahalanobis Distance 汉明距离(Hamming Distance) 杰卡德距离(Jaccard Distance) 相关距离( Correlation Distance ) hausdorff距离 巴氏距离 Earth Mover’s distance KL距离(Kullback-Leibler) 2
氏距离可以表示一类的距离。 当p=1时,就是曼哈顿距离 当p=2时,就是欧氏距离 当p→∞时,就是切比雪夫距离
22
(2)明氏距离的缺点 明氏距离,包括曼哈顿距离、欧氏距离和切比
雪夫距离都存在明显的缺点。 举个例子:二维样本(身高,体重),其中身高范 围是150~190,体重范围是50~60,有三个样本: a(180,50),b(190,50),c(180,60)。那么a与b 之间的明氏距离(无论是曼哈顿距离、欧氏距 离或切比雪夫距离)等于a与c之间的明氏距离, 但是身高的10cm真的等价于体重的10kg么?因 此用明氏距离来衡量这些样本间的相似度很有 问题。

又称欧式距离,欧氏距离是最易于理解的一种距离 计算方法,源自欧氏空间中两点间的距离公式。 先设定我们要比较X个体和Y个体间的差异,它们都 包含了N个维的特征,即X=(x1, x2, x3, … xn),Y=(y1, y2, y3, … yn)。 因为计算是基于各维度特征的绝对数值,所以欧氏 度量需要保证各维度指标在相同的刻度级别,比如 对身高(cm)和体重(kg)两个单位不同的指标 使用欧式距离可能使结果失效。 对于距离度量,距点(x,y)的距离小于或等于某一 值r的像素是中心在(x,y)且半径为r的圆平面。
8
(2)Matlab计算标准化欧氏距离 例子:计算向量(0,0)、(1,0)、(0,2)两两间的标
准化欧氏距离 (假设两个分量的标准差分别为 0.5和1) X = [0 0 ; 1 0 ; 0 2] D = pdist(X, 'seuclidean',[0.5,1]) 结果: D = 2.0000 2.0000 2.8284

14
在西洋棋里,车(城堡)是以曼哈顿距离来计
算棋盘 格上的距离;而王(国王)与后(皇后) 使用切比雪夫距离,象(主教)则是用转了45 度的曼哈顿距离来算(在同色的格子上),也 就是说它以斜线为行走路径。只有国王需要一 步一步走的方式移动,皇后、主教与城堡可以 在一或两次移动走到任何一格(在没有阻碍物 的情况下,且主教忽略它不能走到的另一类颜 色)。
20
又称明氏距离,或闵式距离 明氏距离是欧氏距离的推广,是对多个距离度
量公式的概括性的表述。 明氏距离不是一种距离,而是一组距离的定义。
21
(1)
明氏距离的定义 两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的明可夫斯基距离定义为:
其中p是一个变参数。根据变参数的不同,闵
15
(1)二维平面两点a(x1,y1)与b(x2,y2)间的曼哈
顿距离
(2)两个n维向量a(x11,x12,…,x1n)与
b(x21,x22,…,x2n)间的曼哈顿距离

16
(3)
Matlab计算曼哈顿距离 例子:计算向量(0,0)、(1,0)、(0,2)两两间的曼 哈顿距离 X = [0 0 ; 1 0 ; 0 2] D = pdist(X, 'cityblock') 结果: D = 1 2 3
23
简单说来,明氏距离的缺点主要有两个: (1)将各个分量的量纲(scale),也就是“单位”
当作相同的看待了。 (2)没有考虑各个分量的分布(期望,方差等) 可能是不同的。
相关文档
最新文档