先进模式识别(II) - 聚类分析和弱监督学习

合集下载

弱监督学习中的半监督聚类技术探讨(十)

弱监督学习中的半监督聚类技术探讨(十)

弱监督学习中的半监督聚类技术探讨在机器学习领域,监督学习和无监督学习是两种常见的学习方式。

而在实际应用中,由于数据标注的成本和难度,弱监督学习逐渐成为研究的热点之一。

弱监督学习包括半监督学习和弱标签学习,其中半监督学习是指利用少量有标签数据和大量无标签数据进行学习,是一种介于监督学习和无监督学习之间的学习方式。

而聚类技术是无监督学习中的重要方法,因此在弱监督学习中,半监督聚类技术的研究也备受关注。

半监督聚类技术的研究意义重大。

在实际应用中,往往存在大量的无标签数据和少量的有标签数据,而半监督聚类技术可以充分利用这些数据,提高聚类的准确性。

另外,半监督聚类技术也可以应用于领域适应和迁移学习等任务中,具有广泛的应用前景。

首先,半监督聚类技术的研究需要解决的问题是如何利用少量的有标签数据和大量的无标签数据来提高聚类的准确性。

传统的无监督聚类算法如k-means等往往只能利用无标签数据进行聚类,而半监督聚类技术则可以通过结合有标签数据和无标签数据,来优化聚类结果。

目前,关于半监督聚类技术的研究主要集中在两个方面:一是基于图的半监督聚类方法,二是基于分布的半监督聚类方法。

基于图的半监督聚类方法是一种常见的方法。

该方法通过构建数据样本之间的图结构,然后利用有标签数据的信息来指导无标签数据的聚类。

其中,标签传播算法和谱聚类算法是两种经典的基于图的半监督聚类方法。

标签传播算法通过在图上迭代地传播标签信息,来实现聚类的目的。

而谱聚类算法则是通过对数据样本之间的相似度矩阵进行特征分解,然后利用特征向量来进行聚类。

这两种方法都能有效地利用有标签数据的信息来指导聚类过程,从而提高聚类的准确性。

另一种常见的半监督聚类方法是基于分布的方法。

该方法假设数据样本的分布在低维空间中是光滑的,即相似的样本在原始空间中也是相似的。

基于这一假设,该方法通过最大化有标签数据的信息熵和最小化无标签数据的熵来进行聚类。

这种方法在理论上具有一定的优势,能够更好地利用数据样本的分布信息来进行聚类。

弱监督学习中的半监督聚类技术探讨(五)

弱监督学习中的半监督聚类技术探讨(五)

弱监督学习中的半监督聚类技术探讨弱监督学习是一种基于有限标注信息的学习方法,它通常能够从未标注的数据中学到更多的信息。

半监督聚类技术则是弱监督学习的一种重要应用,它旨在从具有部分标注信息的数据中挖掘出隐藏的类别结构。

本文将探讨弱监督学习中的半监督聚类技术及其在现实生活中的应用。

首先,弱监督学习中的半监督聚类技术是如何工作的呢?在传统的监督学习中,我们需要大量标记好的数据来训练模型,但是这种方法在现实中往往并不现实。

半监督聚类技术则可以利用少量的标注数据和大量的未标注数据来挖掘数据的内在结构。

例如,我们可以通过一些专家标注的数据来指导聚类算法,然后利用未标注的数据来进一步优化聚类结果,从而发现数据中的潜在类别结构。

其次,半监督聚类技术在现实生活中有着广泛的应用。

例如,在医学影像分析中,我们可以利用少量的医生标注的数据来指导聚类算法,然后对大量的未标注影像数据进行聚类,从而发现不同疾病类型的特征。

又如,在社交网络分析中,我们可以利用一些已知的社交关系来指导聚类算法,然后对未知的用户数据进行聚类,从而发现不同的社交群体。

这些应用都充分展示了半监督聚类技术在现实中的重要性和价值。

最后,虽然半监督聚类技术在实际应用中有着广泛的应用前景,但是在实际使用过程中也存在一些挑战。

例如,如何选择合适的标注数据来指导聚类算法,如何充分利用未标注数据来提高聚类效果,以及如何评估半监督聚类算法的性能等问题都是当前研究中的热点和难点。

因此,未来的研究方向将主要集中在这些问题上,以进一步提高半监督聚类技术的效果和性能。

综上所述,弱监督学习中的半监督聚类技术是一种重要的学习方法,它可以充分利用有限的标注信息来挖掘未标注数据的内在结构。

在实际应用中,半监督聚类技术有着广泛的应用前景,但是在实际使用过程中也存在一些挑战。

未来的研究将主要集中在解决这些挑战上,以进一步提高半监督聚类技术的效果和性能。

弱监督学习中的半监督聚类技术将会在未来的数据挖掘和机器学习应用中发挥越来越重要的作用。

如何利用弱监督学习解决实际问题(五)

如何利用弱监督学习解决实际问题(五)

在传统的监督学习中,通常需要大量标记好的数据来训练模型,这在很多实际问题中是不切实际的。

然而,随着弱监督学习的发展,我们可以更好地利用未标记的数据来解决实际问题。

本文将讨论如何利用弱监督学习解决实际问题,并且探讨一些实际案例。

首先,我们需要了解什么是弱监督学习。

弱监督学习是指在训练过程中只使用了部分标记数据,或者使用了不太准确的标记数据来训练模型。

这种方法的优势在于可以减少标记数据的需求,提高了模型的可扩展性。

常见的弱监督学习方法包括多标签学习、半监督学习、迁移学习等。

在实际问题中,弱监督学习可以帮助我们更好地利用数据来解决一些难题。

比如在医学影像识别领域,获取大量高质量的标记数据是一件非常困难的事情。

而利用弱监督学习方法,我们可以通过少量标记数据和大量未标记数据来训练模型,从而实现更精准的识别。

在这种情况下,半监督学习和迁移学习是常用的方法,它们可以利用未标记的数据来提高模型的泛化能力。

另一个实际问题是情感分析。

在这个任务中,我们需要将文本或者语音数据分为积极、消极或中性等不同情感类别。

然而,获取大量准确标记的数据是非常困难的。

利用弱监督学习方法,我们可以通过利用带有情感标签的数据和未标记的数据来训练模型,从而实现更精准的情感分析。

多标签学习和迁移学习可以帮助我们更好地利用未标记的数据,提高模型的性能。

除了医学影像识别和情感分析,弱监督学习还可以应用在很多其他实际问题中。

比如在金融领域,利用弱监督学习方法可以更好地发现异常交易;在工业领域,可以利用弱监督学习方法来提高产品质量检测的准确率。

总的来说,弱监督学习可以帮助我们更好地利用未标记的数据,来解决一些实际问题。

当然,弱监督学习也存在一些挑战。

比如如何有效地利用未标记的数据来提高模型性能,如何处理不准确标记数据等。

在实际应用中,我们需要综合考虑数据质量、任务复杂度、模型选择等因素,来选择合适的弱监督学习方法。

此外,还需要结合领域知识和专业经验,来更好地利用弱监督学习方法解决实际问题。

机器学习中的非监督学习方法与应用案例(四)

机器学习中的非监督学习方法与应用案例(四)

机器学习中的非监督学习方法与应用案例机器学习在近年来得到了广泛的应用与发展,其中非监督学习方法作为机器学习的一大分支,在各个领域中也发挥着重要作用。

非监督学习是指在训练数据中并不需要给出标签或者结果,而是通过算法自行学习数据的特征和结构,从而实现对数据的分类、聚类、降维等操作。

本文将介绍一些常见的非监督学习方法以及它们在实际应用中的案例。

一、聚类分析聚类分析是非监督学习中最常见的方法之一,它的目标是将数据集中具有相似特征的样本进行归类。

在聚类分析中,常用的算法包括k均值聚类、层次聚类、DBSCAN等。

以k均值聚类为例,该算法通过不断迭代的方式将样本分为k个簇,使得每个样本都属于其中一个簇,并且使得同一簇内的样本相似度尽可能高,不同簇之间的样本相似度尽可能低。

聚类分析在生物学、市场营销、社交网络等领域都有着广泛的应用。

例如,在生物学中,可以利用聚类分析对基因进行分类,从而找出不同基因之间的关联性;在市场营销中,可以利用聚类分析对顾客进行分群,从而实现定制化营销策略;在社交网络中,可以利用聚类分析对用户进行分类,从而推荐不同的社交圈子和好友。

二、降维算法降维算法是非监督学习中另一个重要的方法,它的目标是在保留数据中的重要特征的同时,减少数据的维度。

在实际应用中,高维数据往往会带来计算复杂度的增加和模型泛化能力的下降,因此降维算法的应用具有重要意义。

常见的降维算法包括主成分分析(PCA)、t分布邻域嵌入(t-SNE)等。

以PCA为例,该算法通过线性变换的方式将原始数据转换为一组新的特征空间,使得新特征空间中的样本具有最大的方差。

通过PCA降维,可以减少数据的维度,同时保留大部分的信息。

降维算法在图像处理、自然语言处理、金融风控等领域都有着广泛的应用。

例如,在图像处理中,可以利用降维算法对图像特征进行提取,从而实现图像的压缩和分类;在金融风控中,可以利用降维算法对用户的行为特征进行提取,从而实现风险评估和欺诈检测。

弱监督学习中的半监督聚类方法详解(九)

弱监督学习中的半监督聚类方法详解(九)

弱监督学习中的半监督聚类方法详解在机器学习领域,监督学习和无监督学习是两个基本的学习方法。

然而,在实际应用中,很多时候我们既无法获得完全标记的数据,也无法进行完全无监督的学习。

这就使得半监督学习方法变得尤为重要。

而半监督聚类方法则是半监督学习中的一个重要分支,它兼具了监督学习和无监督学习的特点,能够更好地应用于现实场景中。

本文将详细介绍弱监督学习中的半监督聚类方法。

一、弱监督学习简介弱监督学习是指数据集中只有部分样本有标签,而另外大部分样本没有标签的学习任务。

这种学习方式往往能够更好地应用于真实场景中,因为获取大量标记数据是非常昂贵且耗时的。

因此,弱监督学习的发展备受关注,也成为了机器学习领域的研究热点之一。

二、半监督学习与聚类半监督学习是指在仅有少量标记数据的情况下,利用大量无标记数据进行学习。

而聚类是一种无监督学习方法,它的目标是将数据集中相似的样本归为一类,不同的样本归为不同的类。

半监督聚类方法很好地结合了半监督学习和聚类两种方法的优点,能够更好地利用少量标记数据和大量无标记数据进行学习。

三、基于图的半监督聚类方法基于图的半监督聚类方法是一种常见的半监督学习方法。

它的基本思想是通过构建数据样本之间的图结构,利用图的连通性来学习样本之间的分布规律。

在这种方法中,可以利用少量标记数据来指导整个图的学习过程,从而实现对无标记数据的聚类。

四、基于图的半监督聚类算法目前,有许多基于图的半监督聚类算法被广泛应用于实际问题中。

其中,一种常见的算法是基于谱聚类的方法。

该方法将数据样本构建成图的拉普拉斯矩阵,通过对拉普拉斯矩阵进行特征分解,得到图的特征向量,进而实现对样本的聚类。

在谱聚类的基础上,还有许多改进的算法,比如基于多核学习的半监督聚类方法、基于半监督降维的聚类方法等。

五、应用与展望基于图的半监督聚类方法在实际应用中取得了良好的效果,并且在文本聚类、图像聚类、生物信息学等领域都有着广泛的应用。

然而,基于图的半监督聚类方法也面临着一些挑战,比如对图的构建和参数选择的敏感性、计算效率等问题。

弱监督学习中的半监督聚类方法详解(六)

弱监督学习中的半监督聚类方法详解(六)

弱监督学习中的半监督聚类方法详解随着人工智能和机器学习的不断发展,监督学习、无监督学习和弱监督学习成为了研究的热点。

在实际问题中,数据标注成本高、标注数据不易获取等问题限制了监督学习的应用。

而无监督学习由于缺乏标注信息,难以发现潜在的数据结构和模式。

而弱监督学习则结合了监督学习和无监督学习的优点,能够利用大量的未标注数据和少量的标注数据,进行模型训练和分类。

而半监督聚类方法则是弱监督学习中的一种重要方法,能够充分利用标注数据和未标注数据,实现对数据的聚类和分类。

1. 半监督学习概述半监督学习是指利用标注数据和未标注数据进行学习的一种学习方式。

在实际问题中,标注数据往往难以获得,而未标注数据却很容易获取。

因此,半监督学习成为了解决实际问题的有效手段。

半监督学习的核心思想是利用未标注数据的分布信息和标注数据的类别信息,对数据进行分类和聚类。

2. 半监督聚类方法的基本原理半监督聚类方法是半监督学习中的一种重要方法,其基本原理是利用标注数据的类别信息和未标注数据的分布信息,实现对数据的聚类。

半监督聚类方法通常包括两个步骤:首先利用标注数据进行有监督的聚类;然后利用未标注数据的分布信息对聚类结果进行修正。

在有监督的聚类过程中,通常采用经典的聚类算法,如K均值算法、层次聚类算法等。

在对聚类结果进行修正时,通常利用半监督学习的方法,如半监督支持向量机、半监督贝叶斯网络等。

通过这种方式,可以充分利用标注数据和未标注数据,实现对数据的聚类和分类。

3. 基于图的半监督聚类方法基于图的半监督聚类方法是一种常用的半监督学习方法,其基本思想是利用数据之间的相似性构建图模型,然后利用标注数据的类别信息和未标注数据的分布信息对图模型进行修正。

在构建图模型时,通常采用数据之间的相似性作为边的权重,然后利用标注数据的类别信息作为节点的标签。

在对图模型进行修正时,可以利用半监督学习的方法,如半监督谱聚类算法、半监督传播算法等。

通过这种方式,可以充分利用标注数据和未标注数据,实现对数据的聚类和分类。

机器学习中的非监督学习方法与应用案例(Ⅱ)

机器学习中的非监督学习方法与应用案例(Ⅱ)

机器学习中的非监督学习方法与应用案例机器学习是一种通过算法和模型来使计算机系统从数据中学习的方法。

在机器学习中,监督学习和非监督学习是两种主要的学习方法。

监督学习是指通过已知输入和输出的数据来训练模型,以便模型可以预测新的输入数据对应的输出。

而非监督学习则是指在没有已知输出的情况下,从数据中发现模式和结构。

本文将重点介绍非监督学习方法以及一些应用案例。

一、非监督学习方法1. 聚类分析聚类分析是一种常见的非监督学习方法,它将数据集中的对象分成几个不同的组,使得同一组内的对象相似度较高,不同组之间的对象相似度较低。

聚类分析的目标是发现数据中的内在结构,以便更好地理解数据。

常见的聚类算法包括K均值聚类、层次聚类和DBSCAN等。

K均值聚类是一种常用的聚类算法,它将数据集中的对象分成K个不同的组,使得每个组内的对象与该组的中心点(质心)的距离最小。

2. 关联规则学习关联规则学习是一种用于发现数据集中项目之间关联关系的非监督学习方法。

它通过挖掘数据集中的频繁项集和关联规则来发现不同项目之间的相关性。

关联规则学习在市场营销、电子商务和推荐系统中有着广泛的应用。

例如,在电子商务中,可以利用关联规则学习来发现购物篮中不同商品之间的关联关系,以便进行交叉销售或者个性化推荐。

3. 主成分分析主成分分析是一种用于降维的非监督学习方法,它通过线性变换将原始数据映射到一个新的坐标系中,新坐标系中的坐标轴是原始数据中的主成分。

主成分分析可以帮助我们发现数据中的主要变化方向,从而实现对数据的降维处理。

主成分分析在数据可视化、特征提取和数据压缩中有着重要的应用。

二、非监督学习方法的应用案例1. 客户细分在市场营销中,客户细分是一项重要的工作。

通过对客户的购买行为、喜好和偏好进行分析,可以将客户分成不同的细分群体,从而更好地满足客户的需求。

非监督学习方法如聚类分析可以帮助企业对客户进行细分,发现不同群体之间的特征和差异,以制定针对性的营销策略。

如何利用弱监督学习解决实际问题

如何利用弱监督学习解决实际问题

弱监督学习是一种利用不完全标记数据进行模型训练的学习方法。

相比于传统的监督学习,弱监督学习更适用于实际问题中存在大量未标记数据的情况。

在本文中,将探讨如何利用弱监督学习解决实际问题,并介绍一些实际应用案例。

一、弱监督学习简介弱监督学习是一种训练模型的方法,其中训练数据中的标签并不完全,通常是部分标记或者嘈杂的标记。

传统的监督学习需要完全标记的数据进行训练,而在许多实际问题中,获得完全标记的数据是非常昂贵和耗时的。

因此,弱监督学习成为了解决这一问题的有效途径。

二、弱监督学习方法1. 多实例学习多实例学习是一种常见的弱监督学习方法,其特点是训练样本被组织成“袋”(bag),每个“袋”中包含多个实例。

每个袋只有一个标签,但该标签可能对应多个实例。

这种方法常用于图像分类、文本分类等领域。

2. 迁移学习迁移学习是一种利用已有知识来帮助学习新任务的方法。

在实际问题中,往往存在一些相关的数据可以用来辅助训练模型。

迁移学习可以利用这些相关数据,帮助模型更好地学习新任务。

3. 主动学习主动学习是一种半监督学习方法,它通过选择最具信息量的样本来进行标记,从而降低标记成本。

这种方法常用于文本分类、图像分类等任务。

三、实际问题中的应用1. 医学影像分析在医学影像分析中,往往存在大量未标记的影像数据。

利用弱监督学习方法,可以通过部分标记的数据来训练模型,从而实现对医学影像的自动分析和诊断。

2. 金融风险评估在金融领域,对客户的信用评估和风险评估是非常重要的。

但是往往存在大量未标记的数据。

利用弱监督学习方法,可以通过已有的部分标记数据来训练模型,实现对客户信用和风险的自动评估。

3. 情感分析在社交媒体和电商平台中,用户评论和评价的情感分析是一项重要任务。

然而,往往存在大量未标记的评论数据。

利用弱监督学习方法,可以通过部分标记的评论数据来训练模型,实现对评论情感的自动分析。

四、总结弱监督学习是一种有效的学习方法,可以很好地解决实际问题中存在的未标记数据的挑战。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

vol A vol A vol A vol A 1 1 wij wij 2 iA vol A vol A 2 iA vol A vol A jA jA vol A vol A Cut A, A * 2 vol A vol A vol V vol V Cut A, A * vol A vol A vol V NCut A, A
K-means Clustering
Distribution-based clustering

Graph-based clustering

最小割(mincut)

Normalized Cut
• MinCut算法在实践应用中很容易造成将单个样本划分为一
个子集的现象。
Normalized Cut

min f t Lf
f
约束 : Df 1 0
t
f t Df vol V
NCut的近似谱求解:k>2

1 hi , j vol Aj , vi Aj 0, vi Aj
h Dhi dt ht2,i
t i t 1
n
d vol A
聚类结果
RatioCut的近似谱求解: k>2

1 Aj , vi Aj hi , j otherwise 0,
2 1 n h Lh k wij hi ,k h j ,k 2 i , j 1 t k
1 1 1 1 wij wij Ak 2 i 2 iAk Ak Ak jAk jAk 1 Cut Ak , Ak Ak
i tAi
1
t
1
NCut的近似谱求解:k>2

n 2 1 t hi Lhi w jt h j ,i ht ,i 2 j ,t 1
w jt w jt 1 1 2 jAi vol Ai 2 jAi vol Ai Cut Ai , Ai vol Ai
A A

A 1 wij A 2 iA, jA
2
A A

A A
2
A A cut A, A 2 A A A A A A cut A, A A A V RatioCut A, A
NCut A1 ,, Ak
i 1 k
tAi
tAi
Cut Ai , Ai vol Ai
hit Lhi
i 1
k
NCut的优化问题:k>2
• 严格的优化问题:
h1 ,,h k
min
t h i Lhi i 1
k
约束:
1, i j h Dh j 0, i j
• 将19个样本分成2个聚类。
x1=(0,0)t, x5=(2,1)t, x9=(6,6)t, x13=(8,7)t, x17=(9,8)t,
x2=(1,0)t, x6=(1,2)t, x10=(7,6)t, x14=(9,7)t, x18=(8,9)t,
x3=(0,1)t, x7=(2,2)t, x11=(8,6)t, x15=(7,8)t, x19=(9,9)t
n
n
Laplacian矩阵的性质

RatioCut的近似谱求解: k=2

A A, v A i fi A A , vi A
2 1 n f Lf wij f i f j 2 i , j 1 t
1 wij 2 iA, jA
k k 1 Cut Aj , Aj htj Lh j Aj j 1
2
2
RatioCut A1 ,, Ak
j 1
RatioCut的优化问题
• 严格的优化问题:
A1 ,, Ak
min
t h j Lh j j 1
k
约束:
1, i j h hj 0, i j
t i
• 问题的解:最小k个特征值对应特征矢量。
NCut的近似谱求解:k=2

fi vol A vol A , vi A , vi A
vol A
vol A
Df
t
* 1 di fi
i 1
n
di
iA
• 严格的优化问题:
min f t Lf
AV
约束: f 1 0
t
2 f i n i 1 n
A A, v A i fi A A , vi A
• 仍然是一个NP问题。
近似的RatioCut的优化问题
• 近似的优化问题:放松对f中元素的离散性约束
min f Lf n
t i
1 Aj , vi Aj hi , j otherwise 0,
• 仍然是NP问题。
近似的RatioCut的优化问题
• 近似的优化问题:放松对h中元素的离散性约束
h1 ,,hk
min
h Lh
j 1 t j
k
j
1, i j 约束 : h h j 0, i j
i 1
di
iA
vol A vol A
di
iA
vol A
vol A
vol A vol A vol V
NCut的近似谱求解:k=2

2 1 n f Lf wij fi f j 2 i , j 1 t
聚类分析
聚类和聚类分析
• 聚类:是将数据分类到不同的类或者簇(Cluster)的过程,
使得同一个簇中的对象具有最大的相似性,不同簇间的对 象具有最大的相异性。
Connectivity based clustering
Hierarchical Clustering
Centroid-based clustering
f R
约束 : f 1, f n
• 问题的解: 对应L第2小特征值的特征矢量 • 证明:
1. 2.
不考虑正交约束,问题变成Rayleigh商的优化,解是L的最小特征值 对应的特征矢量; 最小特征值对应特征矢量为1,不满足正交条件,第2小特征值对应 特征矢量满足正交条件(L为实对称矩阵);
k=2 示例
t i
1 hi , j
vol Aj , vi Aj 0, vi Aj
NCut的近似优化问题:k>2

h1 ,,h k
min
t h i Lhi i 1
谱聚类示例
原样本分布
K均值聚类
特征值矩阵的行矢量
Laplacian矩阵的性质

f Lf f Df f Wf d i f i f i f j wij
t t t 2 i 1 i , j 1 n n 1 n 2 d i f i 2 f i f j wij d j f j2 2 i 1 i , j 1 j 1 n n 1 n 2 2 wij f i 2 f i f j wij wij f j 2 i , j 1 i , j 1 i , j 1 2 1 n wij f i f j 2 i , j 1
特征值前2个特征值对应特征矢量
-0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 -0.2294 +0.2740 +0.2728 +0.2731 +0.2715 +0.2694 +0.2699 +0.2655 +0.2553 -0.1838 -0.1920 -0.1954 -0.1953 -0.1968 -0.1978 -0.1969 -0.1977 -0.1984 -0.1985 -0.1991
vol A vol A
di
iA
vol A vol A vol A
vol A
vol A * 0
vol A vol A
vol A *
NCut的近似谱求解:k=2

n
f t Df d i f i 2

Normalized Cut

相似图和邻接矩阵
相似图:
邻接矩阵:
谱聚类算法

谱聚类示例
• 样本
(0,0), (1, 0), (0,10), (1, 10), (10,0), (11, 0), (10,10), (11, 10),
(0,1), (1,1), (0,11), (1,11), (10,1), (11,1), (10,11), (11,11)
x4= (1,1)t, x8=(3,2)t, x12= (7,7)t, x16=(8,8)t,
• 特征值
0.0000 0.0682 4.3510 5.1267 5.4904 5.9142 5.9461 6.3080 6.4175 6.4826 6.7696 6.9957 7.3704 7.6983 7.7789 7.9342 8.3716 8.6444 8.8704
相关文档
最新文档