MapReduce框架下的贝叶斯文本分类学习研究

合集下载

文本分类模型的对比与优化

文本分类模型的对比与优化

文本分类模型的对比与优化首先,文本分类是自然语言处理中的一种重要任务。

常见的文本分类应用有情感分析、垃圾邮件过滤、新闻分类等。

基于机器学习的方法已经被广泛应用于文本分类任务,并取得了令人瞩目的效果。

然而,不同的文本分类模型之间存在着巨大的差异性,不同的参数设置也会影响模型的性能。

一、常用的文本分类模型在文本分类任务中,最常用的模型是朴素贝叶斯算法、支持向量机和神经网络。

其中朴素贝叶斯算法是一种基于贝叶斯定理和条件独立假设的分类方法,具有学习速度快、分类效果好等优点,但它也有明显的缺点,就是对于复杂的数据结构和相互依存的特征很难处理。

支持向量机是一种基于最大间隔的方法,通过寻找一个超平面,将不同类别之间的距离最大化,具有较高的准确性和泛化能力。

神经网络是一种模拟人脑神经元工作的模型,通过各种神经元之间的连接实现分类,具有强大的非线性建模能力,但训练效率较低,需要大量的计算资源。

二、模型优化和对比在实际应用中,我们往往会对文本分类模型进行优化和对比,以达到更好的分类效果。

常用的模型优化方法包括特征选择、模型选择、参数调优等。

特征选择是指从原始数据中选择与分类任务相关的特征,去除无效和冗余的特征,以减少模型复杂度和提高分类效率。

模型选择是指从多个不同的模型中选择最适合当前任务的模型,以确保最终分类的准确性和泛化能力。

参数调优是指对模型中的参数进行调整,以使得模型更加符合实际数据分布和分类任务要求。

模型对比是指对不同的文本分类模型进行对比分析,以确定最适合当前任务的模型。

常用的对比方法包括精度、召回率、ROC 曲线等。

精度是指分类器正确分类的样本数占总样本数的比例,召回率是指分类器正确识别为正类的样本数在实际正类样本数中的比例。

ROC曲线则是绘制分类器不同负例阈值下的真正例率和假正例率之间的关系曲线,可以直观地表示分类器的效果好坏和阈值的选择。

三、模型应用和未来发展文本分类模型在很多实际应用中都有广泛的应用,包括情感分析、垃圾邮件过滤、新闻分类等。

基于包含监督和无监督学习的中文文本分类研究

基于包含监督和无监督学习的中文文本分类研究

基于包含监督和无监督学习的中文文本分类研究文本分类是一种非常重要的任务,它能够帮助人们更好地理解和利用大量的文本数据。

在不同领域中,关于文本分类的研究也不断地深入进行着。

而在中文文本分类方面的研究,又会面临着一些特殊的挑战。

因此,基于包含监督和无监督学习的中文文本分类研究就成为了当下的热门话题之一。

一、中文文本分类面临的挑战对于中文文本分类来说,最大的挑战之一就是中文的语言复杂性。

相对于英语这样的拉丁语言,中文的词汇和语法更加复杂。

例如,中文中的一个词汇可以有多种不同的义项,而且这些义项可能还存在一些隐含的关联。

这就为中文文本分类带来了极大的难度。

此外,中文文本还存在着一些结构上的特殊性。

例如,在中文中,词语之间没有明显的分隔符,因此词语切分就成为了一个非常困难的问题。

这也给中文文本分类增加了一定的难度。

二、监督学习在中文文本分类中的应用监督学习是最为常用的一种机器学习方法,同样也是中文文本分类中常用的一种方法之一。

监督学习可以通过训练样本对中文文本进行分类。

其中,训练样本是由标注好的文本构成的,可以根据这些样本来训练分类器。

分类器利用训练集生成一个模型,然后使用该模型对新的文本进行分类。

在监督学习中,朴素贝叶斯分类器是一种常用的方法。

它是基于贝叶斯定理的一种统计分类方法,能够较准确地预测文本分类结果。

除此之外,支持向量机(SVM)也是一种非常有效的监督学习分类器。

三、无监督学习在中文文本分类中的应用与监督学习不同,无监督学习是一种无需事先指定标签的机器学习方法。

它可以对未标记的文本数据进行分类。

与监督学习相比,无监督学习有着更大的应用领域,能够处理更多的数据类型。

在中文文本分类中,无监督学习同样也有很多应用。

其中,聚类是一种常用的无监督学习方法。

聚类的目标是将相似的文本分组,以便于进一步的分析。

常用的聚类算法有层次聚类、K-Means 聚类等。

四、如何结合监督和无监督学习?监督学习和无监督学习都有着各自的优缺点。

机器学习之贝叶斯算法原理及实现详解

机器学习之贝叶斯算法原理及实现详解

机器学习之贝叶斯算法原理及实现详解贝叶斯算法是一种基于概率统计的机器学习算法,能够在给定特征和目标变量的情况下,对未知样本进行分类或预测。

它基于贝叶斯定理和条件独立性假设,通过计算后验概率来进行决策。

贝叶斯定理是概率论中的一个重要定理,用于计算在给定其中一事件发生的条件下,另一事件发生的概率。

设A和B是两个事件,P(A)和P(B)分别表示它们独立发生的概率,P(A,B)表示在事件B发生的条件下事件A发生的概率,则贝叶斯定理可以表示为:P(A,B)=P(B,A)*P(A)/P(B)其中,P(B,A)是条件概率,表示在事件A发生的条件下事件B发生的概率。

P(A,B)是后验概率,表示在事件B发生的条件下事件A发生的概率。

P(A)是先验概率,表示事件A在考虑事件B前的概率。

P(B)是归一化常量,用于确保概率总和为1在贝叶斯分类中,我们将训练数据集表示为{(x1, y1), (x2,y2), ..., (xn, yn)},其中xi是特征向量,yi是对应的目标变量。

目标是根据已知的特征向量x,对新的样本进行分类,即找到一个最优的类别y。

根据贝叶斯定理,我们可以将问题转化为计算后验概率P(y,x),即在给定特征x的情况下,类别y发生的概率。

为了实现这一点,我们需要对类别y进行建模。

贝叶斯算法的核心思想是条件独立性假设,即假设每个特征在给定类别情况下是独立的。

基于这一假设,我们可以将后验概率P(y,x)表示为每个特征的条件概率的乘积。

P(y,x) ∝ P(y) * P(x,y) = P(y) * P(x1,y) * P(x2,y) * ... * P(xn,y)其中,P(y)是先验概率,表示在没有任何特征信息的情况下,类别y发生的概率。

P(xi,y)是条件概率,表示在类别y的条件下,特征xi发生的概率。

实现贝叶斯算法的关键是构建条件概率模型,即统计训练数据集中每个特征在不同类别下的概率分布。

对于离散特征,可以通过计算每个特征值的频率来估计概率。

利用多项式分布朴素贝叶斯实现文本分类.

利用多项式分布朴素贝叶斯实现文本分类.

利用多项式分布朴素贝叶斯实现文本分类.
多项式分布朴素贝叶斯是一种常用的文本分类算法,它假设不同特征之间相互独立,并且特征的分布服从多项式分布。

具体实现步骤如下:
1. 数据预处理:对原始文本数据进行清洗、分词和去除停用词等处理。

2. 特征提取:根据需要选择适当的特征表示方法,常见的有词袋模型(Bag-of-Words)和TF-IDF等。

3. 特征向量化:将文本特征转换为数值向量,可以使用词向量表示方法(如Word2Vec、GloVe等)或者One-hot编码等。

4. 标签编码:将分类标签进行编码,通常使用One-hot编码或整数编码。

5. 训练模型:使用训练数据构建多项式分布朴素贝叶斯模型,并根据特征向量和标签训练模型参数。

6. 预测分类:使用训练好的模型对新的文本进行分类预测,计算每个类别的概率,并选择概率最大的类别作为预测结果。

需要注意的是,在实际应用中,除了多项式分布朴素贝叶斯,还有其他一些文本分类算法,如基于卷积神经网络(CNN)和循环神经网络(RNN)等。

具体选择哪种算法取决于数据集的特点和实际需求。

机器学习技术中的贝叶斯算法详解

机器学习技术中的贝叶斯算法详解

机器学习技术中的贝叶斯算法详解贝叶斯算法,又称贝叶斯分类器,是基于贝叶斯定理的一种机器学习算法。

它通过假设输入和输出之间存在一定的概率模型,利用贝叶斯定理推断输入与输出之间的关系,从而进行分类和预测。

贝叶斯算法在文本分类、垃圾邮件过滤、推荐系统等领域广泛应用,并且在处理小样本情况下有很好的效果。

贝叶斯定理是指在已知事件B发生的条件下,事件A发生的概率可以通过P(A|B) = P(B|A) * P(A) / P(B)来计算。

其中,P(A)和P(B)分别表示事件A和B的概率,P(B|A)表示在A发生的条件下B发生的概率。

在机器学习中,我们可以将事件A看作是输入数据,事件B看作是输出的分类结果。

贝叶斯分类器的核心思想是通过训练样本学习先验概率和条件概率,从而得到分类模型。

在分类阶段,通过计算输入数据属于每个类别的后验概率,并选择后验概率最高的类别作为输出结果。

为了简化计算,贝叶斯分类器引入了朴素贝叶斯假设,即假设输入数据的各个特征之间是相互独立的。

这一假设使得条件概率的计算变得简单,大大减少了计算复杂度。

在训练阶段,贝叶斯分类器通过统计训练集中各个类别的先验概率和各个特征的条件概率来建立模型。

先验概率指的是在不考虑输入特征的情况下,一个样本属于某个类别的概率。

条件概率指的是在已知某个类别的条件下,输入数据中某个特征取某个值的概率。

通过统计训练集中不同类别的样本数和各个特征取值的频数,可以计算得出这些概率。

在分类阶段,对于一个输入数据,贝叶斯分类器首先计算输入数据属于每个类别的后验概率。

根据朴素贝叶斯假设,后验概率可以通过先验概率和各个特征的条件概率的乘积来计算。

最后,选择后验概率最高的类别作为输出结果。

需要注意的是,为了避免概率值过小而引起的下溢问题,通常会采用对数概率进行计算。

贝叶斯算法具有以下几个优点。

首先,它能够处理小样本情况下的分类问题,因为它通过统计样本中的频率来计算概率,不需要依赖于大量的训练数据。

朴素贝叶斯英文文本分类流程

朴素贝叶斯英文文本分类流程

朴素贝叶斯英文文本分类流程
朴素贝叶斯分类器是一种常用的基于概率统计的文本分类方法。

其英文文本分类流程如下:
1. 收集和准备数据集:准备用于训练和测试的英文文本数据集。

这些文本数据应该经过标记或分类,以便作为训练样本。

2. 数据预处理:对收集到的英文文本数据进行预处理,包括去除停用词(如a, an, the等),标点符号,数字和特殊字符等。

还可以进行词干提取或词形还原,将单词转换成其基本形式。

3. 特征提取:将每个文本样本转化为特征向量表示,常用的方法有词袋模型(bag-of-words model)或者TF-IDF(Term Frequency-Inverse Document Frequency)。

4. 训练模型:使用训练数据集,利用朴素贝叶斯分类算法进行模型训练。

该算法假设所有特征都是条件独立的,利用贝叶斯定理计算每个类别的概率分布。

5. 预测和评估:使用训练好的模型对新的未知文本进行分类预测。

根据预测结果与实际类别的比较,评估模型的性能,常用的评估指标包括精确度(Precision)、召回率(Recall)和F1值。

6. 模型调优:根据评估结果,根据需要调整模型的参数,如平滑参数(smoothing parameter)等,重新进行训练和评估。

7. 应用模型:根据经过调优的模型,可以对新的未知文本进行实时分类预测,例如对新闻文章进行分类,垃圾邮件过滤等。

总结:朴素贝叶斯分类器通过计算文本中每个特征的概率,利用贝叶斯公式进行分类预测。

其流程包括数据收集和准备,数据预处理,特征提取,模型训练,预测和评估,模型调优以及应用模型等步骤。

基于神经网络与贝叶斯的混合文本分类研究

公式 :
斯 方 法 ( a e ae)决 策树 方 法 ( eio r ) N i ys 、 vB D c i T e 等等 。S M 虽 sn e V
然 比其 它 算 法 表 现 出 良好 的 分 类 精 度 ‘ , 是 其 训 练 时 间 很 2 但 J 长 , 且基 本 S M 是 针 对 两类 分 类 问题 , 了实 现 对 多类 问题 而 V 为 的分类 识 别 , 要对 S M进 行 推广 ‘ ; 需 V 3 简单 向量 距 离 分类 法 具 有 算法 简 单 、 分类 速 度 快 等 特 点 , 是 过 于依 赖 经 过 平 均 运算 但
分类 体 系下 , 计 算 机 根 据 文 本 的 内容 确 定 与 它 相 关 联 的 类 让
别 。文 本分 类 在搜 索 引 擎 、 e 分 类 管 理 、 子 邮 件 自动 分 W b页 电
类 、 息 过 滤等 方 面 都具 有 极 高 的应 用 价值 。 信
目前 已经有 许多 方 法应 用 于 文 本 分 类 , 支 持 向量 机 方 法 如 ( v )、 SM 简单 向量 距 离 分 类 法 、 近 邻 方 法 ( N 、 素 贝 叶 K K N) 朴
度和分类速度得到提 高。
关 键 词 文 本 分 类 B P神 经 P 络 t
朴素 贝叶 斯 隐性 语 义 索 引
1 引 言
信 息 技术 的 高速 发 展 , 人 们 带 人 信 息 社 会 。 随 着信 息 管 将
理 技术 的 应用 , 累 了 大 量 的数 据 , 海 量 数 据 的 自动 分 类 和 积 对 管理 方 法 , 为数 据 挖 掘 的 一 个 重 要 任 务 , 中文 本 ( 网 页 , 成 其 或 的 自动 分是 在 给 定 的

如何使用机器学习技术进行文本分类分析

如何使用机器学习技术进行文本分类分析文本分类分析是机器学习中一个重要的任务,它能够将大量的文本数据自动分类到预定义的一组类别中。

通过正确地进行文本分类分析,我们可以更好地理解和组织文本数据,提取有价值的信息,从而支持信息检索、舆情分析、情感分析等实际应用。

下面将介绍一种基于机器学习技术的文本分类分析方法。

首先,文本分类分析的第一步是数据预处理。

这包括文本数据的清洗、标记化和特征提取。

清洗阶段主要是去除文本中的噪声,例如HTML标签、特殊符号等。

标记化阶段将文本划分为单词或短语,并将它们转换为数字表示形式,以便机器学习模型可以处理。

特征提取阶段是为每个文本样本提取一组特征,用于表示其内容。

常用的特征提取方法包括词袋模型、TF-IDF模型和word2vec模型。

接下来,选择合适的机器学习算法来构建文本分类模型。

常用的机器学习算法包括朴素贝叶斯算法、支持向量机算法、决策树算法和深度神经网络算法。

对于文本分类任务,朴素贝叶斯算法是一个简单但有效的选择。

它基于贝叶斯定理,通过计算文本样本在给定类别下的条件概率来判断其属于哪个类别。

支持向量机算法和深度神经网络算法在一些复杂的文本分类任务中也取得了很好的效果。

在训练文本分类模型之前,我们需要将数据集划分为训练集和测试集。

训练集用于训练模型的参数,而测试集用于评估模型的性能。

通常,我们可以将数据集按照7:3或8:2的比例划分为训练集和测试集。

在划分数据集的过程中,要注意保持各个类别在训练集和测试集中的比例相对平衡,以避免训练集和测试集之间的类别偏差。

训练文本分类模型后,我们可以使用测试集评估模型的性能。

常用的评估指标包括准确率、精确率、召回率和F1值。

准确率表示模型正确分类的样本在总样本数中所占的比例,精确率表示模型判定为正类的样本中真正属于正类的比例,召回率表示真正属于正类的样本中被模型判定为正类的比例,F1值则综合考虑了精确率和召回率。

通过评估模型的性能,我们可以对模型进行改进。

基于MapReduce的贝叶斯垃圾邮件过滤机制_陶永才


第9 期
陶永才等: 基于 MapReduce 的贝叶斯垃圾邮件过滤机制
2413
时也不会出现侵犯隐私权的法律风险。行为识别技术是一个 比较新的课题,容易误判和漏判,还有待于进行进一步的理论 完善和技术实现。
3) 基于内容的过滤技术是通过引入文本分类和信息过 滤技术,实现对垃圾邮件的过滤。它可以自动获取垃圾邮件 的特征,并跟踪其变化,从而准确地进行垃圾邮件过滤。基于 内容的过滤技术可分为基于规则的内容过滤技术和基于统计 学习的内容过滤技术。
针对传统贝叶斯过滤器前期邮件集训练与学习耗用大量 系统资源 和 网 络 资 源,降 低 系 统 性 能,本 文 提 出 一 种 基 于 MapReduce 的贝叶斯垃圾邮件过滤机制,一方面对传统贝叶
斯邮件过滤算法进行改进,降低贝叶斯算法在邮件过滤分类 时的复杂性; 另一方面引进 MapReduce 技术,利用其对海量 数据处理的优势,缩短邮件学习和分类过程,从而提高垃圾邮 件过滤性能。实 验 表 明,较 之 目 前 流 行 的 传 统 贝 叶 斯 算 法、 K 最近 邻 ( K-Nearest Neighbor,KNN ) 算 法 和 支 持 向 量 机 ( Support Vector Machine,SVM) 算法,基于 MapReduce 的贝叶 斯垃圾邮件过滤机制在邮件召回率、查准率和精确率方面保 持了较好的表现,同时降低了邮件学习和分类成本,提高了系 统的执行效率。
基于 MapReduce 的贝叶斯垃圾邮件过滤机制
陶永才,薛正元,石 磊
( 郑州大学 信息工程学院,郑州 450001) ( ieyctao@ zzu. edu. cn)
摘 要: 贝叶斯邮件过滤器具有较强的分类能力和较高的准确性,但前期的邮件集训练与学习耗用大量系统资 源和网络资源,影响系统效率。提出一种基于 MapReduce 技术的贝叶斯垃圾邮件过滤机制,一方面对传统贝叶斯过 滤技术进行改进,另一方面利用 MapReduce 模型的海量数据处理优势优化邮件集训练与学习。实验表明,较之目前 流行的传统贝叶斯算法、K 最近邻( KNN) 算法和支持向量机( SVM) 算法,基于 MapReduce 的贝叶斯垃圾邮件过滤机 制在召回率、查准率和精确率方面保持了较好的表现,同时降低了邮件学习和分类成本,提高了系统执行效率。

自然语言处理中的文本分类方法

自然语言处理中的文本分类方法文本分类是自然语言处理(NLP)中的一个重要任务,其目标是将文本按照预定义的类别进行分类。

文本分类方法在信息检索、情感分析、垃圾邮件过滤等应用中被广泛使用。

本文将介绍自然语言处理中常用的文本分类方法,并对它们的原理及应用进行讨论。

一、传统的文本分类方法1. 词袋模型(Bag-of-words Model)词袋模型是文本分类中最基本的方法之一。

它将文本视为一组词的集合,忽略了词序和语法结构,只关注词汇的出现频率。

在词袋模型中,每个文本都表示为一个向量,向量的每个维度对应一个词,该维度的取值表示该词在文本中出现的次数或权重。

常用的表示方式包括词频(Term Frequency,TF)和词频-逆文档频率(Term Frequency-Inverse Document Frequency,TF-IDF)等。

2. 统计机器学习方法传统的文本分类方法中,统计机器学习方法是应用最广泛的一类。

其中,朴素贝叶斯分类器是常用的一种方法。

朴素贝叶斯分类器基于贝叶斯定理和特征条件独立假设进行分类。

它通过统计训练集中每个类别的先验概率和每个特征在各个类别中的条件概率来计算后验概率,从而实现文本分类。

3. 基于特征工程的方法特征工程是文本分类中非常重要的一环,它通过挖掘文本的各种特征来提取有效的信息。

特征工程可以包括词语级别的特征(如词频、TF-IDF),句子级别的特征(如句子长度、词性标注)、语义特征(如词义、主题模型)等。

通过将这些特征进行组合或权重调整,可以得到更好的文本表示,提高文本分类效果。

二、深度学习方法在文本分类中的应用深度学习方法近年来在文本分类任务中取得了显著的成果。

以下是几种常见的深度学习方法:1. 卷积神经网络(Convolutional Neural Network,CNN)CNN在计算机视觉领域取得了巨大成功,它也被广泛应用于文本分类任务。

通过使用卷积核进行特征提取,CNN可以学习到文本局部和全局的特征。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

MapReduce框架下的贝叶斯文本分类学习研究
【摘要】:文本分类是信息检索与文本挖掘的重要基础。

目前,虽然很多文本分类算法都成功地应用在各个领域,但单一文本分类算法容易导致构造的分类器分类性能差、泛化能力弱。

集成学习算法利用多个单分类器之间的差异,有效地改善了分类器的性能和泛化能力。

然而,随着网络数据规模的急剧增长,传统的集中式系统框架难以满足集成学习和海量文本数据分析处理要求的存储空间和计算能力。

并行计算的出现使大规模文本数据集的集成分类学习成为可能。

Google 的MapReduce并行编程模型抽象度高,它封装了并行处理底层的细节问题,为程序员设计及编写并行程序提供了简易的编程框架。

本文通过分析朴素贝叶斯的可加性,设计了基于MapReduce并行编程模型的TFIDF改进的贝叶斯文本分类算法,该算法利用五个MapReduce 作业完成分类器的训练和测试部分。

在Hadoop分布式平台上的实验表明该算法构造的分类器具有高数据容量、高效性和高性能的特点。

进而通过对集成文本学习算法进行研究,结合Bagging算法的并行特点,提出了基于MapReduce的贝叶斯集成文本分类器。

该分类器的训练首先用随机属性选择构建训练子集的方法破坏了朴素贝叶斯的稳定性,其次利用MapReduce框架下的贝叶斯文本分类算法作为基分类器对训练子集进行学习,并行地产生多个基分类器。

分类器的测试包括利用各个基分类器并行产生中间结果和对中间结果进行不加权投票得出最终结果两个步骤。

实验结果表明该算法适用于大规模文
本数据集的分类学习,同时具有高效性、准确性、高可靠性和易扩展性的优点。

【关键词】:文本分类集成学习MapReduce朴素贝叶斯Hadoop
【学位授予单位】:山西财经大学
【学位级别】:硕士
【学位授予年份】:2012
【分类号】:TP391.1
【目录】:摘要6-7Abstract7-111绪论11-161.1研究背景及意义11-121.2国内外研究现状12-141.2.1文本分类研究现状12-131.2.2并行计算研究现状13-141.3论文的主要工作及创新14-151.4论文的组织结构15-162文本分类相关知识16-252.1文本分类过程16-182.1.1文本分类定义162.1.2文本分类过程16-172.1.3文本分类应用17-182.2文本分类算法18-222.2.1朴素贝叶斯18-202.2.2支持向量机20-212.2.3Rocchio算法21-222.3文本集成学习算法22-242.3.1基于Boosting的集成文本学习22-232.3.2基于Bagging的集成文本学习23-242.4本章小结24-253MapReduce相关技术25-333.1MapReduce编程模型25-263.1.1MapReduce概述253.1.2MapReduce编程模型25-263.2MapReduce执行流程26-273.3MapReduce实现平台27-323.3.1Hadoop系统概述27-283.3.2Hadoop分布式文件系统
HDFS283.3.3HDFS体系结构28-313.3.4HDFS的设计目标31-323.4本章小结32-334基于MapReduce的贝叶斯文本分类器33-444.1朴素贝叶斯算法的可加性334.2朴素贝叶斯文本分类算法改进33-344.3基于MapReduce的贝叶斯文本分类算法34-374.3.1IDNB分类器训练35-374.3.2IDNB分类器测试374.3.3算法复杂度分析374.4实验和实验结果37-434.4.1实验环境37-414.4.2实验数据414.4.3实验结果与分析41-434.5本章小结43-445基于MapReduce的贝叶斯集成文本分类器44-515.1贝叶斯集成文本分类44-455.2基于MapReduce的贝叶斯集成文本分类算法45-465.2.1基本思路45-465.2.2Bagging_IDNB算法465.2.3算法复杂度分析465.3实验和实验结果46-505.3.1实验环境与数据46-475.3.2训练集与测试集的生成475.3.3实验结果与分析47-505.4本章小结50-51结论51-52参考文献52-56致谢56-57攻读硕士学位期间发表的论文57-58 本论文购买请联系页眉网站。

相关文档
最新文档