朴素贝叶斯文本分类器
朴素贝叶斯分类器详细介绍

我们希望得到的是男性还是女性哪类的后验概率大。男性的后验概率通过下面 式子来求取
女性的后验概率通过下面式子来求取
证据因子(通常是常数)用来使各类的后验概率之和为 1.
证据因子是一个常数(在正态分布中通常是正数),所以可以忽略。接下来我 们来判定这样样本的性别。
,其中 , 是训练集样本的正态分布参数. 注意,这里 的值大于 1 也是允许的 – 这里是概率密度而不是概率,因为身高是一个连续 的变量.
可以通过将 表示为均值为
处理连续数值问题的另一种常用的技术是通 过离散化连续数值的方法。通常,当训练样本数量较少或者是精确的分布已知 时,通过概率分布的方法是一种更好的选择。在大量样本的情形下离散化的方 法表现更优,因为大量的样本可以学习到数据的分布。由于朴素贝叶斯是一种 典型的用到大量样本的方法(越大计算量的模型可以产生越高的分类精确度), 所以朴素贝叶斯方法都用到离散化方法,而不是概率分布估计的方法。
(变量的均值和方差)。由于变量独立假设,只需要估计各个变量的方法,而 不需要确定整个协方差矩阵。
朴素贝叶斯概率模型[编辑]
理论上,概率模型分类器是一个条件概率模型。
独立的类别变量 有若干类别,条件依赖于若干特征变量 , ,..., 。但 问题在于如果特征数量 较大或者每个特征能取大量值时,基于概率模型列出 概率表变得不现实。所以我们修改这个模型使之变得可行。 贝叶斯定理有以下 式子:
用朴素的语言可以表达为:
实际中,我们只关心分式中的分子部分,因为分母不依赖于 而且特征 的值 是给定的,于是分母可以认为是一个常数。这样分子就等价于联合分布模型。
重复使用链式法则,可将该式写成条件概率的形式,如下所示:
现在“朴素”的条件独立假设开始发挥作用:假设每个特征 是条件独立的。这就意味着
朴素贝叶斯分类器的超参数调优方法(Ⅰ)

朴素贝叶斯分类器是一种简单但有效的分类算法,它基于贝叶斯定理和特征之间的独立性假设,常用于文本分类、垃圾邮件过滤等任务。
然而,朴素贝叶斯分类器也有一些超参数需要调优,以达到更好的性能。
本文将介绍朴素贝叶斯分类器的超参数调优方法,并探讨其在实际应用中的意义。
首先,朴素贝叶斯分类器的超参数包括平滑参数和特征选择参数。
平滑参数用于处理训练样本中出现概率为0的情况,常见的平滑方法有拉普拉斯平滑、Lidstone平滑等。
特征选择参数用于确定使用哪些特征进行分类,常见的特征选择方法有互信息、卡方检验等。
这些超参数的选择对分类器的性能有着重要的影响,因此需要进行有效的调优。
针对平滑参数的调优,可以采用交叉验证的方法。
首先,将训练集分为若干个子集,然后对每个子集进行训练和验证,最后取平均性能作为模型的性能评估。
在交叉验证过程中,可以尝试不同的平滑参数取值,选择在验证集上性能最好的参数值作为最终的选择。
这样可以避免过拟合和欠拟合,提高模型的泛化能力。
对于特征选择参数的调优,可以采用启发式算法。
例如,可以利用遗传算法、模拟退火算法等进行特征选择,从而找到最优的特征子集。
在特征选择过程中,需要考虑特征之间的相关性和重要性,以及分类器对特征的依赖程度。
通过合理选择特征子集,可以提高分类器的效率和准确性。
除了交叉验证和启发式算法,还可以利用网格搜索等方法进行超参数调优。
网格搜索是一种穷举搜索的方法,通过遍历超参数的所有可能取值,找到最优的超参数组合。
虽然这种方法的计算成本较高,但可以保证找到全局最优解。
在实际应用中,可以根据问题的复杂程度和数据集的规模选择合适的方法进行超参数调优。
朴素贝叶斯分类器的超参数调优对于提高分类器性能具有重要意义。
通过合理选择平滑参数和特征选择参数,可以提高分类器的准确性、泛化能力和效率。
在实际应用中,需要根据具体问题和数据集的特点选择合适的调优方法,以达到最佳的性能表现。
综上所述,朴素贝叶斯分类器的超参数调优方法包括交叉验证、启发式算法和网格搜索等。
常用nlp算法

常用nlp算法NLP(自然语言处理)是计算机科学和人工智能领域的一个重要分支,其主要目的是让计算机能够理解、分析和生成人类语言。
在NLP中,有许多常用的算法,本文将对其中一些进行详细介绍。
一、文本分类算法1. 朴素贝叶斯分类器朴素贝叶斯分类器是一种基于概率统计的分类算法,它假设所有特征都是相互独立的,并且每个特征对结果的影响是相同的。
在文本分类中,每个单词可以看作一个特征,而文本可以看作一个包含多个特征的向量。
朴素贝叶斯分类器通过计算每个类别下每个单词出现的概率来确定文本所属类别。
2. 支持向量机(SVM)SVM是一种常用的二分类算法,在文本分类中也有广泛应用。
它通过找到一个最优超平面来将不同类别的数据分开。
在文本分类中,可以将每个单词看作一个维度,并将所有文本表示为一个高维向量。
SVM通过最大化不同类别之间的间隔来确定最优超平面。
3. 决策树决策树是一种基于树形结构的分类算法,它通过对数据进行逐步划分来确定每个数据点所属的类别。
在文本分类中,可以将每个单词看作一个特征,并将所有文本表示为一个包含多个特征的向量。
决策树通过逐步划分特征来确定文本所属类别。
二、情感分析算法1. 情感词典情感词典是一种包含大量单词及其情感极性的词典,它可以用来对文本进行情感分析。
在情感词典中,每个单词都被标注为积极、消极或中性。
在进行情感分析时,可以统计文本中出现积极和消极单词的数量,并计算出总体情感倾向。
2. 深度学习模型深度学习模型是一种基于神经网络的模型,它可以自动从数据中学习特征并进行分类或回归。
在情感分析中,可以使用卷积神经网络(CNN)或长短期记忆网络(LSTM)等深度学习模型来对文本进行分类。
三、实体识别算法1. 基于规则的方法基于规则的方法是一种手工编写规则来进行实体识别的方法。
在这种方法中,可以通过正则表达式或其他模式匹配算法来识别特定类型的实体。
例如,在医疗领域中,可以通过匹配特定的病症名称或药品名称来识别实体。
朴素贝叶斯分类器详解及中文文本舆情分析(附代码实践)

朴素贝叶斯分类器详解及中⽂⽂本舆情分析(附代码实践)本⽂主要讲述朴素贝叶斯分类算法并实现中⽂数据集的舆情分析案例,希望这篇⽂章对⼤家有所帮助,提供些思路。
内容包括:1.朴素贝叶斯数学原理知识2.naive_bayes⽤法及简单案例3.中⽂⽂本数据集预处理4.朴素贝叶斯中⽂⽂本舆情分析本篇⽂章为基础性⽂章,希望对你有所帮助,如果⽂章中存在错误或不⾜之处,还请海涵。
同时,推荐⼤家阅读我以前的⽂章了解基础知识。
▌⼀. 朴素贝叶斯数学原理知识朴素贝叶斯(Naive Bayesian)是基于贝叶斯定理和特征条件独⽴假设的分类⽅法,它通过特征计算分类的概率,选取概率⼤的情况,是基于概率论的⼀种机器学习分类(监督学习)⽅法,被⼴泛应⽤于情感分类领域的分类器。
下⾯简单回顾下概率论知识:1.什么是基于概率论的⽅法?通过概率来衡量事件发⽣的可能性。
概率论和统计学是两个相反的概念,统计学是抽取部分样本统计来估算总体情况,⽽概率论是通过总体情况来估计单个事件或部分事情的发⽣情况。
概率论需要已知数据去预测未知的事件。
例如,我们看到天⽓乌云密布,电闪雷鸣并阵阵狂风,在这样的天⽓特征(F)下,我们推断下⾬的概率⽐不下⾬的概率⼤,也就是p(下⾬)>p(不下⾬),所以认为待会⼉会下⾬,这个从经验上看对概率进⾏判断。
⽽⽓象局通过多年长期积累的数据,经过计算,今天下⾬的概率p(下⾬)=85%、p(不下⾬)=15%,同样的 p(下⾬)>p(不下⾬),因此今天的天⽓预报肯定预报下⾬。
这是通过⼀定的⽅法计算概率从⽽对下⾬事件进⾏判断。
2.条件概率若Ω是全集,A、B是其中的事件(⼦集),P表⽰事件发⽣的概率,则条件概率表⽰某个事件发⽣时另⼀个事件发⽣的概率。
假设事件B发⽣后事件A发⽣的概率为:设P(A)>0,则有 P(AB) = P(B|A)P(A) = P(A|B)P(B)。
设A、B、C为事件,且P(AB)>0,则有 P(ABC) = P(A)P(B|A)P(C|AB)。
自然语言处理中常见的文本分类模型对比(十)

自然语言处理中常见的文本分类模型对比在当今信息爆炸的时代,海量的文本数据正在不断产生和累积。
如何高效地对这些文本数据进行分类和分析成为了重要的课题。
自然语言处理技术的发展为文本分类提供了强大的工具,各种文本分类模型也应运而生。
本文将对常见的文本分类模型进行对比分析,包括朴素贝叶斯、支持向量机、深度学习等。
1. 朴素贝叶斯分类器朴素贝叶斯分类器是一种基于概率统计的分类模型,其基本假设是特征之间相互独立。
朴素贝叶斯分类器简单、易于实现,对小规模的数据表现良好。
然而,由于其假设的“朴素”性质,朴素贝叶斯分类器在处理复杂的文本数据时表现并不理想。
特别是对于含有大量特征之间相关性的文本数据,朴素贝叶斯分类器的性能会受到限制。
2. 支持向量机支持向量机是一种强大的分类模型,其核心思想是将数据映射到高维空间中,通过寻找一个最优的超平面来进行分类。
支持向量机在处理文本分类问题时具有较好的泛化能力和鲁棒性,尤其适用于高维度的特征空间。
然而,支持向量机在处理大规模文本数据时计算复杂度较高,需要大量的计算资源和时间。
3. 深度学习模型近年来,深度学习技术的快速发展为文本分类问题提供了全新的解决途径。
通过构建深层神经网络模型,可以自动地学习文本数据中的复杂特征和规律。
深度学习模型在处理文本分类问题时展现出了强大的表现,尤其在处理大规模数据和复杂数据结构时具有优势。
然而,深度学习模型需要大量的训练数据和调参工作,且模型的黑盒性使得解释性较差。
4. 对比与总结朴素贝叶斯分类器、支持向量机和深度学习模型分别代表了传统的统计学习方法、核方法和深度学习方法。
这三种文本分类模型在不同的场景下都有其独特的优势和局限性。
朴素贝叶斯分类器适用于简单的文本分类问题,支持向量机在高维度特征空间中表现良好,而深度学习模型则在处理复杂的文本数据时具有较强的表现。
总的来说,选择合适的文本分类模型需要根据具体的问题和数据特点来进行综合考量。
对于大规模复杂的文本数据,深度学习模型可能是一个不错的选择;而对于简单的文本分类问题,朴素贝叶斯分类器可能更为适合。
朴素贝叶斯在文本分类中的应用

文本类别 之间的关系模型 ( 分类器) , 然 后 利 用 这 种 学 习 得
不 同 的类 别 : C , … . , , 要 确 定 特 征 向量 1 r属 于 哪 个
类别 , 只 需 要 计 算 每 个 类 别 的 条 件 概 率 P( C l T) , 选 取 概 率 值 最 大 的 类 别 作 为 文 本 的 类 别 。根 据 贝 叶 斯 定 理 可 得
文 本 分 类 函数 : m X ( P( C i I r f )一 , 1 , 2 , …, ( 2 )
到 的关 系 模 型 对 新 的 文 本 进 行 类 别 判 定 。文 本 分 类 一 般 包 括 两个 步 骤 : 第一步 , 通过样本训练 , 利 用 样 本 和类 别 之
如 何 运 用 统 计 学 和 机 器 学 习 的 方 法 利 用 计 算 机 对 文 本 进
行 自动 分 类 。文 本 分 类 是 一 个 有 指 导 的学 习 过程 , 它 根 据
一
个 已 经 被 标 注 的训 练 文 本 集 合 , 找到文本属 性( 特征) 和
的特 征 向 量 T( t , t … ., t ) 。假 设 训 练 样 本 集 中 有 m 个
文 本 类 别 的过 程 。 目前 , 文 本 分 类 的研 究 工 作 主要 是 研 究 构 成 文 本 的 有 意 义 的单 元 是 词 语 , 文 本 的类 别 和 文 本 出现 的 词语 是 有 关 联 性 的 。假 定 文 本 可 以 用 一 组 能 表 示 文本类别 的特征词来表示 , 可 以把 这 组 特 征 词 定 义成 文 本
P( T I C )一 1 I P( t j I C )
( 4 )
…
【计算机科学】_朴素贝叶斯分类器_期刊发文热词逐年推荐_20140723

推荐指数 1 1 1 1 1 1 1 1
2013年 序号 1 2 3 4 5 6 7 8 9 10 11 12
科研热词 贝叶斯估计 离散 混合模型 模糊 标签 朴素贝叶斯分类器 朴素贝叶斯 情感词典 情感分类 学习模型 决策树模型 pmi算法
推荐指数 1 1 1 1 1 1 1 1 1 1 1 1
2009年 序号 1 2 3 4
科研热Байду номын сангаас 蛋白质相互作用界面 残基溶剂可及表面积 朴素贝叶斯分类器 序列谱
推荐指数 1 1 1 1
2010年 序号 1 2 3 4 5 6 7
科研热词 概念漂移 选择性集成 朴素贝叶斯 数据流 噪音 分类 error-ambiguity分解
推荐指数 2 1 1 1 1 1 1
2011年 序号 1 2 3 4 5 6 7 8 9
2011年 科研热词 集成学习 重取样 遗传算法 置信度 网络书写纹 特征子集 朴素贝叶斯 半监督分类 boosting 推荐指数 1 1 1 1 1 1 1 1 1
2012年 序号 1 2 3 4 5 6 7 8
科研热词 特征加权朴素贝叶斯 海量数据 朴素贝叶斯 文本分类 并行化 半监督 作业调度 云计算
2008年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
科研热词 推荐指数 遗传算法 1 贝叶斯算法 1 语义网格 1 朴素贝叶斯分类器(nbc) 1 朴素贝叶斯分类器 1 朴素贝叶斯分类 1 本体匹配 1 最优分割线 1 文本分类 1 文本二维空间 1 快速属性选择 1 分类器 1 入侵检测模型 1 入侵检测 1 owl-s 1 owl 1
伯努利朴素贝叶斯进行中文文本分类

伯努利朴素贝叶斯进行中文文本分类伯努利朴素贝叶斯算法(Bernoulli Naive Bayes)是一种基于概率的分类器,用于处理二元特征(即特征值为0或1)的问题。
它的基础思想是将特征的条件独立性假设应用于二元特征,并利用贝叶斯定理进行分类。
对于中文文本分类,伯努利朴素贝叶斯算法的基本步骤如下:1. **特征提取**:首先,需要对中文文本进行特征提取。
这通常涉及到分词、去除停用词等预处理步骤。
然后,每个单词或n-gram可以被视为一个特征。
2. **特征表示**:在伯努利朴素贝叶斯算法中,每个特征都有一个二元值(0或1),表示该特征是否出现在文档中。
3. **概率模型**:伯努利朴素贝叶斯算法基于一个简单的概率模型,即每个特征独立地对分类结果产生影响。
因此,可以计算给定类别的条件概率,公式如下:P(C|F1,F2,...,Fn) = P(C) * P(F1|C) * P(F2|C) * ... * P(Fn|C)其中,C是类别,F1,F2,...,Fn是特征。
4. **分类**:基于最大的后验概率,伯努利朴素贝叶斯算法可以判断文本的类别。
这个过程涉及到计算每个类别的概率,并选择具有最大概率的类别作为文本的分类结果。
5. **训练**:在训练阶段,算法需要从训练语料库中学习各类别的概率和条件概率。
这些概率值可以通过统计方法获得。
6. **评估**:评估阶段通常涉及到使用测试语料库来评估分类器的性能。
常用的评估指标包括准确率、召回率和F1分数等。
需要注意的是,中文文本分类是一个复杂的任务,涉及到语言处理、文本分析和机器学习等多个领域的知识。
虽然伯努利朴素贝叶斯算法在某些情况下可以用于中文文本分类,但它可能不是最有效的算法。
更先进的算法和技术(如深度学习)通常在中文文本分类任务中表现更好。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
P(c)= 类c下文件总数/整个训练样本的文件总 数 P(tk|c)=(类c下包含单词tk的文件数+1)/(类c下 单词总数+2) 在这里,m=2, p=1/2。 在这里,后验概率的求法也不同
还是使用前面例子中的数据,不过模型换成了使用伯努利模 型。 类yes下总共有3个文件,类no下有1个文件,训练样本文件 总数为11,因此P(yes)=3/4, P(Chinese | yes)=(3+1)/(3+2)=4/5 P(Japan | yes)=P(Tokyo | yes)=(0+1)/(3+2)=1/5 P(Beijing | yes)= P(Macao|yes)= P(Shanghai |yes)=(1+1)/(3+2)=2/5 P(Chinese|no)=(1+1)/(1+2)=2/3 P(Japan|no)=P(Tokyo| no) =(1+1)/(1+2)=2/3 P(Beijing| no)= P(Macao| no)= P(Shanghai | no)=(0+1)/(1+2)=1/3
分析:
有了以上类条件概率,开始计算后验概率, P(yes | d)=(3/7)3× 1/14× 1/14× 8/11=108/184877≈0. 00058417 P(no | d)= (2/9)3× 2/9× 2/9× 3/11=32/216513≈0.000147 80 因此,这个文档属于类别china。
在训练阶段,我们要根据从训练数据中收 集的信息,对X和Y的每一种组合学习后验 概率P(Y|X)。分类时,来了一个实例x,在 刚才训练得到的一堆后验概率中找出所有 的P(Y|x), 其中最大的那个y,即为x所属分 类。
在训练阶段,我们要根据从训练数据中收 集的信息,对X和Y的每一种组合学习后验 概率P(Y|X)。分类时,来了一个实例x,在 刚才训练得到的一堆后验概率中找出所有 的P(Y|X=x), 其中最大的那个y,即为x所属 分类。根据贝叶斯公式,后验概率为: P ( X | Y ) P (Y ) P (Y | X ) P(X ) 实际中只考虑 P ( X | Y ) P (Y ) 最值问题即可
上面的数据可以用以下概率式子表示: P(cancer)=0.008,P(无cancer)=0.992 P(阳性|cancer)=0.98,P(阴性|cancer)=0.02 P(阳性|无cancer)=0.03,P(阴性|无 cancer)=0.97 假设现在有一个新病人,化验测试返回阳性,是 否将病人断定为有癌症呢? 在这里,Y={cancer,无cancer},共两个类别, 这个新病人是一个样本,他有一个属性阳性, 可以令x=(阳性)。
二者的计算粒度不一样,多项式模型以单词为粒 度,伯努利模型以文件为粒度,因此二者的先验 概率和类条件概率的计算方法都不同。 计算后验概率时,对于一个文档d,多项式模型 中,只有在d中出现过的单词,才会参与后验概 率计算,伯努利模型中,没有在d中出现,但是 在全局单词表中出现的单词,也会参与计算,不 过是作为“反方”参与的。
我们可以来计算各个类别的后验概率: P(cancer | 阳性) = P(阳性 | cancer)p(cancer)=0.98*0.008 = 0.0078 P(无cancer | 阳性) =P(阳性 | 无cancer)*p(无 cancer)=0.03*0.992 = 0.0298 因此,应该判断为无癌症。 归一处理:P(癌症)= 0.0078/( 0.0078 + 0.0298 )=0.207
分析:
该文本用属性向量表示为d=(Chinese, Chinese, Chinese, Tokyo, Japan),类别集合为Y={yes, no}。 类yes下总共有8个单词,类no下总共有3个单词,训 练样本单词总数为11,因此P(yes)=8/11, P(no)=3/11。类条件概率计算如下: P(Chinese | yes)=(5+1)/(8+6)=6/14=3/7 P(Japan | yes)=P(Tokyo | yes)= (0+1)/(8+6)=1/14 P(Chinese|no)=(1+1)/(3+6)=2/9 P(Japan|no)=P(Tokyo| no) =(1+1)/(3+6)=2/9
考虑一个医疗诊断问题,有两种可能的假设: (1)病人有癌症。(2)病人无癌症。样 本数据来自某化验测试,它也有两种可能 的结果:阳性和阴性。假设我们已经有先 验知识:在所有人口中只有0.008的人患病。 此外,化验测试对有病的患者有98%的可能 返回阳性结果,对无病患者有97%的可能返 回阴性结果。
P(无癌症)=0.793
条件独立性:
朴素贝叶斯分类器基于一个简单的假设: 在给定目标属性之间是相互独立的。
P( X |Y y)
i 1
n
P( Xi | Y y)
V MAP P ( X | Y y ) P (Y y )
V MAP
:最可能的目标值 举例:{Machine, learning}
分析: 给定一个新样本Chinese Chinese Chinese Tokyo Japan,对 其进行分类。 P(yes | d)=P(yes)× P(Chinese|yes) × P(Japan|yes) × P(Tokyo|yes)× (1-P(Beijing|yes)) × (1P(Shanghai|yes))× (1-P(Macao|yes)) =3/4× 4/5× 1/5× 1/5× (1-2/5) × (1-2/5)× (12/5)=81/15625≈0.005 P(no | d)= 1/4× 2/3× 2/3× 2/3× (1-1/3)× (1-1/3)× (11/3)=16/729≈0.022 因此,这个文档不属于类别china。
P ( X i | Y i) n c mp nm
P ( X i | Y i)
n c mp nm
n是类yj中的样本总数,nc是类yj中取值xi 的样本数,m是称为等价样本大小的参数, 而p是用户指定的参数。如果没有训练集 (即n=0),则P(xi|yj)=p m=|V|时,就是多项式模型 m=2时,就是伯努利模型
P(xi|Y=y)怎么计算呢? 它一般根据类别y下包含属性xi的实例 的比例来估计。以文本分类为例,xi表示一 个单词,P(xi|Y=y)=包含该类别下包含单词 的xi的文章总数/ 该类别下的文章总数。
当训练样本不能覆盖那么多的属性值时,都 会出现上述的窘境。简单的使用样本比例 来估计类条件概率的方法太脆弱了,尤其 是当训练样本少而属性数目又很大时。 解决方法是使用m估计(m-estimate)方法来估 计条件概率:
x的集合记为X,称为属性集。一般X和Y的 关系是不确定的,你只能在某种程度上说x 有多大可能性属于类y1,比如说x有80%的 可能性属于类y1,这时可以把X和Y看做是 随机变量,P(Y|X)称为Y的后验概率 (posterior probability),与之相对的, P(Y)称为Y的先验概率(prior probability)。
我们期望用某种训练算法,训练出一个函数γ,能够将文 档映射到某一个类别: γ:X→C
在多项式模型中, 设某文档d=(t1,t2,…,tk),tk是 该文档中出现过的单词,允许重复,则 先验概率P(c)= 类c下单词总数/整个训练样本的 单词总数 类条件概率P(tk|c)=(类c下单词tk在各个文档中出 现过的次数之和+1)/(类c下单词总数+|V|) V是训练样本的单词表(即抽取单词,单词出现 多次,只算一个),|V|则表示训练样本包含多 少种单词。在这里,m=|V|, p=1/|V|。
例子:
doc
1 2
doc
Chinese Beijing Chinese Chinese Chinese Shanghai
类别 In c= china
yes yes
3
4
Chinese Macao
Tokyo Japan Chinese
yes
no
给定一个新样本Chinese Chinese Chinese Tokyo Japan, 对其进行分类。
1.贝叶斯定理在分类中的应用 2.朴素贝叶斯分类器 3.朴素贝叶斯文本分类算法 3.1.多项式模型 3.2伯努力模型
分类(classification):
常常需要把一个事物分到某个类别。一个事物具 有很多属性,把它的众多属性看做一个向量,即 X=(x1,x2,x3,…,xn),用x这个向量来代表这个事物。 类别也是有很多种,用集合Y={y1,y2,…ym}表示。 如果x属于y1类别,就可以给x打上y1标签,意思 是说x属于y1类别。这就是所谓的分类 (Classification)。
文本分类问题
在文本分类中,假设我们有一个文档d∈X,X是文档向量空间(document space),和一个固定的类集合C={c1,c2,…,cj},类别又称为标签。显然,文档 向量空间是一个高维度空间。我们把一堆打了标签的文档集合<d,c>作为训练 样本,<d,c>∈X× C。例如: <d,c>={Beijing joins the World Trade Organization, China} 对于这个只有一句话的文档,我们把它归类到 China,即打上china标签。