词语表示方法及其相关应用

合集下载

abc式的表示残羹剩饭的词语

abc式的表示残羹剩饭的词语

abc式的表示残羹剩饭的词语摘要:一、引言1.介绍abc 式的表示残羹剩饭的词语2.说明这类词语的来源和意义二、abc 式词语的具体含义1.a 代表“残羹”2.b 代表“剩饭”3.c 代表其他相关含义三、举例说明abc 式词语在实际中的应用1.生活中的应用2.文学作品中的运用3.网络语境下的使用四、总结1.强调abc 式词语在表达残羹剩饭方面的特点2.指出这类词语的局限性3.探讨未来可能的发展趋势正文:一、引言在我国的汉语中,有很多形象生动、富有特色的词语来表示残羹剩饭。

其中,abc 式词语就是一种有趣的表达方式。

这类词语巧妙地将汉字的拼音首字母组合在一起,形成一个富有象征意义的词汇。

本文将详细介绍abc 式表示残羹剩饭的词语,并分析它们的来源和意义。

二、abc 式词语的具体含义1.a 代表“残羹”在abc 式词语中,a 通常表示“残羹”。

残羹是指吃过剩下的食物,多用于形容筵席结束后的剩余饭菜。

这类词语体现了人们对食物的珍惜,以及节俭的传统美德。

2.b 代表“剩饭”同样地,在abc 式词语中,b 代表“剩饭”。

剩饭是指吃剩下的饭,通常与残羹一起出现,形象地描绘了筵席结束后的场景。

这类词语不仅具有形象性,还能够唤起人们对美食的回忆。

3.c 代表其他相关含义在abc 式表示残羹剩饭的词语中,c 通常代表其他相关含义。

例如,c 可以表示“菜”、“汤”等与食物相关的词汇,进一步丰富了这类词语的表达范围。

三、举例说明abc 式词语在实际中的应用1.生活中的应用在日常生活中,人们经常使用abc 式词语来形容残羹剩饭。

例如,“红烧肉、鱼香茄子、蛋花汤”,这三个词语分别表示“肉、菜、汤”的残羹剩饭,形象地描绘了筵席的场景。

2.文学作品中的运用在文学作品中,abc 式词语也常常出现。

如《红楼梦》中,“茄子炖鸡、鱼香肉丝、蛋花汤”,这些词语都运用了abc 式表达残羹剩饭,使得作品中的饮食描绘更加生动形象。

3.网络语境下的使用随着网络的发展,abc 式词语也逐渐在网络上流行起来。

词语搭配与语法运用方法

词语搭配与语法运用方法

词语搭配与语法运用方法词语搭配是指在语言表达中,将不同的词语组合在一起以形成更具准确性和流畅性的搭配方式。

正确的词语搭配可以使语言更加地道,更具表达力。

在语法运用方面,正确的使用语法规则可以使句子结构更清晰,避免歧义。

本文将详细探讨词语搭配与语法运用的方法。

一、动词与名词的搭配在英语中,动词与名词的搭配是最为常见和基础的词语搭配方式之一。

正确的动词与名词的搭配可以使句子更加准确和生动。

以下是一些常见的动词与名词的搭配示例:1. Make a decision(做决定)2. Take a walk(散步)3. Have a conversation(进行交谈)4. Give advice(给予建议)5. Conduct research(进行研究)6. Pay attention(注意)7. Take a break(休息一下)8. Make progress(取得进展)二、形容词与名词的搭配形容词与名词的搭配也是非常常见的一种搭配方式。

形容词的使用可以使描述更加具体和生动。

以下是一些常用的形容词与名词的搭配示例:1. Big city(大城市)2. Delicious food(美味的食物)3. Busy street(繁忙的街道)4. Bright sunshine(明亮的阳光)5. Cold weather(寒冷的天气)6. Interesting book(有趣的书)7. Beautiful garden(美丽的花园)8. Comfortable bed(舒适的床)三、副词与动词的搭配副词可以用来修饰动词,使句子更具描述性和准确性。

以下是一些常用的副词与动词的搭配示例:1. Slowly walk(慢慢地走)2. Carefully read(仔细地阅读)3. Loudly sing(大声唱)4. Quickly run(快速奔跑)5. Quietly speak(安静地说话)6. Happily dance(快乐地跳舞)7. Clearly explain(清楚地解释)8. Patiently wait(耐心地等待)四、语法运用方法除了词语搭配外,正确的语法运用也是构建准确句子的重要因素。

比通报稍微委婉的词汇-解释说明

比通报稍微委婉的词汇-解释说明

比通报稍微委婉的词汇-概述说明以及解释1.引言1.1 概述在日常生活中,我们经常会遇到需要传达不好的消息或者指责他人的情况。

然而,有时直接使用与其直接等同的字词可能会导致冲突或者伤害他人的感情。

因此,寻找一些比通报稍微委婉的词汇成为了一项重要的技巧。

委婉的词汇可以帮助我们在沟通中更加圆滑,减少冲突的发生,同时也能保护他人的自尊心。

这些词汇通常通过减弱或转移责任的方式来表达,以缓解对方的不悦或者负面情绪。

在本文中,我们将探讨一些常见的比通报稍微委婉的词汇,并探讨如何在不伤害他人感情的同时传递不好的消息。

无论是在家庭、工作还是社交场合中,这些委婉的词汇都能帮助我们更好地处理各种复杂情况。

通过学习和应用这些委婉的词汇,我们可以提升我们的沟通技巧,维护良好的人际关系,并在处理困难情况时更加灵活和理性。

让我们一起深入探讨以下内容,希望能对您的日常交流带来帮助和启发。

文章结构文章的结构是指文章所遵循的组织框架和布局方式,它对于文章的逻辑性、条理性和信息传达的清晰度起着至关重要的作用。

在本文中,我们将按照以下结构来展开我们对比通报稍微委婉的词汇的讨论。

1. 引言部分1.1 概述在这一部分,我们将简要介绍比通报稍微委婉的词汇的背景和重要性,以及本文的研究目的和方法。

1.2 文章结构在本节中,我们将详细介绍整篇文章的结构和各个部分的内容安排,使读者对文章的整体框架有一个清晰的了解。

1.3 目的在本文中,我们的目的是探讨比通报稍微委婉的词汇的使用,以及这些词汇在不同场景中的适用性和效果。

通过分析和比较各种委婉词汇,我们旨在提供一些好的替代词汇选择。

1.4 总结在本节中,我们将简要总结本文的主要观点和研究结论,强调我们所提供的比通报委婉的词汇的重要性和实用性。

2. 正文部分2.1 要点1在这一部分,我们将介绍第一个比通报委婉的词汇,并详细探讨它的用法、意义和效果。

我们还将通过举例和案例分析,让读者更好地理解和运用这些词汇。

语文关联词语大全-概述说明以及解释

语文关联词语大全-概述说明以及解释

语文关联词语大全-概述说明以及解释1.引言1.1 概述语文关联词语是指在语文学习和写作中起到连接和组织作用的词语。

它们能够在文章的不同部分之间建立联系,使得整篇文章更加连贯和流畅。

掌握并灵活运用语文关联词语,是提升语言表达能力和阅读理解能力的重要一环。

概述本文主要介绍了语文关联词语的各种类型和用法。

首先,我们将探讨一些常见的关联词语,如并列连词、递进连词、转折连词等。

通过对这些关联词语的具体定义和用法进行分析和总结,读者能够更好地理解它们在句子中的作用和意义。

其次,我们将深入研究一些高级的关联词语,如因果关联词、条件关联词、比较关联词等。

这些关联词语在语言表达中起到了连接不同观点和推理思路的关键作用。

我们将通过举例和讲解,帮助读者掌握这些复杂关联词语的用法,并提供一些写作技巧,以使文章表达更加精确和有说服力。

最后,我们将以实例展示语文关联词语在写作中的应用。

通过对一些经典范文的分析和解读,读者能够学习到如何灵活运用关联词语来提升文章的层次和品质。

此外,我们还将提供相关的练习题和习作,供读者巩固所学知识,并提供一些参考答案和写作指导,以帮助读者更好地提高语文水平。

总之,本文旨在系统全面地介绍语文关联词语的各种类型和用法,帮助读者掌握并灵活运用这些关联词语,提升语言表达和阅读理解的能力。

相信通过对本文的学习和实践,读者能够在语文学习和写作中取得更好的成绩和进步。

文章结构部分的内容可以写成如下形式:1.2 文章结构本文主要分为三个部分:引言、正文和结论。

引言部分(Chapter 1)对文章进行了概述,包括概述、文章结构和目的三个部分。

在概述中,我们介绍了语文关联词语的重要性及其应用范围。

在文章结构部分,我们明确了本文的整体框架,让读者对文章的结构有一个清晰的认识。

在目的部分,我们说明了本文的写作目的,以及我们希望读者通过本文能够了解和掌握语文关联词语的使用方法和技巧。

正文部分(Chapter 2)是本文的核心内容,包括了三个要点:第一要点、第二要点和第三要点。

语义韵研究对象、方法及应用

语义韵研究对象、方法及应用

语义韵研究对象、方法及应用语义韵是语言学中的一个重要概念,它研究的是语言中词语、短语、句子等在特定语境下所呈现的语义特征。

本文将从语义韵研究对象、研究方法以及应用场景等方面进行详细阐述,并通过具体案例分析语义韵的实际应用效果,最后对语义韵的未来发展进行展望。

语义韵的研究对象主要包括词、短语、句子等语言单位。

词是语言中最基本的语义单位,不同词语的组合会形成不同的语义韵。

例如,“苹果”和“手机”组合在一起时,它们在语境中呈现出“电子设备”的语义特征。

短语和句子也是语义韵的研究对象。

短语是由多个词组成的语义单位,而句子则是由多个短语构成,能够表达完整的思想。

词义分析是语义韵研究的基础,它通过对词语的语义、语源等方面的分析,揭示词语在特定语境下的具体含义。

词义分析包括对词语本义、引申义、比喻义等方面的研究,可以帮助研究者深入理解词语的语义特征。

语境分析是研究语义韵的重要方法之一,它的是语言单位在特定语境下的意义。

通过对语境的分析,可以了解语言单位在语境中所传达的语义信息,从而更好地把握语义韵。

例如,“今天天气真好”这句话,在不同的语境下可以传达出不同的语义信息,如愉悦、赞扬、讽刺等。

形式化表达是语义韵研究的另一种方法,它通过数学模型、计算机程序等方式来表达语义韵。

形式化表达可以将复杂的语义关系简化为简单的数学模型,从而更好地描述语言单位的语义特征及其之间的关系。

这种方法在自然语言处理领域得到了广泛应用,为机器翻译、文本分析等技术提供了有力支持。

语义韵在语言教学中具有广泛应用。

教师可以通过对目标语言中词语、短语、句子等语言单位的语义韵进行分析,帮助学生更好地理解目标语言的语义特征,提高他们的语言理解和应用能力。

机器翻译是自然语言处理领域的一个重要应用,而语义韵在机器翻译中发挥着至关重要的作用。

机器翻译系统可以通过对源语言和目标语言中语言单位的语义韵进行对比分析,实现源语言到目标语言的准确翻译。

例如,将“狗”翻译成英语时,“dog”是最佳选择,因为“dog”在英语中具有与“狗”相似的语义韵。

二年级上册语文词汇记忆方法总结与应用技巧

二年级上册语文词汇记忆方法总结与应用技巧

二年级上册语文词汇记忆方法总结与应用技巧在二年级上册的语文学习中,词汇的掌握对于学生的语言表达和理解能力发展具有重要作用。

为了帮助同学们更好地记忆和应用语文词汇,在这篇文章中,我将总结一些适合二年级学生的记忆方法和应用技巧。

记忆方法:1. 分类记忆:将词汇按照不同的类别进行划分,比如动物、植物、食物、颜色等,可以帮助同学们更好地理解和记忆相关的词汇。

可以通过制作词汇分类表格或使用记忆卡片的方式进行。

2. 图片联想法:将词汇与具体的图片相联系,帮助同学们形成直观的印象。

比如,学习“苹果”这个词汇时,可以用一个苹果的图片和词汇进行配对,这样可以加深对词汇的记忆。

3. 制作词语卡片:将生词、词语写在卡片上,一面写词,一面写释义,可以帮助同学们背诵和记忆。

可以在课后制作这些卡片,然后进行反复的复习。

4. 联想记忆法:将词汇和已经掌握的相关知识进行联系,形成联想。

比如,学习“书架”这个词汇时,可以联想到书在书架上存放的场景,这样可以增强对词汇的记忆。

应用技巧:1. 阅读实践:通过阅读各类绘本、故事等文本,将学过的词汇运用到实际的阅读中。

推荐同学们多读一些与学习内容相关的书籍,既可以扩大词汇量,又可以提高阅读能力。

2. 口头练习:在日常生活中,可以适时地用到学过的词汇,与同学、家人甚至自己进行口头交流。

比如,在描述房间时,可以使用学过的词汇表达家具、颜色等,这样可以巩固所学的词汇。

3. 书写练习:通过写作练习,不仅可以提高写作能力,还可以巩固词汇记忆。

同学们可以每周选择几个词汇进行造句或写小作文,以此将所学的词汇应用到书面表达中。

4. 创设语境:在语文课堂上,老师可以创设适当的语境,引导同学们运用所学的词汇进行交流和表达。

这样可以提高同学们的语言运用能力,培养他们主动使用词汇的习惯。

通过以上记忆方法和应用技巧的学习与实践,相信同学们能够在二年级上册的语文学习中更好地掌握词汇,提高语言表达和理解的能力。

记忆方法可以帮助同学们高效地记忆词汇,应用技巧则能使他们更好地将所学的词汇应用到实际生活和学习中。

表示机会的词语

表示机会的词语

表示机会的词语摘要:一、引言二、表示机会的词语及其含义1.机遇2.时机3.场合4.条件三、表示机会的词语在实际应用中的例子1.机遇2.时机3.场合4.条件四、如何利用表示机会的词语提高沟通效果1.抓住机遇2.选择适当的时机3.利用场合4.创造条件五、总结正文:在我们的日常生活中,我们经常需要用一些词语来描述机会,以便更好地理解和把握它。

这篇文章将介绍一些表示机会的词语,并探讨如何在实际应用中提高沟通效果。

一、表示机会的词语及其含义1.机遇机遇通常指一种偶然出现的有利情况,可以带来好的结果。

机遇的出现往往是不可预测的,需要我们敏锐地捕捉。

2.时机时机是指一个特定的时刻或一段时间,在这个时候做某事可能取得成功。

时机往往对事情的发展有着重要的影响,因此我们要学会把握时机。

3.场合场合是指一个特定的环境或情境,适合进行某种活动或表达某种观点。

在适当的场合,我们可以更好地发挥自己的优势,取得成功。

4.条件条件是指满足某种要求或限制的特定情况。

在某种程度上,我们可以通过创造条件来为自己创造机会。

二、表示机会的词语在实际应用中的例子1.机遇在商业领域,企业家需要敏锐地捕捉市场机遇,以实现企业的快速发展。

例如,随着互联网的普及,电商行业迅速崛起,许多企业抓住了这个机遇,取得了显著的成绩。

2.时机在投资领域,选择适当的时机入市或离场至关重要。

一个好的投资者需要在市场低迷时看到机遇,抓住时机进行投资,以期在市场回暖时获得丰厚回报。

3.场合在社交场合,我们需要根据场合的不同选择合适的言辞和举止。

在正式场合,我们需要表现得庄重得体;而在休闲场合,我们可以更加轻松随意。

这样,我们可以在各种场合中取得成功。

4.条件在实现个人目标的过程中,我们需要创造条件以实现自己的梦想。

例如,如果想成为一名优秀的程序员,可以通过自学、参加培训课程等方式提高自己的技能,为自己创造更多的机会。

三、如何利用表示机会的词语提高沟通效果1.抓住机遇在交流过程中,我们可以用“机遇”一词来强调某个时刻的重要性。

知悉、查阅等用法-概述说明以及解释

知悉、查阅等用法-概述说明以及解释

知悉、查阅等用法-概述说明以及解释1.引言1.1 概述在我们日常的学习、工作、生活中,我们经常会遇到需要获取信息、了解事物的情况,以及查找特定资料等需求。

为了达到这些目的,我们常常使用一些特定的词语和表达方式,其中包括"知悉"和"查阅"等。

"知悉"一词通常用于表示对某件事情的了解、知道,它强调的是对信息的掌握和了解程度。

而"查阅"则是指通过查找和阅读相关的资料、书籍等来获取有关知识和信息。

在本文中,我们将详细介绍"知悉"和"查阅"的使用场景和技巧,并探讨与它们相关的其他用法。

同时,我们也会强调它们在实际生活中的重要性,并提出一些进一步研究的建议。

通过深入了解和掌握这些表达方式和技巧,我们可以更加高效地获取所需的信息和知识,提升自己的学习和工作效率。

同时,这也是我们在信息爆炸的时代,应对海量信息的一个必备技能。

在接下来的章节中,我们将先介绍"知悉"的用法,包括它的定义、常见搭配和注意事项。

然后,我们将详细探讨"查阅"的使用方式,包括如何选择合适的资料源、阅读和整理信息的技巧等。

最后,我们将介绍一些与这些用法相关的其他表达方式和技巧,并总结它们在实际生活中的应用价值。

在本文的结论部分,我们将强调知悉、查阅等用法的重要性,并提醒读者在实践中灵活运用这些技巧。

同时,我们也将呼吁对这些方面进行进一步的研究,以便更好地应对和利用日益增长的信息量。

通过阅读本文,相信读者将能够更好地理解并掌握知悉、查阅等用法,并在实践中灵活运用它们,提升自己在学习、工作和生活中的能力。

1.2文章结构文章结构部分的内容可以涵盖以下方面:文章结构:文章的结构对于传达和组织观点非常重要。

在本篇文章中,我们将采用以下结构来呈现知悉、查阅等用法的相关内容。

引言部分:在引言部分,我们将概述本文的主题,并简要介绍知悉、查阅等用法的背景和重要性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 对于词典D中的任意词w,Huffman树中 必存在一条从根结点到词w的对应结点路 径,路径上的每一个分支都可以看做是 一个二分类,将这些概率乘起来就是我 们需要的目标词概率
• 写成条件式为
Word2vec Hierachical Softmax
• 基于神经网络语言模型目标函数通常选 用对数似然函数
• “话筒”表示为 [0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 …]
One-Hot 表示方法
• 这种 One-hot Representation 如果采用稀 疏方式存储,会是非常的简洁:也就是 给每个词分配一个数字 ID。比如刚才的 例子中,话筒记为 3,麦克记为 8(假设 从 0 开始记)。
• 主要对词语-文档矩阵进行SVD,
– 对一个t*d维的矩阵(单词-文档矩阵)X – 可以分解为U*D*Vt – 其中U为t*m维矩阵 – U中的每一列称为左奇异向量(left singular
bector) – D为m*m维对角矩阵,每个值称为奇异值
LSA/LSI
LSA/LSI
• 优点
– 1)低维空间表示可以刻画同义词,同义词 会对应着相同或相似的主题。
Word2vec Hierachical Softmax
• W=‘足球’的时 候
– 图中红色的边构 成路径Pw
– 该路径长度为5 ,则Lw=5
– P1w,P2w, P3w,P4w, P5w为路径Pw上 五个结点
– D w,D w,D w,D w
Word2vec
Hierachical Softmax
• 类似于CBOW模型,我们可以把关于 的梯度用下式计算
• 可以将该变量的更新公式写为
Word2vec Hierachical Softmax
• 同样利用 和 的对称性,可以将 词向量的更新公式表示为
基于CNN表示
• TextCNN 是利用卷积神经网络对文本进 行分类的算法
Word2vec Skip-gram
• 参考CBOW,我们可以构造条件概率为
• 使用HS的思想,可以将p(u|w)写为
Word2vec Hierachical Softmax
• 把上式代回对数似然函数可得
• 类似的,将三重求和符号简写,可以表 示为
Word2vec Hierachical Softmax
• 将概率计算式带入对数似然函数可得
Word2vec Hierachical Softmax
• 对于目标函数的最大化方式,word2vec 采用了随机梯度上升法
• 我们可以把目标函数的双重求和符号表 示为
• 可得
• 由上式可知,该函数包含的参数包括向 量和
• 关于 的梯度计算如下
Word2vec Hierachical Softmax
• 对于 的更新公式可以写为,n表示学 习率
• 同理,关于 的梯度,由于目标函数中 ,两个变量是对称的,所以其梯度可以 表示为
Word2vec Skip-gram
Word2vec Skip-gram
• 输入层
– 只包含当前样本的中心词
• 投影层
– 恒等投影,主要方便与CBOW模型对比
• 输出层
– 与CBOW一样,输出一颗二叉树
– 2)特征向量的方向没有对应的物理解释。 – 3)SVD的计算复杂度很高,而且当有新的
文档来到时,若要更新模型需重新训练。
共现矩阵分解
• 类似于LSA/LSI,我们还可以对PPMI矩 阵进行分解,使用SVD分解
• 设term表大小为n,则矩阵为n*n大小的 方阵
– 然后使用SVD进行分解,分解为U*D*Vt
• 投影层是将输入的映射后的向量
Word2vec
Word2vec
• 模型与NNRM非常类似,也是输入层, 投影层和输出层三层
• CBOW模型主要用当前词的上下文预测 当前词
• Skip-gram模型主要用当前词来预测上下 文
• 所以CBOW目标函数为
Word2vec CBOW
Word2vec CBOW
词语表示方法简介
Menu
• One-Hot 表示方法 • PPMI矩阵表示 • 基于SVD的表示方法 • 基于神经网络的表示方法
One-Hot 表示方法
• NLP 中最直观,也是到目前为止最常用 的词表示方法是 One-hot Representation, 这种方法把每个词表示为一个很长的向 量。这个向量的维度是词表大小,其中 绝大多数元素为 0,只有一个维度的值为 1(或者出现的次数),这个维度就代表了 当前的词。
• 以’足球’为例, 路径每经过一个 结点都可以看成 一个二分类,在 word2vec中,编 码为1的结点为 负类,编码为0 的结点为正类。
• 根据逻辑回归,
Word2vec Hierachical Softmax
• 在例子中,单词 经过了4次二分 类,概率分别为 :
Word2vec Hierachical Softmax
Word2vec Nerual Network Language
Modeபைடு நூலகம்(NNLM)
Word2vec
Nerual Network Language
Model(NNLM)
• 三层神经网络架构
– 输入层 – 投影层 – 输出层
• 输入单词使用one-hot编码 • 输入层是 单词数*词向量大小的
矩阵,保存词向量
PPMI矩阵表示
• 是一种和one-hot表示方法类似的稀疏表 示方法
• 能够对于共现关系进行表示 • 同样存在维度爆炸的问题(英文单词有限
,目前算力可以支持,跨语言时会出现 维度爆炸问题)
LSA/LSI
• LSA(latent semantic analysis)潜在语义分 析,也被称为 LSI(latent semantic index)
• 我们假设词典D中的词w 使得
– Pw:从根结点出发到达w对应叶子节点的路径 – Lw:路径Pw中包含结点的个数 – P1w,P2w,…,Plww:路径Pw中的Lw个结点,其中
P1w表示根结点, Plww表示词w对应的结点 – D1w,D2w,…,Dlww:词w的Huffman编码,由Lw -
1位编码组成,Djw表示路径Pw中第j个结点对 应的编码
• 输入层
– 包含上下文中n个相关词的词向量, 如我们选定n为2,则上下文长度为2 ,则会包含上文2个词和下文2个词 的词向量
• 投影层
– 将输入的2n个词向量做累加,即
• 输出层
– 输出一颗二叉树,以语料中出现过
Word2vec Hierachical Softmax
• HS是word2vec中用于提高性能的关键技 术
• 然后使用U阵作为词语表示的信息
共现矩阵分解
• 特点
– 对于词语的共现频率有良好的支持 – 训练出的结果在近义词数据集上效果好
(ws353等)
Word2vec
• Word2vec是Mikolov提出的词语表示模型 • 主要包含两个模型:
– CBOW – Skip-gram
• 两个框架:
– Hierarchical Softmax(HS) – Negative Sampling(NS)
• 存在问题
– 词义鸿沟 – 维度灾难
PPMI矩阵表示
• 词语表示的向量长度等同于term表的长 度
• 对于单词的表示,统计所有词语与该词 语作为上下文时出现的次数
• 如要得到cat的单词向量
– 我们就统计cat和其他所有单词在局部上下文 中的共现情况
– 假设cat和plays在语料中共现1000次 – plays对应的维度是55
– 2)降维可去除部分噪声,是特征更鲁棒。 – 3)充分利用冗余数据。 – 4)无监督/完全自动化。 – 5)与语言无关。
LSA/LSI
• 缺点
– 1)LSA可以处理向量空间模型无法解决的 一义多词(synonymy)问题,但不能解决一词 多义(polysemy)问题。因为LSA将每一个词 映射为潜在语义空间中的一个点,也就是说 一个词的多个意思在空间中对于的是同一个 点,并没有被区分。
相关文档
最新文档