卡森·麦卡勒斯_百度百科

卡森·麦卡勒斯_百度百科
卡森·麦卡勒斯_百度百科

卡森·麦卡勒斯

卡森·麦卡勒斯(Carson

McCullers),20世纪美国最重要的作家之一。1917年2月19日出生于乔治亚州府哥伦布,十七岁去纽约哥伦比亚大学学习文学创作,十九岁开始构思,二十二岁完成《心是孤独的猎手》的创作。麦卡勒斯一生倍受病痛折磨,十五岁时患风湿热,但被误诊和误治。之后,她经历了三次中风,一系列疾病严重摧残了她的身体,导致她在29岁时瘫痪。卡森·麦卡勒斯的作品多描写孤独的人们,孤独、孤立和疏离的主题始终贯穿在她的所有作品中,并烙刻在她个人生活的各个层面。

中文名:卡森·麦卡勒斯

外文名:Carson McCullers

出生地:乔治亚州府哥伦布

出生日期:1917年2月19日

逝世日期:1967年9月29日

职业:作家

毕业院校:哥伦比亚大学

主要成就:20世纪美国最重要的作家之一

代表作品:《心是孤独的猎手》,《黄金眼睛的映象》

展开编辑本段生平经历

1917年2月19日出生于乔治亚州府哥伦布,是一个珠宝店主的女儿,娘家姓史密斯,原名露拉·卡森·史密斯,她在13岁时就把名字中令人尴尬的露拉去掉了。1937年,嫁给了同乡利夫斯·麦卡勒斯。

卡森·麦卡勒斯从五岁开始学习钢琴,十五岁时从父亲处得到一台打字机,立志成为作家。十七岁去纽约哥伦比亚大学学习文学创作,十九岁开始构思,二十二岁完成《心是孤独的猎手》的创作。卡森·麦卡勒斯重要作品还有《伤心咖啡馆之歌》、《黄金眼睛的映象》、《婚礼的成员》等。其中,《心是孤独的猎手》在美国“现代文库”所评出的“20世纪百佳英文小说”中列第17位。她的多部作品被改编成电影或戏剧,如《伤心咖啡馆之歌》、《婚礼的成员》等。

麦卡勒斯一生倍受病痛折磨,十五岁时患风湿热,但被误诊和误治。之后,她经历了三次中风,一系列疾病严重摧残了她的身体,导致她在29岁时瘫痪。1967年8月的一个下午,她因脑部大出血,陷入昏迷。昏迷45天后,9月29日去世,时年50岁。遗留下未完成的自传《照亮及暗夜之光》(ILLUMINATION

AND NIGHT GLARE)。

编辑本段作品风格

卡森·麦卡勒斯的作品多描写孤独的人们,孤独、孤立和疏离的主题始终贯

卡森·麦卡勒斯穿在她的所有作品中,并烙刻在她个人生活的各个层面。对卡森来说,正如对她小说中虚构的朋友们来说,爱情中的对等关系似乎是不可能的。一个人永远也不可能同时扮演爱者和被爱者两个角色。她笔下的某些人物从来不敢扮演其中任何一个角色,或者尝试另一个角色。

在她的作品中,畸形的身体往往只是显示了一个人缺乏能力去扩展、去奉献、去接受爱,这是一种充满极度痛苦的境地。无数来自她想象世界的陷入歧途和肢体残缺的人们,试图通过人与人之间完全的精神依恋来发现生活的意义和目的,而她从来不认为这种行为有什么不正常。在她的眼中,他们的世界是颠倒的,行为准则就是没有准则、没有

意义、没有目的、没有力量,是异化。有些文章批评她笔下某些人物明显的畸形和怪异,她回应道:人们对病态的指责是没有道理的。一个作家只能说他的写作是内心的种子在潜意识中萌芽开花的过程。自然界不是不正常的,只有没有生命的东西才不正常。对作家来说,只要是脉搏跳动、能够活动、能够在房间行走的东西,不管它正在做什么,都是自然的和有人性的。

编辑本段译介历程

麦卡勒斯情结最深的“麦迷”不是别人,是第一位将麦卡勒斯引入国人视野的翻译家李文俊。他向记者讲述了关于麦卡勒斯的往事:“1967年我时常在美国文学报刊上见到麦卡勒斯的名字,我去文学研究所的图书馆借阅她的书,找到了《伤心咖啡馆之歌》,在借书卡上只有一个名字,是钱钟书,我想,既然钱钟书借过这本书,一定有他借的理由。事后,我也问过钱钟书,他为何关注麦卡勒斯,他淡淡地提到‘她挺好的’。后来文革就发生了,很多事情也搁浅了。20世纪70年代,图书馆又开放了,我借出的第一本外文书就是《伤心咖啡馆之歌》,又仔细读了一遍。还是想把它翻译了,介绍给国内的读者。”事实上,有麦卡勒斯情结的读者记忆犹新的阅读版本多源自李文俊的译本。

在回溯《伤心咖啡馆之歌》在国内的出版历程时,李文俊说,译文最初发表于1978年《外国文艺》的创刊号,当时文学青年读到的只有《世界文学》,大家也期待《外国文艺》的创刊。时隔一年,上海译文出版社出版了一本《当代美国短篇小说集》,由冯亦代等翻译名家执笔,一人翻译一篇,在这本书里面,《伤心咖啡馆之歌》是最长的、也是最引人注意的一篇。

究竟麦卡勒斯的什么特点使李文俊念念不忘呢?“因为她的视角不同寻常,特有的ballad(民谣)叙事风格表达着她对人生复杂性的理解。”1979年,李文俊第一次出国,在美国的图书馆里他找到麦卡勒斯的传记,阅读后,写出一篇《爱与理解的呼唤》,“有评论家认为麦卡勒斯对爱情是绝望的,恰恰相反,我认为她之所以倾其力量表达爱的绝望不是真的绝望,是因为爱与理解在现实中稀缺,本质是呼唤爱和理解。比如,她笔下的爱密利亚小姐,‘骨骼和肌肉长得都像个男人’,但她在医院中工作,她会给大人吃苦的药,给小孩吃甜的药。麦卡勒斯的内心是柔软的……”

编辑本段中国影响

20多年了,麦卡勒斯在中国已经越来越孤独,她的作品却忽然整体出版,那是因为引进者内心深处也藏有麦卡勒斯情结。是麦卡勒斯曾经的读者,在经过20多年后,又执着地把她找了回来。据策划引进麦卡勒斯系列的“一尘图书”负责人徐冬介绍,早在去年春天她已就版权一事与麦卡勒斯生前的文学代理人和出版社反复商谈,在即将达成协议时,美国各图书媒体包括亚马逊网站突然在头版头条大规模介绍麦卡勒斯的小说《心是孤独的猎手》,原来是奥普拉向她的读书俱乐部会员推荐此书,于是这本书在去年春夏之交重印了60万册。

麦卡勒斯的影响很大,很多人对她着迷,不过仔细考察这个自称“麦迷”的人群,毕竟还是一个比较小的圈子。她的孤独不像加西亚·马尔克斯那样为更广大的读者所知,但却像一条小溪流一样持久不息,特别是在读书界、文学界。

阿康,一个藏书4万册的读书人,麦卡勒斯是他最钟爱的作家之一。在他看来,《伤心咖啡馆之歌》困于一种藏青色的、潮湿的空气,人人都在内心深处挣扎,在和被所爱的人唾弃的宿命做斗争,在向一种渴望交流的孤独本能妥协。麦卡勒斯和传统的美学观点格格不入,用一种诡谲、神秘、荒诞的方式表达了一个与爱同样永恒的人类主题——孤独,并且用爱的荒谬来印证孤独的必然。

麦卡勒斯的骨灰级追随者还有苏童,在《一生的文学珍藏——影响了我的二十篇小说》中他说过:“我至今说不清我对这部小说的偏爱是出于艺术评判标准,还是其他似是而非的标准,偏爱也许是不讲道理的……没有谋杀,但有比谋杀更加残酷的羞辱与背叛;没有血

腥味,但有比死人更伤心的结局。”

编辑本段文学品质

《心是孤独的猎手》曾被评为百部最佳同性恋小说之一,在榜单上名列17,据翻译陈笑黎介绍,这是麦卡勒斯的第一部长篇小说,也是她一举成名的作品,出版于1940年她23岁之时。故事的背景类似于《伤心咖啡馆之歌》中炎热的南方小镇。陈笑黎说:“小说中两个聋哑男子的同性之爱令人感动,而同性之恋又是若有若无的,时而激烈,时而沉默。主旨凸显的是麦卡勒斯式的主题:孤独是绝对的,最深切的爱也无法改变人类最终极的孤独。绝望的孤独与其说是原罪,不如说是原罪的原罪。”

而名为lostpast的南京读者刚读完《心是孤独的猎手》,她认为《心是孤独的猎手》比《伤心咖啡馆之歌》更能展开对孤独的独立表达。她说,“书中让我记忆深刻的是一个穷人家的小女孩,她藏在富裕人家的花园里,偷听老式收音机里传出的莫扎特,黑暗中爬上屋顶,寂静中回想莫扎特。小女孩会慢慢成长,逐渐变得冷静,直至平淡,麻木,但在黑暗中聆听内心声音的读者都能从她身上找到彻骨的孤独。每个人都孤独,却并未因这相似的孤独相连,人终究是孤独的,好像人终归是要死的。这是一条阴冷的真理,一个残酷的真相,麦卡勒斯却将其描绘得生动而尖锐,描绘得可以容忍,也必须容忍。”“麦卡勒斯作品看似荒诞,但在她的笔下,那些人物仿佛有了生命,有着缜密的逻辑和属于他们自己的命运,作家、读者、批评家都无法控制。”

编辑本段学理依据

有译者似乎在为麦卡勒斯寻找学理依据。

“荣格曾将作家分为两类:外倾型和内倾型。外倾型是指创作受体内冲动而成,笔下的人物有着自己的命运,不完全受控于作家;内倾型是指作家的写作完全是理性状态下的创作,写作的过程多在打磨技巧。显然,麦卡勒斯属于前者。”《婚礼的成员》的译者,华南师范大学外文学院教师周玉军说,他曾以麦卡勒斯为主题给学生做过报告,但几乎没有什么反响,“她的作品是一座没有彼岸的桥”(荣格)。终其一生,麦卡勒斯的所有作品都在述说孤独,在后世读者的眼中,一种新的孤独也就随之产生。

编辑本段作品简介

《伤心咖啡馆之歌》

作者:(美)麦卡勒斯著,李文俊译出版社:中国和平出版社出版日期:2005-4-1 ISBN:7802011434 字数:印次:1

版次:1 纸张:胶版纸内容简介

小镇上的爱密利亚小姐能干富有,“骨骼和肌肉长得都像男人”,本地最俊美的男子马文·马西偏偏爱上了她,他一改流氓习性成为正经人,暗恋了两年之后终鼓起勇气求婚。但这场婚姻只持续了10天,“一个新郎无法将自己心爱的新娘带上床”。马西再度成为恶棍,并铛锒入狱。爱密利亚小姐心满意足地享受平静的生活,直到罗锅的李蒙表哥来到小镇,她爱上了他,并事事迁就,6年后马西获准假释。李蒙表哥在第一眼看到他之后,就极力讨好他,马西却报以拳头。罗锅仍然天天出去找马西厮混,并把他安排进家里住。爱密利亚小姐和马西的冲突终于爆发了,两人在众目睽睽之下决斗,正当“她那双强壮的手叉住了他的脖子”时,小罗锅尖叫着加入了战局,爱密利亚小姐成了失败者。当然,小罗锅和马西抢走财物毁坏了咖啡馆后双双离去。连续三天,爱密利亚小姐都坐在前门口台阶上眺望等待,但是,罗锅始终不见回来。第四年,她请来木匠把窗门都钉上了板,“从那时起她就一直呆在紧完备的房间里”。小说用一种诡谲、神秘、荒诞的方式表达了一个与爱情一样永恒的人类主题——孤独,并且用爱的荒谬来印证孤独的必然。

《心是孤独的猎手》

又名: 心是孤独的猎人作者: (美)卡森·麦卡勒斯译者: 陈笑黎ISBN: 9787542621344 [十位: 7542621343]

页数: 342 定价: 25.00 出版社: 上海三联书店装帧: 平装出版年: 2005-8-1 内容简介

《心是孤独的猎手》曾被评为百部最佳同性恋小说之一,在榜单上名列17,据翻译陈笑黎介绍,这是麦卡勒斯的第一部长篇小说,也是她一举成名的作品,出版于1940年她23岁之时。

故事的背景类似于《伤心咖啡馆之歌》中炎热的南方小镇。她说:“小说中两个聋哑男子的同性之爱令人感动,而同性之恋又是若有若无的,时而激烈,时而沉默。主旨凸显的是麦卡勒斯式的主题:孤独是绝对的,最深切的爱也无法改变人类最终极的孤独。绝望的孤独与其说是原罪,不如说是原罪的原罪。”而名为lostpast的南京读者刚读完《心是孤独的猎手》,她认为《心是孤独的猎手》比《伤心咖啡馆之歌》更能展开对“孤独”的独立表达。她说,“书中让我记忆深刻的是一个穷人家的小女孩,她藏在富裕人家的花园里,偷听老式收音机里传出的莫扎特,黑暗中爬上屋顶,寂静中回想莫扎特。小女孩会慢慢成长,逐渐变得冷静,直至平淡,麻木,但在黑暗中聆听内心声音的读者都能从她身上找到彻骨的孤独。每个人都孤独,却并未因这相似的孤独相连,人终究是孤独的,好像人终归是要死的。这是一条阴冷的真理,一个残酷的真相,麦卡勒斯却将其描绘得生动而尖锐,描绘得可以容忍,也必须容忍。”“麦卡勒斯作品看似荒诞,但在她的笔下,那些人物仿佛有了生命,有着缜密的逻辑和属于他们自己的命运,作家、读者、批评家都无法控制。”有译者似乎在为麦卡勒斯寻找学理依据。

《婚礼的成员》

上海三联书店内容简介

《婚礼的成员》被认为是麦卡勒斯最成熟的作品,上世纪50年代由她本人改编为戏剧在百老汇连续上演501场,获得巨大成功。主人公是个小姑娘,她的梦想,就是参加哥哥的婚礼,然后和他们一起去度蜜月,远走高飞。但是在小姑娘的世界里,“在那个绿色的、疯狂的夏季”,每一个孤独的人都被深锁在各自的内心空间,无法进行任何有意义的交流。

内容提要本书写了老中青三个年龄段的人:八十多岁的前众议院的议员福克斯

·克莱恩法官,得了白血病的药房老板马龙先生,法官的孙子即十七岁的高中生杰斯特和同年的黑人舍曼。

《没有指针的钟》

没有指针的钟作者: (美)卡森·麦卡勒斯译者: 金绍禹ISBN: 10位[7542626647] 13位[9787542626646]

页数:271 定价: 25.00 装帧: 平装出版年: 2007-12 出版社: 上海三联书店内容简介

小说有两条主线贯穿始终,串起了这些生动的人物。从第一页药房老板马龙先生查出得了白血病,从此他的人生成了没有指针的钟开始,到最后一页他平平静静永远合上眼睛为止,中间经历了十四个月的日子。这是小说的第一条明显的主线。第二条主线是蓝眼睛的黑人孤儿舍曼·普友一心要寻找自己的亲生母亲,而法官的孙子则有意查明他父亲的死因,于是小说就有了一条很粗的“种族歧视”的主线。凡是著名的黑人妇女,舍曼都觉得有可能是他的生母。然而他失望了,他在法官福克斯·克莱恩办公室里发现了有关他身世的诉讼卷宗。于是,他要跟白人“对着干”。最后,他因搬进了白人居住区而被炸死在家中,被种族主义所害,尽管他是一个很有才能的人。

贝叶斯分类器的matlab实现

贝叶斯分类器的matlab实现 贝叶斯分类原理: 1)在已知P(Wi),P(X|Wi)(i=1,2)及给出待识别的X的情况下,根据贝叶斯公式计算出后验概率P(Wi|X) ; 2)根据1)中计算的后验概率值,找到最大的后验概率,则样本X属于该类 举例: 解决方案: 但对于两类来说,因为分母相同,所以可采取如下分类标准:

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%% %By Shelley from NCUT,April 14th 2011 %Email:just_for_h264@https://www.360docs.net/doc/49469576.html, %此程序利用贝叶斯分类算法,首先对两类样本进行训练, %进而可在屏幕上任意取点,程序可输出属于第一类,还是第二类%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%% clear; close all %读入两类训练样本数据 load data %求两类训练样本的均值和方差 u1=mean(Sample1); u2=mean(Sample2); sigm1=cov(Sample1); sigm2=cov(Sample2); %计算两个样本的密度函数并显示 x=-20:0.5:40; y= -20:0.5:20; [X,Y] = meshgrid(x,y); F1 = mvnpdf([X(:),Y(:)],u1,sigm1); F2 = mvnpdf([X(:),Y(:)],u2,sigm2); P1=reshape(F1,size(X)); P2=reshape(F2,size(X)); figure(2) surf(X,Y,P1) hold on surf(X,Y,P2) shading interp colorbar title('条件概率密度函数曲线'); %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %% %以下为测试部分 %利用ginput随机选取屏幕上的点(可连续取10个点)

五种贝叶斯网分类器的分析与比较

五种贝叶斯网分类器的分析与比较 摘要:对五种典型的贝叶斯网分类器进行了分析与比较。在总结各种分类器的基础上,对它们进行了实验比较,讨论了各自的特点,提出了一种针对不同应用对象挑选贝叶斯网分类器的方法。 关键词:贝叶斯网;分类器;数据挖掘;机器学习 故障诊断、模式识别、预测、文本分类、文本过滤等许多工作均可看作是分类问题,即对一给定的对象(这一对象往往可由一组特征描述),识别其所属的类别。完成这种分类工作的系统,称之为分类器。如何从已分类的样本数据中学习构造出一个合适的分类器是机器学习、数据挖掘研究中的一个重要课题,研究得较多的分类器有基于决策树和基于人工神经元网络等方法。贝叶斯网(Bayesiannetworks,BNs)在AI应用中一直作为一种不确定知识表达和推理的工具,从九十年代开始也作为一种分类器得到研究。 本文先简单介绍了贝叶斯网的基本概念,然后对五种典型的贝叶斯网分类器进行了总结分析,并进行了实验比较,讨论了它们的特点,并提出了一种针对不同应用对象挑选贝叶斯分类器的方法。 1贝叶斯网和贝叶斯网分类器 贝叶斯网是一种表达了概率分布的有向无环图,在该图中的每一节点表示一随机变量,图中两节点间若存在着一条弧,则表示这两节点相对应的随机变量是概率相依的,两节点间若没有弧,则说明这两个随机变量是相对独立的。按照贝叶斯网的这种结构,显然网中的任一节点x均和非x的父节点的后裔节点的各节点相对独立。网中任一节点X均有一相应的条件概率表(ConditionalProbabilityTable,CPT),用以表示节点x在其父节点取各可能值时的条件概率。若节点x无父节点,则x的CPT为其先验概率分布。贝叶斯网的结构及各节点的CPT定义了网中各变量的概率分布。 贝叶斯网分类器即是用于分类工作的贝叶斯网。该网中应包含一表示分类的节点C,变量C的取值来自于类别集合{C,C,....,C}。另外还有一组节点x=(x,x,....,x)反映用于分类的特征,一个贝叶斯网分类器的结构可如图1所示。 对于这样的一贝叶斯网分类器,若某一待分类的样本D,其分类特征值为x=(x,x,....,x),则样本D属于类别C的概率为P(C=C|X=x),因而样本D属于类别C的条件是满足(1)式: P(C=C|X=x)=Max{P(C=C|X=x),P(C=C|X=x),...,P(C=C|X=x)}(1) 而由贝叶斯公式 P(C=C|X=x)=(2) 其中P(C=Ck)可由领域专家的经验得到,而P(X=x|C=Ck)和P(X=x)的计算则较困难。应用贝叶斯网分类器分成两阶段。一是贝叶斯网分类器的学习(训练),即从样本数据中构造分类器,包括结构(特征间的依赖关系)学习和CPT表的学习。二是贝叶斯网分类器的推理,即计算类结点的条件概率,对待分类数据进行分类。这两者的时间复杂性均取决于特征间的依赖程度,甚至可以是NP完全问题。因而在实际应用中,往往需

贝叶斯分类多实例分析总结

用于运动识别的聚类特征融合方法和装置 提供了一种用于运动识别的聚类特征融合方法和装置,所述方法包括:将从被采集者的加速度信号 中提取的时频域特征集的子集内的时频域特征表示成以聚类中心为基向量的线性方程组;通过求解线性方程组来确定每组聚类中心基向量的系数;使用聚类中心基向量的系数计算聚类中心基向量对子集的方差贡献率;基于方差贡献率计算子集的聚类中心的融合权重;以及基于融合权重来获得融合后的时频域特征集。 加速度信号 →时频域特征 →以聚类中心为基向量的线性方程组 →基向量的系数 →方差贡献率 →融合权重 基于特征组合的步态行为识别方法 本发明公开了一种基于特征组合的步态行为识别方法,包括以下步骤:通过加速度传感器获取用户在行为状态下身体的运动加速度信息;从上述运动加速度信息中计算各轴的峰值、频率、步态周期和四分位差及不同轴之间的互相关系数;采用聚合法选取参数组成特征向量;以样本集和步态加速度信号的特征向量作为训练集,对分类器进行训练,使的分类器具有分类步态行为的能力;将待识别的步态加速度信号的所有特征向量输入到训练后的分类器中,并分别赋予所属类别,统计所有特征向量的所属类别,并将出现次数最多的类别赋予待识别的步态加速度信号。实现简化计算过程,降低特征向量的维数并具有良好的有效性的目的。 传感器 →样本及和步态加速度信号的特征向量作为训练集 →分类器具有分类步态行为的能力 基于贝叶斯网络的核心网故障诊断方法及系统 本发明公开了一种基于贝叶斯网络的核心网故障诊断方法及系统,该方法从核心网的故障受理中心采集包含有告警信息和故障类型的原始数据并生成样本数据,之后存储到后备训练数据集中进行积累,达到设定的阈值后放入训练数据集中;运用贝叶斯网络算法对训练数据集中的样本数据进行计算,构造贝叶斯网络分类器;从核心网的网络管理系统采集含有告警信息的原始数据,经贝叶斯网络分类器计算获得告警信息对应的故障类型。本发明,利用贝叶斯网络分类器构建故障诊断系统,实现了对错综复杂的核心网故障进行智能化的系统诊断功能,提高了诊断的准确性和灵活性,并且该系统构建于网络管理系统之上,易于实施,对核心网综合信息处理具有广泛的适应性。 告警信息和故障类型 →训练集 —>贝叶斯网络分类器

朴素贝叶斯分类器应用

朴素贝叶斯分类器的应用 作者:阮一峰 日期:2013年12月16日 生活中很多场合需要用到分类,比如新闻分类、病人分类等等。 本文介绍朴素贝叶斯分类器(Naive Bayes classifier),它是一种简单有效的常用分类算法。 一、病人分类的例子 让我从一个例子开始讲起,你会看到贝叶斯分类器很好懂,一点都不难。 某个医院早上收了六个门诊病人,如下表。 症状职业疾病 打喷嚏护士感冒 打喷嚏农夫过敏 头痛建筑工人脑震荡 头痛建筑工人感冒 打喷嚏教师感冒 头痛教师脑震荡 现在又来了第七个病人,是一个打喷嚏的建筑工人。请问他患上感冒的概率有多大? 根据贝叶斯定理: P(A|B) = P(B|A) P(A) / P(B)

可得 P(感冒|打喷嚏x建筑工人) = P(打喷嚏x建筑工人|感冒) x P(感冒) / P(打喷嚏x建筑工人) 假定"打喷嚏"和"建筑工人"这两个特征是独立的,因此,上面的等式就变成了 P(感冒|打喷嚏x建筑工人) = P(打喷嚏|感冒) x P(建筑工人|感冒) x P(感冒) / P(打喷嚏) x P(建筑工人) 这是可以计算的。 P(感冒|打喷嚏x建筑工人) = 0.66 x 0.33 x 0.5 / 0.5 x 0.33 = 0.66 因此,这个打喷嚏的建筑工人,有66%的概率是得了感冒。同理,可以计算这个病人患上过敏或脑震荡的概率。比较这几个概率,就可以知道他最可能得什么病。 这就是贝叶斯分类器的基本方法:在统计资料的基础上,依据某些特征,计算各个类别的概率,从而实现分类。 二、朴素贝叶斯分类器的公式 假设某个体有n项特征(Feature),分别为F1、F2、...、F n。现有m个类别(Category),分别为C1、C2、...、C m。贝叶斯分类器就是计算出概率最大的那个分类,也就是求下面这个算式的最大值: P(C|F1F2...Fn) = P(F1F2...Fn|C)P(C) / P(F1F2...Fn) 由于 P(F1F2...Fn) 对于所有的类别都是相同的,可以省略,问题就变成了求 P(F1F2...Fn|C)P(C) 的最大值。

Python实现贝叶斯分类器

关于朴素贝叶斯 朴素贝叶斯算法是一个直观的方法,使用每个属性归属于某个类的概率来做预测。你可以使用这种监督性学习方法,对一个预测性建模问题进行概率建模。 给定一个类,朴素贝叶斯假设每个属性归属于此类的概率独立于其余所有属性,从而简化了概率的计算。这种强假定产生了一个快速、有效的方法。 给定一个属性值,其属于某个类的概率叫做条件概率。对于一个给定的类值,将每个属性的条件概率相乘,便得到一个数据样本属于某个类的概率。 我们可以通过计算样本归属于每个类的概率,然后选择具有最高概率的类来做预测。 通常,我们使用分类数据来描述朴素贝叶斯,因为这样容易通过比率来描述、计算。一个符合我们目的、比较有用的算法需要支持数值属性,同时假设每一个数值属性服从正态分布(分布在一个钟形曲线上),这又是一个强假设,但是依然能够给出一个健壮的结果。 预测糖尿病的发生 本文使用的测试问题是“皮马印第安人糖尿病问题”。 这个问题包括768个对于皮马印第安患者的医疗观测细节,记录所描述的瞬时测量取自诸如患者的年纪,怀孕和血液检查的次数。所有患者都是21岁以上(含21岁)的女性,所有属性都是数值型,而且属性的单位各不相同。 每一个记录归属于一个类,这个类指明以测量时间为止,患者是否是在5年之内感染的糖尿病。如果是,则为1,否则为0。 机器学习文献中已经多次研究了这个标准数据集,好的预测精度为70%-76%。 下面是pima-indians.data.csv文件中的一个样本,了解一下我们将要使用的数据。 注意:下载文件,然后以.csv扩展名保存(如:pima-indians-diabetes.data.csv)。查看文件中所有属性的描述。 Python 1 2 3 4 5 6,148,72,35,0,33.6,0.627,50,1 1,85,66,29,0,26.6,0.351,31,0 8,183,64,0,0,23.3,0.672,32,1 1,89,66,23,94,28.1,0.167,21,0 0,137,40,35,168,43.1,2.288,33,1 朴素贝叶斯算法教程 教程分为如下几步: 1.处理数据:从CSV文件中载入数据,然后划分为训练集和测试集。 2.提取数据特征:提取训练数据集的属性特征,以便我们计算概率并做出预测。 3.单一预测:使用数据集的特征生成单个预测。 4.多重预测:基于给定测试数据集和一个已提取特征的训练数据集生成预测。 5.评估精度:评估对于测试数据集的预测精度作为预测正确率。 6.合并代码:使用所有代码呈现一个完整的、独立的朴素贝叶斯算法的实现。 1.处理数据

贝叶斯分类器工作原理

贝叶斯分类器工作原理原理 贝叶斯分类器是一种比较有潜力的数据挖掘工具,它本质上是一 种分类手段,但是它的优势不仅仅在于高分类准确率,更重要的是,它会通过训练集学习一个因果关系图(有向无环图)。如在医学领域,贝叶斯分类器可以辅助医生判断病情,并给出各症状影响关系,这样医生就可以有重点的分析病情给出更全面的诊断。进一步来说,在面对未知问题的情况下,可以从该因果关系图入手分析,而贝叶斯分类器此时充当的是一种辅助分析问题领域的工具。如果我们能够提出一种准确率很高的分类模型,那么无论是辅助诊疗还是辅助分析的作用都会非常大甚至起主导作用,可见贝叶斯分类器的研究是非常有意义的。 与五花八门的贝叶斯分类器构造方法相比,其工作原理就相对简 单很多。我们甚至可以把它归结为一个如下所示的公式: 其中实例用T{X0,X1,…,Xn-1}表示,类别用C 表示,AXi 表示Xi 的 父节点集合。 选取其中后验概率最大的c ,即分类结果,可用如下公式表示 () ()()() ()( ) 0011111 00011111 0|,, ,|,,, ,C c |,i i n n n i i X i n n n i i X i P C c X x X x X x P C c P X x A C c P X x X x X x P P X x A C c ---=---========= ===∝===∏∏()() 1 0arg max |A ,i n c C i i X i c P C c P X x C c -∈=====∏

上述公式本质上是由两部分构成的:贝叶斯分类模型和贝叶斯公式。下面介绍贝叶斯分类器工作流程: 1.学习训练集,存储计算条件概率所需的属性组合个数。 2.使用1中存储的数据,计算构造模型所需的互信息和条件互信息。 3.使用2种计算的互信息和条件互信息,按照定义的构造规则,逐步构建出贝叶斯分类模型。 4.传入测试实例 5.根据贝叶斯分类模型的结构和贝叶斯公式计算后验概率分布。6.选取其中后验概率最大的类c,即预测结果。 其流程图如下所示:

贝叶斯分类器在机器学习中的研究

贝叶斯分类器在机器学习中的研究 摘要:贝叶斯分类器作为机器学习中的一种分类算法,在有些方面有着其优越的一面,在机器学习中有着广泛的应用,本文通过对机器学习中贝叶斯分类器的解析,指出了贝叶斯分类器在机器学习中的适用方面和不足之处。使其能更加清楚认识了解贝叶斯算法,并能在适合的方面使用贝叶斯算法。 关键词:机器学习贝叶斯算法适用 1. 引言 机器学习是计算机问世以来,兴起的一门新兴学科。所谓机器学习是指研究如何使用计算机来模拟人类学习活动的一门学科,研究计算机获得新知识和新技能,识别现有知识,不断改善性能,实现自我完善的方法,从而使计算机能更大性能的为人类服务。 机器学习所适用的范围广阔,在医疗、军事、教育等各个领域都有着广泛的应用,并发挥了积极的作用。而分类是机器学习中的基本问题之一,目前针对不同的分类技术,分类方法有很多,如决策树分类、支持向量机分类、神经网络分类等。贝叶斯分类器作为机器学习分类中的一种,近年来在许多领域也受到了很大的关注,本文对贝叶斯分类器进行总结分析和比较,提出一些针对不同应用对象挑选贝叶斯分类器的方法。 2. 贝叶斯公式与贝叶斯分类器: 2.1贝叶斯公式: 在概率论方面的贝叶斯公式是在乘法公式和全概率公式的基础上推导出来的,它是指设■是样本空间Ω的一个分割,即■互不相容,且,如果■,■,■,则 ,■ 这就是贝叶斯公式,■称为后验概率,■为先验概率,一般是已知先验概率来求后验概率,贝叶斯定理提供了“预测”的实用模型,即已知某事实,预测另一个事实发生的可能性大小。 2.2 机器学习中的贝叶斯法则: 在机器学习中,在给定训练数据D时,确定假设空间H中的最佳假设,我们用■来代表在没训练数据前假设■拥有的初始概率。■为■的先验概率,用■代表将要观察训练数据D的先验概率,以■代表假设■成立的情况下观察到数据D的概率,以■为给定训练数据D时■成立的概率,■称为■的后验概率,机器学习中

02-机器学习_第2天(贝叶斯分类算法与应用)

机器学习算法day02_贝叶斯分类算法及应用课程大纲 课程目标: 1、理解朴素贝叶斯算法的核心思想 2、理解朴素贝叶斯算法的代码实现 3、掌握朴素贝叶斯算法的应用步骤:数据处理、建模、运算和结果判定

1. 朴素贝叶斯分类算法原理 1.1 概述 贝叶斯分类算法是一大类分类算法的总称 贝叶斯分类算法以样本可能属于某类的概率来作为分类依据 朴素贝叶斯分类算法是贝叶斯分类算法中最简单的一种 注:朴素的意思是条件概率独立性 1.2 算法思想 朴素贝叶斯的思想是这样的: 如果一个事物在一些属性条件发生的情况下,事物属于A的概率>属于B的概率,则判定事物属于A 通俗来说比如,你在街上看到一个黑人,我让你猜这哥们哪里来的,你十有八九猜非洲。为什么呢? 在你的脑海中,有这么一个判断流程: 1、这个人的肤色是黑色<特征> 2、非洲人中黑色人种概率最高<已知的是条件概率:p(黑色|非洲人)> 而用于判断的标准是:P(非洲人|黑色) 3、没有其他辅助信息的情况下,最好的判断就是非洲人 这就是朴素贝叶斯的思想基础。 再扩展一下,假如某条街上,有100人,其中有50个美国人,50个非洲人,看到一个讲英语的黑人,那我们是怎么去判断他来自于哪里? 提取特征: 肤色:黑 语言:英语 先验知识: P(黑色|非洲人) = 0.8 P(讲英语|非洲人)=0.1 P(黑色|美国人)= 0.2 P(讲英语|美国人)=0.9 要判断的概率是: P(非洲人|(讲英语,黑色) )

P(美国人|(讲英语,黑色) ) 思考过程: P(非洲人|(讲英语,黑色) ) 的分子= 0.1 * 0.8 *0.5 =0.04 P(美国人|(讲英语,黑色) ) 的分子= 0.9 *0.2 * 0.5 = 0.09 从而比较这两个概率的大小就等价于比较这两个分子的值: 可以得出结论,此人应该是:美国人 我们的判断结果就是:此人来自美国! 其蕴含的数学原理如下: p(A|xy)=p(Axy)/p(xy)=p(Axy)/p(x)p(y)=p(A)/p(x)*p(A)/p(y)* p(xy)/p(xy)=p(A|x)p(A|y) 朴素贝叶斯分类器 讲了上面的小故事,我们来朴素贝叶斯分类器的表示形式: 当特征为为x时,计算所有类别的条件概率,选取条件概率最大的类别作为待分类的类别。由于上公式的分母对每个类别都是一样的,因此计算时可以不考虑分母,即

贝叶斯分类器代码

clc;clear all;close all; %训练集 SampleMark={'咳嗽','头晕','体温','流感'} Sample={ '是','是','正常', '否';.... '是','是','高', '是';.... '是','是','非常高','是';.... '否','是','正常', '否';.... '否','否','高', '否';.... '否','是','非常高','是';.... '是','否','高', '是';.... '否','是','正常', '否';.... } %流感为是的与否的两类子集 IsFlu=Sample(strmatch('是',Sample(:,4)),:); NotFlu=Sample(strmatch('否',Sample(:,4)),:); %先验概率 N1=size(IsFlu,1); N2=size(NotFlu,1); Pw1=N1/(N1+N2); Pw2=N2/(N1+N2); %咳嗽似然度 %采用m-估计,计算各属性先验概率 x1=size(strmatch('是',Sample(:,1)),1); x2=size(strmatch('否',Sample(:,1)),1); p1=x1/(x1+x2); p2=x2/(x1+x2); n1=size(strmatch('是',IsFlu(:,1)),1); n2=size(strmatch('否',IsFlu(:,1)),1); PXwi(1,1:2)=[(n1+1)/(n1+n2+p1) (n2+1)/(n1+n2+p2)]; n1=size(strmatch('是',NotFlu(:,1)),1); n2=size(strmatch('否',NotFlu(:,1)),1); PXwi(2,1:2)=[(n1+1)/(n1+n2+p1) (n2+1)/(n1+n2+p2)]; %头晕似然度 %采用m-估计,计算各属性先验概率 x1=size(strmatch('是',Sample(:,2)),1); x2=size(strmatch('否',Sample(:,2)),1); p1=x1/(x1+x2); p2=x2/(x1+x2); n1=size(strmatch('是',IsFlu(:,2)),1); n2=size(strmatch('否',IsFlu(:,2)),1); PXwi(1,3:4)=[(n1+1)/(n1+n2+p1) (n2+1)/(n1+n2+p2)]; n1=size(strmatch('是',NotFlu(:,2)),1); n2=size(strmatch('否',NotFlu(:,2)),1);

朴素贝叶斯分类算法代码实现

朴素贝叶斯分类算法 一.贝叶斯分类的原理 贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。也就是说,贝叶斯分类器是最小错误率意义上的优化。 贝叶斯分类器是用于分类的贝叶斯网络。该网络中应包含类结点C,其中C 的取值来自于类集合( c1 , c2 , ... , cm),还包含一组结点X = ( X1 , X2 , ... , Xn),表示用于分类的特征。对于贝叶斯网络分类器,若某一待分类的样本D,其分类特征值为x = ( x1 , x2 , ... , x n) ,则样本D 属于类别ci 的概率P( C = ci | X1 = x1 , X2 = x 2 , ... , Xn = x n) ,( i = 1 ,2 , ... , m) 应满足下式: P( C = ci | X = x) = Max{ P( C = c1 | X = x) , P( C = c2 | X = x ) , ... , P( C = cm | X = x ) } 贝叶斯公式: P( C = ci | X = x) = P( X = x | C = ci) * P( C = ci) / P( X = x) 其中,P( C = ci) 可由领域专家的经验得到,而P( X = x | C = ci) 和P( X = x) 的计算则较困难。 二.贝叶斯伪代码 整个算法可以分为两个部分,“建立模型”与“进行预测”,其建立模型的伪代码如下: numAttrValues 等简单的数据从本地数据结构中直接读取 构建几个关键的计数表 for(为每一个实例) { for( 每个属性 ){ 为 numClassAndAttr 中当前类,当前属性,当前取值的单元加 1 为 attFrequencies 中当前取值单元加 1 } } 预测的伪代码如下: for(每一个类别){ for(对每个属性 xj){ for(对每个属性 xi){

朴素贝叶斯分类在机器学习中的应用

朴素贝叶斯分类在机器学习中的应用 贝叶斯分类技术在众多分类技术中占有着重要的地位。它属于统计学分类的范畴,是一种非规则的分类方法。贝叶斯分类方法的主要内容是通过对已分类的样本子集进行训练,学习归纳出分类函数(对离散变量的预测称作分类,对连续变量的分类成为回归),利用训练得到的分类器实现对未分类数据的分类。在众多贝叶斯分类技术中,朴素贝叶斯分类算法是其中应用最多、表现效果最好的一项贝叶斯分类技术。 一、朴素贝叶斯分类法简介 朴素贝叶斯分类法来源于贝叶斯定理 其中称为先验概率,称为后验概率,称为现象概率,称为条件概率。贝叶斯定理描述的是如何用已知的事实去推理未知的概率。在进行预测前,我们有事件A 发生的概率P(A),有对事件B的预测概率P(B),还有已知B发生的条件下事件A发生的概率,由这三个概率可以推理出在事件A发生的条件下事件B发生的概率,这一过程也可以解释为我们用事件A的相关信息去修正B发生的概率,在已知A的一些信息后去更新对事件B的认识。 朴素贝叶斯分类法顾名思义,是完全基于贝叶斯定理而来的,其定理形式为 其中Category是类别,Document是待分类事物,定理描述的是根据各种先验概率和概率,来计算某事物属于某类别的概率。朴素贝叶斯分类法即是利用极大似然的思想,通过比较事物被分到不同类别的概率,来给出一个最优的结果,把事物分到概率最大的那个类别中去。这一比较和分类的过程在定理中,事物Document是由若干特征条件组成的,即 需要提到的是,在上面的公式中,分子部分满足

用数学语言表述为: 设特征向量x中有n个特征,则概率为 这称为定理成立的“条件独立性假设”,即事物的特征之间是相互独立的,这也即是定理名称中“朴素”一词的含义。所谓独立,是指的是统计意义上的独立,即一个特征或者单词出现的可能性与它和其他单词相邻没有关系。举个例子来说,假设单词bacon出现在delicious 和出现在ugly后面的概率相同,当然这显然是不正确的,但这确实是朴素贝叶斯分类的一条前提假设。虽然这样做可能会对预测结果的准确性造成一定的影响,但实际上,相比于使用此公式对问题求解的简化程度,这一点误差是完全可以接受的,在实践中也能证明,朴素贝叶斯的实际效果是相当好的。 二、各部分概率的解释与计算 在朴素贝叶斯定理中,为求得,需要首先取得三个概率:先验概率,条件概率,和现象概率。这三个概率并不是都很容易求出来的,而如何准确获取这三个概率也成为机器学习领域研究的热门话题。在这里我以垃圾邮件分类为例来说明这三个概率的计算,假设在如下5封邮件中,统计如下几个词在邮件中是否出现,并统计邮件是否被标记为垃圾邮件: 现在给定一封邮件,四个词在其中出现的情况分别为0, 1, 1, 1, 0,要判断该封邮件是否为垃圾邮件。 1. 先验概率 理论上,先验概率是出现事物属于某一类的客观概率,但在实际应用中,先验概率往往

基于朴素贝叶斯分类器的文本分类算法

基于朴素贝叶斯分类器的文本分类算法(上) 2010-02-21 10:23:43| 分类:Lucene | 标签:|字号大中小订阅 转载请保留作者信息: 作者:phinecos(洞庭散人) Blog:https://www.360docs.net/doc/49469576.html,/ Email:phinecos@https://www.360docs.net/doc/49469576.html, Preface 本文缘起于最近在读的一本书-- Tom M.Mitchell的《机器学习》,书中第6章详细讲解了贝叶斯学习的理论知识,为了将其应用到实际中来,参考了网上许多资料,从而得此文。文章将分为两个部分,第一部分将介绍贝叶斯学习的相关理论(如果你对理论不感兴趣,请直接跳至第二部分<<基于朴素贝叶斯分类器的文本分类算法(下)>>)。第二部分讲如何将贝叶斯分类器应用到中文文本分类,随文附上示例代码。 Introduction 我们在《概率论和数理统计》这门课的第一章都学过贝叶斯公式和全概率公式,先来简单复习下: 条件概率 定义设A, B是两个事件,且P(A)>0 称P(B∣A)=P(AB)/P(A)为在条件A下发生的条件事件B发生的条件概率。 乘法公式设P(A)>0 则有P(AB)=P(B∣A)P(A) 全概率公式和贝叶斯公式 定义设S为试验E的样本空间,B1, B2, …Bn为E的一组事件,若BiBj=Ф, i≠j, i, j=1, 2, …,n; B1∪B2∪…∪Bn=S则称B1, B2, …, Bn为样本空间的一个划分。 定理设试验E的样本空间为,A为E的事件,B1, B2, …,Bn为的一个划分,且P(Bi)>0 (i=1, 2, …n),则P(A)=P(A∣B1)P(B1)+P(A∣B2)+ …+P(A∣Bn)P(Bn)称为全概率公式。 定理设试验俄E的样本空间为S,A为E的事件,B1, B2, …,Bn为的一个划分,则 P(Bi∣A)=P(A∣Bi)P(Bi)/∑P(A|Bj)P(Bj)=P(B|Ai)P(Ai)/P(A) 称为贝叶斯公式。说明:i,j均为下标,求和均是1到n 下面我再举个简单的例子来说明下。 示例1 考虑一个医疗诊断问题,有两种可能的假设:(1)病人有癌症。(2)病人无癌症。样本数据来自某化验测试,它也有两种可能的结果:阳性和阴性。假设我们已经有先验知识:在所有人口中只有0.008的人患病。此外,化验测试对有病的患者有98%的可能返回阳性结果,对无病患者有97%的可能返回阴性结果。 上面的数据可以用以下概率式子表示:

贝叶斯分类器

贝叶斯分类器 一、数学知识 1)先验概率 根据以往经验和分析得到的概率,即人们在未知条件下对事件发生可能性的猜测。 2)后验概率 事情已经发生,求这个事情发生的原因是由某个因素引起的可能性大小。 若A 是结果,B 是原因 则) ().()().()().()() ()(22111111B P B A P B P B A P B P B A P A P A B P A B P += = 即 ) 3().3()2().2()1().1() 1().1()1(原因原因结果原因原因结果原因原因结果原因原因结果结果原因P P P P P P P P P ++= 二、贝叶斯决策论【考虑如何基于所知概率和误判损失来选择最优的类别标记】 (一)贝叶斯分类器 )] )(([)() ()() (min arg )(1 i *x x h R E h R x c P x c R x c R x h x j N j ij y c == =∑=∈λ 其中: 所产生的损失 的样本误标记为是将一个真实标记为上限 产生的模型精度的理论反映了通过机器学习所斯风险 为总体风险,称为贝叶为贝叶斯最优分类器其中 i j h R h R x h c c )(-1)()(ij ***λ 若目标为最小化分类错误率 P(x) )c (c)P(x )()(max arg )(*),(1)(,1if 0ij P x c P x c P x h x c P x c R otherwise j i y c = =-=?? ?==∈其中即则,λ 推到过程:

) (max arg )(*)) (1(min arg ) (min arg ) (min arg )(*1 1 x X c y P x h x X c y P x X c y P x X c P x h k y c k y c k K k y c k K k ij y c ======-==≠===∈∈=∈=∈∑∑λ ① 先假定类条件概率具有某种确定的概率分布条件; ② 再基于训练样本对概率分布的参数进行估计 对于)(c P x 来说就是假设)(c P x 具有确定的形式并且被参数向量c Θ唯一确定,则任务就是利用训练集D 来估计参数c Θ,)(c P x 记为)(c x ΘP 参数c Θ的极大似然Λ Θ; ) x ()()x (log )(log )()(max arg c C C C D X C C C c c P D P P D P LL LL C Θ∏=ΘΘ =Θ=ΘΘ=Θ∑∈Λ 其中 注:这种参数化的方法估计结果的准确性依赖于所假设的概率分布形式是否符合潜在的 真实数据分布 三、朴素贝叶斯分类器【解决了后验概率)(x c P 难计算的问题】 采用了“属性条件独立性假设”,假设每个属性独立地对分类结果发生影响 ) (x c P

相关文档
最新文档