神经网络简史
《人工智能简史》读后感3000字

所谓人工智能,是研发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用的一门新的技术科学。
它是计算机科学的一个分支,企图凭借了解智能的实质来生产出一个类似于人类智能对事情做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等方面。
人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科研成果,将会是人类智慧的体现。
人工智能可以对人的意识、思维的信息过程的模拟。
人工智能指的是虽然不是人的智能,但能像人那样思考、也可能通过发展演变成超过人的智能。
人工智能是研究使计算机来模拟人的某些思维过程和智能行为,比如学习、推理、思考、规划等方式,主要包括通过计算机实现智能的原理或者制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。
人工智能涉及计算机科学、心理学、哲学和语言学等多门学科,其范围已远远超出了计算机科学的范畴,成为一门综合学科。
人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。
从思维观点看,人工智能不仅限于逻辑思维,要考虑形象、灵感思维才能促进人工智能的突破性的发展。
数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具。
数学进入人工智能学科,它们将互相促进而更快地发展。
数学给予人工智能学科计算方法和逻辑思维,人工智能学科给数学计算和发展提供了可靠的未来。
人工智能就其本质而言,是对人的思维的信息过程的模拟。
对于人的思维模拟可以从两条道路进行:一是结构模拟,仿照人脑的结构机制,制造出类似人脑一样思考方式的机器;二是功能模拟,暂时撇开人脑的内部结构,而从其功能过程进行模拟思考。
现代电子计算机的产生便是对人脑思维功能的模拟,是在对人脑思维的信息过程的模拟过程中产生的。
人工智能的起源最早要从1955年的一个叫做学习机讨论会的小会开始,然后就是公认的1956年达特茅斯会议,这是人工智能史上最重要的里程碑,被公认为人工智能之开始。
人工智能发展史现状未来展望ppt课件

人工智能现状
自动工程 (自动 智能
语音识别 (ivoka)
自然语言 理解
(Watson)
人工智能应用
• 识别系统:指纹识别、人脸识别、视网膜识别、虹膜识别、 掌纹识别等;
• 专家系统:智能搜索、定理证明、自动程序设计,航天应用 等;
• 研究范畴:自然语言处理、知识表现、智能搜索、推理规划 、机器学习、知识获取、调度问题、感知问题,模式识别、 逻辑程序设计等;
• 所以,有没有办法让计算机自己掌握学习的机制呢?也就 是学会学习。
AI行业的七大发展趋势
1、更聪明的机器人 2、更快的分析 3、更自然的互动 4、更微妙的恐惧 5、更智能的学习 6、知识共享 7、无人机时代
争
议
人工智能潜在的隐患
霍金在接受BBC采访时表示:“人类由于 受到缓慢的生物进化的限制,无法与机器竞争 ,并会被取代。全人工智能的发展可能导致人 类的终结……”
人工智能发展历程图灵人工智能之父图灵试验dartmouth会议首次提出人工智能这一术语标志着人工智能学科的诞生起源人工智能发展历程机器翻译机器定理证明机器博弈1956年samuel研制了跳棋程序它在1959年击败了samuel本人50年代70年代人工智能发展历程70年代专家系统1977年曾是赫伯特西蒙的研究生斯坦福大学青年学者费根鲍姆efeigenbaum在第五届国际人工智能大会上提出了知识工程的概念1976年美国斯坦福大学肖特列夫shortliff开发医学专家系统mycin人工智能发展简史ai被引入了市场并显示出实用价值80年代斯坦福大学国际研究所研制的sri地质勘探专家系统prospector在1982年预测了华盛顿的一个勘探地段的钼矿位置其开采价值超过了一亿美元人工智能公司商业化的自然语言处理系统intellect安装了一百多个机器翻译研究全面复苏并从实验室走向实用走向市场机器翻译研究全面复苏并从实验室走向实用走向市场很多可以满足简单的视觉应用的商用产品面世智能机器人的研制形成高潮人工智能发展简史1997年深蓝深蓝是美国ibm公司生产的一台超级国际象棋电脑重1270公斤有32个大脑微处理器每秒钟可以计算2亿步
人工智能发展简史

人工智能发展简史人工智能是在1956年作为一门新兴学科的名称正式提出的,自此之后,它已经取得了惊人的成就,获得了迅速的发展,它的发展历史,可归结为孕育、形成、发展这三个阶段。
1 孕育阶段这个阶段主要是指1956年以前。
自古以来,人们就一直试图用各种机器来代替人的部分脑力劳动,以提高人们征服自然的能力,其中对人工智能的产生、发展有重大影响的主要研究成果包括:早在公元前384-公元前322年,伟大的哲学家亚里士多德(Aristotle)就在他的名著《工具论》中提出了形式逻辑的一些主要定律,他提出的三段论至今仍是演绎推理的基本依据。
英国哲学家培根(F. Bacon)曾系统地提出了归纳法,还提出了“知识就是力量”的警句。
这对于研究人类的思维过程,以及自20世纪70年代人工智能转向以知识为中心的研究都产生了重要影响。
德国数学家和哲学家莱布尼茨(G. W. Leibniz)提出了万能符号和推理计算的思想,他认为可以建立一种通用的符号语言以及在此符号语言上进行推理的演算。
这一思想不仅为数理逻辑的产生和发展奠定了基础,而且是现代机器思维设计思想的萌芽。
英国逻辑学家布尔(C. Boole)致力于使思维规律形式化和实现机械化,并创立了布尔代数。
他在《思维法则》一书中首次用符号语言描述了思维活动的基本推理法则。
英国数学家图灵(A. M. Turing)在1936年提出了一种理想计算机的数学模型,即图灵机,为后来电子数字计算机的问世奠定了理论基础。
美国神经生理学家麦克洛奇(W. McCulloch)与匹兹(W. Pitts)在1943年建成了第一个神经网络模型(M-P模型),开创了微观人工智能的研究领域,为后来人工神经网络的研究奠定了基础。
美国爱荷华州立大学的阿塔纳索夫(Atanasoff)教授和他的研究生贝瑞(Berry)在1937年至1941年间开发的世界上第一台电子计算机“阿塔纳索夫-贝瑞计算机(Atanasoff-Berry Computer,ABC)”为人工智能的研究奠定了物质基础。
人工智能简史

D O C S S M A R T C R E AT E
CREATE TOGETHER
DOCS
01
人工智能的起源与概念
人工智能的诞生背景与历史
20世纪40年代至50年代
• 计算机科学的发展:图灵机等计算模型的诞生
• 逻辑理论:布尔代数、谓词逻辑等
• 多个学科领域的研究:心理学、神经科学、语言学等
• 学习数据分析:学生学习行为分析、成绩预测等
• 智能课程推荐:基于学生兴趣和能力的课程推荐
教育机器人:智能辅导、智能管理等功能
• 语音识别:学生语音输入的实时转录与理解
• 情感分析:学生情绪的识别与调节
人工智能在金融领域的实践与影响
风险管理:信用评估、欺诈检测等
投资策略:量化交易、智能投顾等
• 信用评分:基于历史数据的信用评分模型
• 知识表示与推理:基于深度学习的方法
• 可靠的AI:提高模型的鲁棒性与安全性
人工智能在各行业的广泛应用前景
01
03
智能制
造:自动
化生产、
智能质检
等
智能交通:
自动驾驶、
智能交通
管理等
智能家居:
家庭自动
化、智能
安防等
智能医疗:
远程诊断、
个性化治
疗等
02
04
人工智能带来的伦理、法律与社会问题
01
数据隐私与安全:保护用户数据、防止数据泄露等
诊断辅助:疾病识别、病灶检测等
• 图像识别:CNN模型在X光、CT、MRI等影像诊断中的应用
• 基因组学:基因测序数据分析与疾病预测
治疗方案推荐:个性化治疗方案、药物剂量调整等
人工智能编年体简史 一文看懂AI的来龙去脉

人工智能编年体简史一文看懂AI的来龙去脉【网易智能讯12月31日消息】1308年,加泰罗尼亚诗人兼神学家者雷蒙·卢尔(Ramon Llull)出版《The Ultimate General Art》,详细描述了其“逻辑机”的概念。
声称能够将基本的,无可否认的真理通过机械手段用简单的逻辑操作进行组合,进而获取新的知识。
他的工作对莱布尼兹产生了很大影响,后者进一步发展了他的思想。
1666年,数学家和哲学家莱布尼茨(Gottfried Leibniz)出版了《On the Combinatorial Art》,继承并发展了雷蒙·卢尔的思想,认为通过将人类思想编码,然后推过推演组合获取新知。
莱布尼茨认为所谓思想本质上是小概念的组合。
1726年,英国小说家乔纳森·斯威夫特(Jonathan Swift)出版《格列佛游记》。
小说中描述了飞岛国里一台类似卢尔逻辑机的神奇机器:“运用实际而机械的操作方法来改善人的思辨知识”,“最无知的人,只要适当付点学费,再出一点点体力,就可以不借助于任何天才或学力,写出关于哲学、诗歌、政治、法律、数学和神学的书来。
”1763年,托马斯·贝叶斯(Thomas Bayes)创造了一个推理事件概率的框架。
贝叶斯推断是机器学习的理论先导。
1854年,乔治·布尔(George Boole)认为逻辑推理过程可以像解方程式一样进行。
1898年,在麦迪逊广场花园举行的电气展览会上,尼古拉·特斯拉(Nikola Tesla)展示了世界上第一台无线电波遥控船只。
特斯拉称他的船配备了“借来的大脑”。
1914年,西班牙工程师莱昂纳多·托里斯·克维多(Leonardo Torres y Quevedo)示范了全球第一台自动象棋机。
能够在无人干预的情况下自动下棋。
1921年,捷克作家卡雷尔·恰佩克(Karel ?apek)在其戏剧《Rossum’s Universal Robots》中首次使用“机器人(robot)”一词。
《学习简史:从动物学习到机器学习》笔记

《学习简史:从动物学习到机器学习》阅读笔记目录一、内容综述 (2)二、书籍概述 (2)三、学习简史 (3)3.1 动物学习起源 (5)3.2 人类学习历程 (5)3.3 机器学习的兴起与发展 (7)四、动物学习 (8)4.1 动物学习的特点 (9)4.2 动物学习的类型 (11)4.3 动物学习的应用与启示 (11)五、机器学习 (13)5.1 机器学习的基本概念 (14)5.2 机器学习的分类 (15)5.3 机器学习的方法与技术 (17)5.4 机器学习的应用与挑战 (18)六、从动物学习到机器学习 (19)6.1 对比动物学习与机器学习 (21)6.2 两者结合的探索与实践 (22)6.3 未来发展的展望与思考 (24)七、人类在教育领域的应用及启示 (24)7.1 教育领域的应用现状 (26)7.2 对教育领域的启示与思考 (27)7.3 面对挑战的策略与建议 (29)八、总结与感悟 (30)8.1 本书的收获与体会 (31)8.2 对学习未来的展望 (32)一、内容综述《学习简史:从动物学习到机器学习》是一本深入探讨学习原理和方法的书籍,它从生物学中的动物学习现象出发,逐步引入了机器学习的概念和技术。
书中详细阐述了学习的基本原理,包括条件反射、操作性条件反射、社会学习理论等,并讨论了这些原理在动物和人类行为中的应用。
在机器学习部分,书中介绍了监督学习、无监督学习、强化学习等多种学习方法,并探讨了它们在实际应用中的优缺点。
书中还涉及了深度学习、神经网络等前沿技术的发展历程和应用场景。
除了对学习原理的阐述,书中还通过丰富的案例和实验展示了学习在不同领域中的实际应用,如自然语言处理、计算机视觉、机器人控制等。
这些案例和实验不仅增强了读者的理解,也为读者提供了实践灵感的来源。
《学习简史:从动物学习到机器学习》这本书为读者提供了一个全面而深入的学习视角,既揭示了学习的生物学基础,又展望了机器学习技术的未来发展趋势。
大脑简史读后感

大脑简史读后感大脑简史是一部由美国神经科学家谢伯让所著的书籍,它从进化论的角度介绍了大脑从神经元到神经系统的演化历程,并探讨了大脑是否摆脱了自私的基因的掌控,获取到更大的自由这个话题。
首先,我认为这本书的优点在于它提供了一个全新的视角来看待大脑的演化和发展。
与传统的观点不同,谢伯让认为大脑的演化不是线性的,而是跳跃性的,这更符合基因突变和自然选择的理论。
此外,他还探讨了大脑演化过程中基因和环境之间的互动关系,这是一个非常有意义的观点。
在作者传递的信息和思想方面,我认为最有趣的是基因突变和神经元排列这两个话题。
首先,基因突变在大脑演化的过程中扮演了非常重要的角色,而这个过程并不是随机的,而是有方向的。
例如,人类脑容量的扩大涉及到了六次重要的基因突变,这些突变影响了大脑的血管、葡萄糖转运、神经元数量等多个方面,进而影响了人类的认知和行为。
其次,神经元排列的改变也是大脑演化的关键因素之一。
随着神经元数量的增多,它们之间的连接也越来越复杂,从而形成了更加高效的神经网络。
这些思想如何适用于当今社会呢?我认为这本书提供了一些关于大脑演化的基础知识和理解,这有助于我们更好地理解人类的行为和认知。
例如,我们可以通过了解基因和环境的相互作用来更好地理解人类的性格和行为特点;我们还可以通过了解神经元的排列和连接来更好地理解人类的认知和学习能力。
此外,这些思想还启示我们在教育、人工智能等领域中要更加注重神经网络的研究和应用。
总的来说,大脑简史是一部非常有趣的书籍,它不仅提供了全新的视角来看待大脑的演化和发展,还探讨了基因和环境之间的互动关系以及神经网络的演化过程。
这些思想和观点对于我们更好地理解人类的行为和认知有着重要的意义,同时也为我们提供了一些启示和思考。
尼克 人工智能简史总结

尼克人工智能简史总结【尼克人工智能简史总结】1. 介绍人工智能(Artificial Intelligence,简称AI)是近年来备受关注的领域,它以模拟人类智力的技术和方法为基础,致力于使机器能够像人类一样思考、学习和决策。
尼克(Nick),一位前沿AI开发者,为了让我们更好地了解人工智能的历程和发展,这里我将总结尼克的人工智能简史。
2. 人工智能的起源人工智能的概念最早可以追溯到上世纪50年代,当时计算机科学家们开始思考如何让机器具备智能。
尼克认为,人工智能起初的目标是通过程序模拟人类思维和推理过程,但由于当时计算机的算力和数据量受限,实现真正智能的机器还是一种遥远的梦想。
3. 专家系统和机器学习在70年代末80年代初,专家系统成为人工智能领域的一个重要研究方向。
专家系统通过从专家知识中提取规则和关联关系,来实现某一特定领域的问题求解。
然而,尼克指出,专家系统的应用范围受限,只适用于特定领域的问题。
而后来的机器学习技术的发展则带来了新的希望。
机器学习通过让机器从数据中学习,并根据学习成果做出决策,进一步实现了人工智能的发展。
4. 深度学习的兴起深度学习(Deep Learning)是机器学习的一个分支,它模拟了人脑神经网络的结构和工作原理。
在深度学习的引领下,神经网络的训练模型大大提升了对复杂数据的处理能力。
尼克认为,深度学习的出现极大地推动了人工智能的发展,并在诸多领域展现出了惊人的成果,如图像识别、自然语言处理和智能机器人等。
5. 人工智能与现实生活人工智能技术正逐渐渗透到我们的日常生活和工作中。
尼克提到,智能音箱、智能家居和自动驾驶技术等都是人工智能在实际应用中的体现。
这些技术的出现,为我们的生活带来了许多便利。
然而,与此也引发了人们对于人工智能在道德和伦理方面的担忧和思考。
6. 人工智能的未来展望尼克认为,随着计算机算力的提升和大数据的普及,人工智能的发展潜力将更加显著。
他预测,在未来的几十年内,人工智能将不断进展,取得更加重大的成果。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
神经网络简史追根溯源,神经网络诞生于人类对于人脑和智能的追问。
而这个追问经历了旷远蒙昧的精神至上学说,直到 19 世纪 20 年代。
奥地利医生 Franz Joseph Gall ( 1758-1828 )推测人类的精神活动是由脑的功能活动而实现的,这才使人们认识到意识和精神活动具有物质基础,从而使人们对精神活动的认识从唯心主义的错误观点转到了唯物主义的正确轨道上来。
意大利细胞学家Camillo Golgi (1843~1926 )徒手将脑组织切成薄片,用重铬酸钾- 硝酸银浸染法染色,第一次在显微镜下观察到了神经细胞和神经胶质细胞。
这为神经科学的研究提供了最为基本的组织学方法。
西班牙神经组织学家Santiago Ramón y Cajal ( 1852~1934 )在掌握了 Golgi 染色法后,又进一步改良了 Golgi 染色法,并发明了独创的银染法——还原硝酸银染色法,此法可显示神经纤维的微细结构。
他发现神经细胞之间没有原生质的联系,因而提出神经细胞是整个神经活动最基本的单位(故称神经元),从而使复杂的神经系统有了进一步研究的切入口。
他对于大脑的微观结构研究是开创性的,被许多人认为是现代神经科学之父。
他绘图技能出众,他的关于脑细胞的几百个插图至今用于教学。
为此,Santiago Ramón y Cajal 和Camillo Golgi 两人共享了1906 年诺贝尔生理学或医学奖。
此后, Cajal 经过大量精细的实验,创立了“ 神经元学说” ,该学说的创立为神经科学的进一步发展开创了新纪元。
对智能机器的探索和计算机的历史一样古老。
尽管中文里“电脑”一开始就拥有了“脑”的头衔,但事实上与真正的智能相去甚远。
艾伦图灵在他的文章《COMPUTING MACHINERY AND INTELLIGENCE》中提出了几个标准来评估一台机器是否可以被认为是智能的,从而被称为“图灵测试”。
神经元及其连接里也许藏着智能的隐喻,沿着这条路线前进的人被称为连接主义。
1943年,Warren McCulloch 和Walter Pitts 发表题为《A Logical Calculus of the Ideas Immanent in Nervous Activity》的论文,首次提出神经元的M-P模型。
该模型借鉴了已知的神经细胞生物过程原理,是第一个神经元数学模型,是人类历史上第一次对大脑工作原理描述的尝试。
M-P模型的工作原理是神经元的输入信号加权求和,与阈值比较再决定神经元是否输出。
这是从原理上证明了人工神经网络可以计算任何算术和逻辑函数。
20世纪40年代末,Donald Olding Hebb在《The Organization of Behavior》中对神经元之间连接强度的变化进行了分析,首次提出来一种调整权值的方法,称为Hebb学习规则。
Hebb学习规则主要假定机体的行为可以由神经元的行为来解释。
Hebb受启发于巴普罗夫的条件反射实验,认为如果两个神经元在同一时刻被激发,则它们之间的联系应该被强化。
这就是Hebb提出的生物神经元的学习机制,在这种学习中,由对神经元的重复刺激,使得神经元之间的突触强度增加。
Hebb学习规则隶属于无监督学习算法的范畴,其主要思想是根据两个神经元的激发状态来调整期连接关系,以此实现对简单神经活动的模拟。
继Hebb学习规则之后,神经元的有监督Delta学习规则被提出,用于解决在输入输出已知的情况下神经元权值的学习问题。
1958年,就职于Cornell航空实验室的Frank Rosenblatt发明了的一种称为感知器(Perceptron)的人工神经网络。
它可以被视为一种最简单形式的前馈神经网络,是一种二元线性分类器(激活函数为sign(x))。
感知机是人工神经网络的第一个实际应用,标志着神经网络进入了新的发展阶段。
这次成功的应用也引起了许多学者对神经网络的研究兴趣。
1960年,斯坦福大学教授Bernard Widrow教授和他的研究生Ted Hoff开发了Adaline(Adaptive Linear Neuron 或 Adaptive Linear Element)和最小均方滤波器(LMS)。
Adaline网络和感知机的区别就是将感知机的Step函数换为Linear线性函数。
同一时期,Steinbuch等还提出了称为学习矩阵的二进制联想网络。
周志华《机器学习》第5章神经网络解释了BP算法实质是LMS算法(Least MeanSquare)算法的推广。
LMS试图使网络的输出均方差最小化,可用于神经元激活函数可微的感知机学习;将LMS推广到由非线性可微神经元组成的多层前馈神经网络,就得到BP算法,因此BP算法也被称为广义δ规则。
1969年,Marvin Minsky 和Seymour Papert 发表《Perceptrons: an introduction to computational geometry》一书,从数学的角度证明了单层神经网络具有有限的功能,甚至在面对简单的“异或”逻辑问题时也显得无能为力。
此后,神经网络的研究陷入了很长一段时间的低迷期。
1972年,芬兰的KohonenT.教授,提出了自组织神经网络SOM(Self-Organizing feature map)。
1974 年,Paul Werbos在哈佛大学攻读博士学位期间,就在其博士论文中发明了影响深远的著名BP神经网络学习算法。
但没有引起重视。
1976年,美国Grossberg教授提出了著名的自适应共振理论ART(Adaptive Resonance Theory),其学习过程具有自组织和自稳定的特征。
1982年,David Parker重新发现了BP神经网络学习算法。
1982年,John Hopfield提出了连续和离散的Hopfield神经网络模型,并采用全互联型神经网络尝试对非多项式复杂度的旅行商问题进行了求解,促进神经网络的研究再次进入了蓬勃发展的时期。
1983年,Hinton, G. E. 和 Sejnowski, T. J.设计了玻尔兹曼机,首次提出了“隐单元”的概念。
在全连接的反馈神经网络中,包含了可见层和一个隐层,这就是玻尔兹曼机。
层数的增加可以为神经网络提供更大的灵活性,但参数的训练算法一直是制约多层神经网络发展的一个重要瓶颈。
一个沉睡十年的伟大算法即将被唤醒。
1986年,David E. Rumelhart, Geoffrey E. Hinton 和 Ronald J. Williams发表文章《Learning representations by back-propagating errors》,重新报道这一方法,BP神经网络学习算法才受到重视。
BP算法引入了可微分非线性神经元或者sigmod函数神经元,克服了早期神经元的弱点,为多层神经网络的学习训练与实现提供了一种切实可行的解决途径。
1988年,继BP算法之后,David Broomhead 和David Lowe 将径向基函数引入到神经网络的设计中,形成了径向基神经网络(RBF)。
RBF网络是神经网络真正走向实用化的一个重要标志。
BP算法的性能分析文章:•G. Cybenko. 《Approximation bySuperpositions of a Sigmoidal Function》•Funahashi, K-I. 《On the approximaterealization of continuous mappings byneural networks》•Kur Hornik, Maxwell Stinchcombeand Halber White. 《Multilayerfeedforward networks are universalapproximators 》1989年,一系列文章对BP神经网络的非线性函数逼近性能进行了分析,并证明对于具有单隐层,传递函数为sigmod的连续型前馈神经网络可以以任意精度逼近任意复杂的连续映射。
这样,BP神经网络凭借能够保证对复杂函数连续映射关系的刻画能力(只要引入隐层神经元的个数足够多),打开了Marvin Minsky 和 Seymour Papert 早已关闭的研究大门。
统计学习理论是一种专门研究小样本情况下机器学习规律的理论。
Vapnik, V.N.等人从六、七十年代开始致力于此方面研究。
到九十年代中期,随着其理论的不断发展和成熟,也由于神经网络等学习方法在理论上缺乏实质性进展,统计学习理论开始受到越来越广泛的重视。
同时, 在这一理论基础上发展了一种新的通用学习方法——支持向量机( SVM ),它已初步表现出很多优于已有方法的性能。
此后的近十年时间,神经网络由于其浅层结构,容易过拟合以及参数训练速度慢等原因,曾经火热的神经网络又慢慢的淡出了人们的视线。
值得一提的是,1997年,Sepp Hochreiter和Jurgen Schmidhuber首先提出长短期记忆(LSTM)模型。
直到2006年,计算机处理速度和存储能力大大提高,为深度学习的提出铺平了道路。
G. E. Hinton 和他的学生 R. R. Salakhutdinov 在《科学》杂志上发表题为《Reducing the Dimensionality of Data with Neural Networks》的文章,掀起了深度学习在学术界和工业界的研究热潮。
文章摘要阐述了两个重要观点:一是多隐层的神经网络可以学习到能刻画数据本质属性的特征,对数据可视化和分类等任务有很大帮助;二是可以借助于无监督的“逐层初始化”策略来有效克服深层神经网络在训练上存在的难度。
这篇文章是一个分水岭,拉开了深度学习大幕,标志着深度学习的诞生。
从此,历史这样写就:从感知机提出,到BP算法应用以及2006年以前的历史被称为浅层学习,以后的历史被称为深度学习。
总结起来,典型的浅层学习模型包括:传统隐马尔可夫模型(HMM)、条件随机场(CRFs)、最大熵模型(MaxEnt)、boosting、支持向量机(SVM)、核回归及仅含单隐层的多层感知器(MLP)等。
同年,G. E. Hinton 又提出了深度信念网络(Deep BeliefNetwork, DBN) 。
深度信念网络基于受限玻尔兹曼机构建。
限制玻尔兹曼机(RBM)是一种玻尔兹曼机的变体,但限定模型必须为二分图。
模型中包含对应输入参数的输入(可见)单元和对应训练结果的隐单元,图中的每条边必须连接一个可见单元和一个隐单元。
与此相对,“无限制”玻尔兹曼机(BM)包含隐单元间的边,使之成为递归神经网络。
BM 由Geoffrey Hinton 和 Terry Sejnowski 在1985年发明,1986年Paul Smolensky 命名了RBM,但直到Geoffrey Hinton及其合作者在2006年左右发明快速学习算法后,受限玻兹曼机才变得知名。