人工智能与神经网络发展研究

人工智能与神经网络发展研究
人工智能与神经网络发展研究

Computer Science and Application 计算机科学与应用, 2018, 8(2), 154-165

Published Online February 2018 in Hans. https://www.360docs.net/doc/a25357917.html,/journal/csa

https://https://www.360docs.net/doc/a25357917.html,/10.12677/csa.2018.82019

Development Analysis of Artificial

Intelligence and Neural Networks

Zhisen Sun1, Hongxin Li1,2, Yaoyi Xi1, Qiang Li1

1Strategic Support Force Information Engineering University, Luoyang Henan

2State Key Laboratory of Mathematical Engineering and Advanced Computing, Zhengzhou Henan

Received: Jan. 23rd, 2018; accepted: Feb. 16th, 2018; published: Feb. 23rd, 2018

Abstract

With the rapid development of computer technology, related theory and technology based on ar-tificial intelligence becomes more matured, spreading largely in applicable fields. The paper first introduces the definition and development status of artificial intelligence and neural networks, and then summarizes related technologies. We highlight the relationship of artificial intelligence, machine learning, neural network and deep learning. Finally we represent the current problems and future views in artificial intelligence research.

Keywords

Artificial Intelligence, Neural Networks, Machine Learning, Deep Learning

人工智能与神经网络发展研究

孙志森1,李宏欣1,2,席耀一1,李强1

1战略支援部队信息工程大学,河南洛阳

2数学工程与先进计算国家重点实验室,河南郑州

收稿日期:2018年1月23日;录用日期:2018年2月16日;发布日期:2018年2月23日

摘要

随着计算机技术的飞速发展,人工智能相关理论和技术日趋成熟,应用领域不断扩大。本文首先介绍了人工智能和神经网络的定义及发展现状,然后对其相关技术及其之间的关系进行了归纳阐释,最后指出当前人工智能研究方面存在的问题并提出了展望。

孙志森等

关键词

人工智能,神经网络,机器学习,深度学习

Copyright ? 2018 by authors and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY).

https://www.360docs.net/doc/a25357917.html,/licenses/by/4.0/

1. 引言

2016年3月,AlphaGo以总分4比1战胜韩国围棋选手李世石;2016年5月,AlphaGo以总分3比0战胜中国围棋选手柯洁;2017年10月,Alpha Zero问世,通过自己学习围棋,以100:0完胜AlphaGo Lee (AlphaGo和李世石联队)。上述事件将人们的视野转向人工智能这一领域,也说明了人工智能在计算机领域内,开始得到广泛重视,并获得了迅速发展。

人工智能(Artificial Intelligence,简称AI),最初是在1956年,由John McCarthy, Marvin Minsky、Arthur Samuel和Claude Elwood Shannon (信息论创始人)等在达特摩斯(Dartmouth)会议上提出的[1]。但是关于AI的定义,一直以来却不断被人诠释。维基百科对于人工智能的解释是,“区别于人类或其他动物智能,而由机器表现出来的智能被称为人工智能”。在计算机科学看来,人工智能研究领域就是智能机器人(Intelligent Agents) [2]。Russell在其书《人工智能:一个现代方法》(《AI:A modern approach》)中系统归纳了人工智能的各种定义,他给将其分为四类:类人思考(Thinking Humanly)、类人行动(Acting Hu-manly)、理性思考(Thinking Rationally)、理性行动(Acting Rationally),具体说就是从类人和理性的思考与行动两个大维度给予了解读。该书最终对AI的定义,更倾向于理性这个维度[3]。鉴于上面的总结,我们对人工智能给出以下定义:“人工智能是研究赋予机器完成人类对于周围环境做出理性反应所展示出的智能的科学。”

2017年7月,我国正式发布《新一代人工智能发展规划》,从国家层面制定了未来10多年人工智能的战略部署,目前我国各企业和领域对人工智能人才需求很旺盛,却明显人才供应不足。据麦肯锡70页特辑报告论述《中国人工智能的未来之路》指出,我国的研究人员在基础算法研究领域仍远远落后于英美同行,美国50%以上的数据科学家拥有10年以上的工作经验,而我国这个比例不足10%,更有超过40%的数据科学家工作经验尚不足5年,且人工智能科学家大多集中于计算机视觉和语音识别等领域,其他领域人才相对匮乏[4],这些都是未来一段时间,我国各大高校和各人工智能培训机构需要努力的方向。

近期我们用百度指数对比分析了两个关键词——“人工智能”和“人工神经网络”(如图1~4),总结得到以下结论:1) 人工智能和深度学习的关注度总体呈上升趋势,尤其是人工智能研究愈演愈烈;2) 随着国家对人工智能领域的重视,相关区域(经济发达地区)和人群(30到39岁青年男性人群)加大对该领域在科研、应用开发和培训关注和投入;3) 预计在随后几年内,人工智能之花会逐渐结出丰硕果实,惠及普通民众。

本文重点介绍人工智能和人工神经网络的研究进展及其相关技术,深刻揭示人工智能、机器学习、神经网络和深度学习等概念之间的关系,总结人工智能研究领域存在的问题并提出发展建议,所做工作对于人工智能的深入研究具有一定的参考价值。

孙志森 等

Figure 1. General trend of the Baidu index for AI and ANNs

图1. 人工智能和人工神经网络百度指数整体趋势

Figure 2. The direction related words and fast rising correlation words of AI

图2. 人工智能搜索去向相关词和上升最快相关词

Figure 3. Regional distribution of the Baidu index for Artificial Intelligence

图3. 人工智能百度指数搜索的区域分布

孙志森 等

Figure 4. Population attributes of the Baidu index for AI

图4. 人工智能百度指数搜索的人群属性

2. 研究进展

2.1. 人工智能研究进展

1956年John McCarthy, Marvin Minsky 、Arthur Samuel 和Claude Elwood Shannon 等学者在Dartmouth 会议上正式提出人工智能概念[1]。1958年,John McCarthy 开发人工智能研究中最流行的编程语言LISP 。

随后很多专家学者编制开发了各式各样的人工智能程序,例如下跳棋程序、数学定理证明程序等。1965年,Herbert Simon 甚至预言20年内智能机器将能够取代人工,这就是人工智能的第一次研究高潮。但是人工智能研究者低估了解决实际问题的困难程度,很多项目进展迟滞。1973年,SirJamesLighthill 给英国科学研究委员会做了《关于人工智能的综合调查》(《Artificial Intelligence: A General Survey 》)的报告,在报告中称:“迄今为止,人工智能的研究没有带来任何重要影响。”,其后,美国政府和英国政府大幅度削减人工智能研究的经费。因此,随后几年,被称为“人工智能的冬天”。

20世纪80年代中期,专家系统的兴起,又使得人工智能研究热潮再度掀起。

20世纪80年代末,随着低成本的个人微型计算机可以更有效率的运行LISP 程序,而专门运行LISP 程序的机器随之衰弱,退出市场。人工智能研究的低潮再次到来。

1997年5月11日,IBM 公司生产的国际象棋计算机“深蓝”在比赛中战胜当时的国际象棋世界冠军加里·卡斯帕罗夫,成为人工智能发展领域的一个里程碑。

20世纪90年代末到21世纪初,随着计算能力的提升,人工智能开始介入后勤、数据挖掘和医学诊断等领域,并取得相应成果。AI 又开始了它的第三次高潮至今[2]。

人工智能发展曲线,如图5所示。

2.2. 人工神经网络研究进展

1943年,W. S. McCulloch 和W. Pitts 提出了的M-P 模型[5]。该模型根据生物神经元的结构和工作机理构造了一个简化的数学模型(如图6)。其中,x i 代表神经元的第i 个输入,权值w i 为输入x i 对神经元不同突触强度的表征,θ代表神经元的兴奋阀值,y 表示神经元的输出,其值的正和负,分别代表神经元的 兴奋和抑制。该模型的数学公式可以表示为:1n

i i i y w x θ=?∑,如果所有输入之和大于阀值θ则y 值为 正,神经元激活,否则神经元抑制。该模型作为人工神经网络研究的最简模型,一直沿用至今。

1949年,D. Hebb 给出了Hebb 学习规则[6]。该规则认为权值调整量W ?正比于神经元的输入向量X 和输出向量Y 的相关性,其数学表达为:W YX α?=,其中αα被认为是学习率。该规则根据神经元之间连接的激活水平来调整权值(输入输出相关性强,则权值增大,相关性弱,则权值减弱),训练神经网络,这个过程与人类观察和认知世界的过程相吻合,至今还在被许多人工神经网络学习算法所使用。

孙志森等

Figure 5. Development curve of AI

图5. 人工智能发展曲线图

Figure 6. The M-P model

图6. M-P模型

1957年,F. Rosenblat提出了感知器(Perceptron)模型,这是一个由线性阀值神经元组成的前馈人工神经网络,可实现与或非等逻辑门,用于实现简单分类[7]。

1960年,B. Widrow和M. Hoff提出了自适应线性单元,一种连续取值的人工神经网络,可用于自适应系统。随即人工神经网络进入第一个研究高潮期[8]。

1969年,人工智能创始人M. Minsky和S. Papert发表《Perceptrons》一书,书中指出:单层Perceptron 不能实现异或门(XOR),多层Perceptron不能给出一种学习算法,因此毫无使用价值[9]。鉴于两人在人工智能领域的地位,该书产生极大反响,人工神经网络研究陷入低潮。

1982年,加州理工大学教授H. Hopfield提出Hopfield人工神经网络,在著名的旅行商(TSP)问题这个NP (Nondeterministic Polynomial)完全问题的求解上获得当时最好结果,引起了巨大的反响,使人们重新认识到人工神经网络的威力[10]。

1985年,Rumelhart等人重新给出了多层感知机权值训练的BP算法(Backpropagation Algorithm) [11],事实上,1975年哈佛大学的Paul Werbos发明了BP算法[12],因为当时正值人工神经网络冰河期,因此未受到应有的重视),该算法通过实际输出对比理论输出产生的误差(Error),反向微调各层连接权值系数从而优化网络权值,从而解决了Minsky认为不能解决的多层感知机的学习问题。藉此,带来人工神经网络研究的二次热潮。

20世纪90年代中期,随着统计学习理论和支持向量机的兴起,人工神经网络学习理论性质的不明确、试错性强、使用中充斥大量“技巧”的弱点,使得人工神经网络研究又进入低谷,NIPS会议甚至多年不接受人工神经网络为主题的论文。

三层人工神经网络模型,如图7所示。

孙志森 等

Figure 7. The ANN model for 3 layers

图7. 三层人工神经网络模型

2010年前后,随着算法改进、计算速度提升和大数据的涌现,“深度学习”在自然语言处理(Natural Language Processing ,NLP)、图像识别、下棋(AlphaGo 、Master [13]、AlphaGo Zero [14])、自动驾驶等应用领域取得显著成绩,人工神经网络又再度焕发青春,从而掀起持续至今的第三次高潮。

综上,与其他技术发展的Gartner 曲线(如图9,一般技术发展只经历一次低潮,发展阶段包括:技术萌芽期、期望膨胀期、泡沫化低谷期、复苏期、实质生产高峰期[15])不同的是,人工智能和人工神经网络的发展到目前为止都经历了三起两落(如图5和图8),且两者的高潮期和低谷期多有重合。低潮多是因概念被过渡泡沫化后的幻灭或者遇到解决实际问题的瓶颈,而高潮也多是踏踏实实、兢兢业业的研究者坚持研究或者转换思路取得新的突破,赢得大家的认可,进而促成。

从成就来看,人工智能目前所能做的,基本上都是弱人工智能领域(弱人工智能和强人工智能两个概念由J. Searle 在1980年提出[16]),诸如下棋、自动驾驶、智能导购、智能金融、智能医疗等领域,而且当前有Google 公司提供的TensorFlow 和Facebook 提供的Pytorch 等开源平台,但是随着弱人工智能的不断成熟和聚合,类似美国Waston 公司制造的索菲亚机器人(2017年10月26日,沙特阿拉伯授予该“女性”机器人公民身份)有着综合各种弱人工智能成就强人工智能的潜力和趋势。所以从模仿人脑功能角度看,人工智能发展又可以划分为三个阶段:计算智能阶段、感知智能阶段和认知智能阶段,前两个阶段,都属于弱人工智能,最后一个阶段属于强人工智能。

其中,人工智能实现的诸如自然语言处理、图像和语音识别等成就,多是深层人工神经网络(DNN)做出的,而人工神经网络之所以能起到如此作用,我们以为其主要是源于人工神经网络可以对任意连续函数进行任意逼近(仅有一个隐含层的人工神经网络,只要隐层神经元足够多,可以对任意函数进行任意逼近) [17] [18],而深度学习人工神经网络相比只有一个隐层的人工神经网络,层次分明,且相同效果情况下参变量个数更少[19]。我们对人工神经网络的数学模型进行了表述如下,假设把人工神经网络每一层的输入变量和输出变量作为向量看待,可以得到人工神经网络简化的数学形式,如下:

()()()()()

()

11122n n n n n n n n n Y F X F F X F F F X ?????==== 其中,Y 为人工神经网络输出向量,X i 为第i 层的输入向量,F i 为第i 层的激活函数。从该数学形式看,人工神经网络的训练就是每层输入在不同激活函数下进行的反复迭代的过程,这个训练(或迭代)的过程符合生物的成长和进化过程,而其有监督的BP 算法或无监督的贪婪算法(Greedy Algorithm) [20]也符合生物成长、进化过程中环境的奖惩机制。这就进一步阐释了,人工神经网络能部分模拟人脑功能的原因。由深度学习延伸的增强学习网络(Reinforcement Learning)则从算法角度引入了环境奖惩机制[21],从而在围棋游戏、自动驾驶等领域取得显著进展;而对抗生成网络[22] (Generative Adversarial Networks)则从模型

孙志森等

Figure 8. Development curve of ANNs

图8. 人工神经网络发展曲线图

Figure 9. The hype cycle of Gartner (picture from Wikipedia)

图9. 技术成熟度Gartner曲线(图片源自维基百科)

角度引入生成网络和对抗(专家)网络的对抗生成机制,在图像生成方面取得斐然的成绩,该模型甚至被YannLeCun (人工智能领域另一个神一样存在的人物,Hinton的学生)称为“20年来机器学习领域最酷的想法”。

3. 相关技术

人工智能提出后,从最初的工业机器人,到现在的服务型机器人、甚至情感机器人,一直为人们所津津乐道。同时,机器人的制造也催生了相应领域的硬件和软件的发展,硬件方面,如:机器人的大脑(微处理器)、传感器(视觉传感器、声学传感器、力学传感器、位置和姿态传感器)、驱动器(舵机等);软件方面,主要集中在机器学习的方面。

机器学习(Machine Learning,缩写ML),这个概念是当时在IBM工作的Arthur Samuel(参加Dartmouth 会议的成员之一)于1959年提出的,其对机器学习最初的定义是,让计算机在未经严格编程的情况下具备学习能力的领域[23]。机器学习主要是从算法入手,使用算法来解析数据,从中学习,然后对真实世界中的事件作出决策和预测。其算法按照学习形式主要分为三类:监督学习(Supervised Learning)、无监督学习(Unsupervised Learning)和半监督学习(Semi-supervised Learning)。其中,监督学习就是训练样本数据和分类识别结果已知,其对人工神经网络的训练就是监督人工神经网络对照相应输入得到相应输出的过程;无监督学习就是只知训练样本数据而分类识别结果未知,通过训练学习让神经网络对样本进行自行

孙志森等

认知和分类;而半监督学习介于监督学习与无监督学习之间,其通过部分已知和部分未知分类识别结果的样本数据,对神经网络进行训练,以防止神经网络的过度拟合(Overfitting),并促成其泛化能力(Generalization Ability)的考量。三者的主要区别在于是否对训练样本进行标记(或打标签)。而机器学习的具体研究方法有:回归算法(通过最小二乘法对所有训练样本数据进行函数拟合的学习过程)、决策树(通过类别的相关属性递归判断,并最终确定所属分类的学习过程)、人工神经网络、支持向量机(通过不断调整划分超平面的方向,寻找对已知样本数据尤其是具有支持向量特点的样本数据“最大间隔”的划分超平面的学习过程)、贝叶斯分类器(通过贝叶斯概率模型,寻找最小化分类错误率的贝叶斯最优分类器的学习过程)、集成学习(通过结合多个现有学习算法构建一个综合学习器进而完成学习任务的算法)、聚类(通过计算样本之间的“闵可夫斯基距离”,将样本数据划分为若干不相交的子集或簇的学习过程)、表征学习等[24]。通过研究分析,我们做如图10所示概括。

人工神经网络(Artificial Neural Networks,缩写ANNs),其起源可以追溯到1943年,心理学家W. S. McCulloch和数理逻辑学家W. Pitts提出了MP模型(两个科学家名字的首写字母缩写命名),是受大脑神经元启发构建的计算模型[5]。据研究,人的大脑拥有数以亿计的神经细胞,每个神经细胞都和其它神经细胞有数以万计的连接,这些连接由每个神经细胞伸出的“突触”建立,可见我们的大脑,其实就是一张密密麻麻的网。人工神经网络最初的构想是通过建立人脑一样的网络从而让机器像人一样思考和学习[25]。东南大学魏海坤教授,对人工神经网络的定义是:人工神经网络是指用大量简单计算单元(即神经元)构成的非线性系统,它在一定程度和层次上模仿了人脑神经系统的信息处理、存储及检索功能,因而具有学习、记忆和计算等智能处理功能[26]。人工神经网络的关键是人工神经网络的结构(Architecture)、权值(Weights)/阀值(Bias)和算法(Algorithms),比如,人工神经网络设计几层,每一层多少个神经元,每个神经元之间怎样连接,以及利用什么算法优化调整神经元连接的权值或阀值。Simon Haykin在其书《人工神经网络原理》中,曾说:“人工神经网络是一种高级复杂运算量巨大的参数估计”[27]。而台湾大学李宏毅教授也高屋建瓴的指出,“人工神经网络的训练就是从一堆函数集中择优的过程”[28]。这些说法都很有见地。另外人工神经网络根据层数和是否有反馈,有如图11的分类,所谓反馈神经网络就是一种将输出经过一步时移再接入到输入层的神经网络模型,它需要运行一段时间才能趋于稳定,Hopfield网络是反馈神经网络中最简单应用最广泛的模型[10],而图7所示神经网络属于前向神经网络,目前神经网络研究的模型多是前向神经网络。

深度学习(Deep Learning,缩写DL),这个概念是Hinton提出的[29],因此Hinton也被称为“深度学习之父”。深度学习是指基于软件的计算机通过模拟人类大脑神经元的功能,彼此相连,形成一个阶层类的“人工神经网络”。不同于浅层学习算法或传统式机器学习的手工获取特征,深度学习使用多层非线性处理单元变换数据输入,上层输出作为下层输入,自动提取数据特征[30]。我们以为,深度学习,从模型结构角度来看,其本质可以理解为多层网络;从学习算法角度看,其本质可以理解为多种算法的分层处理。近几年深度学习越来越火,同时引领了图像识别和语音识别等领域的很多突破性进展,可以说其快速发展得益于算法的不断改进(无监督的贪婪算法、分布式算法[1]等)、硬件速度的提升(GPU和TPU 等专用领域集成电路的诞生)和在线大数据(Big Data)的爆发。

对于这些概念和技术之间的关系可以总结为:人工智能是一个领域,涉及硬件和软件,而其软件方面的研究,延伸出了机器学习,人工神经网络是研究机器学习的一种方法思路,同时更是一个模型,所以有它自己的独立性,深度学习又从算法和模型两个角度对人工神经网络进行了延伸。它们之间的关系,我们用图12表示。自此我们可以看出,人工智能目前有两个研究思路,一是采用“自上而下”的专家指导思路(符号推理、知识工程均属于此思路),采取“如果–就”(if-then)规则;二是采用“自下而上”的数据学习思路(深度学习人工神经网络属于此思路),采取从数据中寻找模式的“迭代”(for)规则。

孙志森 等

Figure 10. Classification of Machine Learning algorithms

图10. 机器学习算法分类

Figure 11. Elements and classifications of ANNs

图11. 人工神经网络要素和分类

Figure 12. Relationship of several concepts

图12. 几个概念之间的关系

4. 存在问题与展望

Hope Reese 在2016年12月3日,撰文《2016年人工智能十大失败案例》(《Top 10 AI failures of 2016》)

[31],Synced 在2017年12月23日,撰文《2017年人工智能十个失败案例》(《2017 in Review: 10 AI Failures 》)

[32],我们对所有20个失败案例进行了汇总分析,发现这些失败案例主要分两类:错误(识别错误、生成错误)和偏见(种族歧视、性别歧视)。而这两类,我们以为也是可以解释的,错误原因在于模型的鲁棒性不强,而偏见则源于深度学习对数据的过度依赖性。但是据此,就有人说“所谓人工智能,无非是人工

智障”,我们以为是不合适的,因为任何事物的成长都有一个从不成熟到成熟的过程。相比人工智能和

孙志森等

人工神经网络在提出之初的成就,现在的成就可以说是相当斐然的,因此,相信人工智能和人工神经网络的未来是光明的。

由此我们对人工智能和人工神经网络作出以下五个方面的展望:

1) 模型和算法有待进一步改进,以消除错误和偏见现象,加强人工神经网络的鲁棒性和价值观引导。新的模型和算法也有待于进一步提出。现有的人工神经网络模型基本都是前向人工神经网络,因为其算法复杂度低,但据神经解剖学家研究发现人类的大脑是浸润在反馈连接之中的;算法方面,据“神经科学之父”弗农·蒙卡斯尔认为,不同的大脑皮层区域有一个相同的、强大的通用算法,造成区别的原因是它们连接对象的不同[33]。这一点,也给我们以模型和算法创新的启示。而前不久“深度学习之父”Hinton最新撰写的论文《Dynamic Routing Between Capsules》,提出胶囊(Capsule)理论,来模拟人脑做图像识别的机制,也是一次向神经科学靠近的尝试[34]。

2) 人工神经网络一直被冠以“黑箱化操作”的技术。所以其可视化研究,有助于让人们了解其内在细节,进而有助于其的进一步发展,虽然卷积人工神经网络的可视化取得一定成效[35],但是其他种类的人工神经网络可视化还有待进一步研究。这里提供一种思路供大家参考,可以就训练好的网络进行总体可视化处理,然后再对该网络每一层的任一神经元看做“输出”,做可视化处理。

3) 向自然界各种生物的强大基因学习。地球上的生物,都经历了上亿年的进化,可谓是相当精密的仪器,据说,台湾地区有一种薄翅蜻蜓,能不吃不喝单程飞行7000 km,从亚洲飞到非洲,去传播基因,途中还能繁殖出下一代,它的低耗和繁殖能力,让当前制作的各种机器和模型自愧不如,因为据报道,我国的“天河二号”年耗电量达到2亿度,每天耗费电费10万元。另外,理所当然认为当前图像和语音识别技术多是围绕听觉和视觉两个维度在做,因为当前的编码还只能对声音和图像进行编码,相对触感、气味和味觉的编码还处于萌芽阶段,而人类具有听觉、视觉、触觉、味觉、嗅觉等多个维度,甚至人类还有最终的知觉,这也可以解释,为什么人类在对物体的分类识别等方面优于计算机,高维度的生物在一定程度上要优于低维度的生物。类似的功能还有很多,都是可以作为人工智能下一步的发展方向。综上所述,可以分别从硬件、算法效率和编码的角度进行改进和探索。

4) 人工神经网络的去“技巧化”也是一个需要被研究的课题。当下人工神经网络模型的建立和训练,基本靠的是经验和“技巧”,缺乏有效的理论指导。因此我们认为,人工神经网络的数学化,有助于其长足发展,类似于香农创立“信息论”,从而为数字通信的发展指明了方向。我们以为,人工神经网络的理论化思路可以藉由两个方向入手:一是归因到经典数学问题,二是创造新的概念和理论体系。

5) 量子通信最近也发展的如火如荼,而量子有不确定性、不可克隆、测量坍塌的特性,纠缠量子具备纠缠特性等等,都可以用于从一个全新的视角来定义和理解世界,因此量子与深度学习的结合,肯定能碰撞出新的成功。2015年5月,Nathan Wiebe等发表了《量子深度学习》(《Quantum Deep Learning》),采用量子的训练方法训练玻尔兹曼机来代替经典算法中的对比散度算法在时间复杂度上有所提升[36];2015年,中国科学技术大学的杜江峰老师组也在美国的物理评论快报(PRL)发表了《Experimental Reali-zation Of A Quantum Support Vector Machine》,并率先在一台NMR(核磁共振)实现的量子计算机上演示了这个算法,对MNIST手写笔记中的6和9进行了分类[37];2017年7月,清华交叉信息研究院的博士研究生郜勋和段路明教授,在《Nature Communications》上发表《量子多态深度人工神经网络的有效表征》(《Efficient Representation of Quantum Many-Body States with Deep Neural Networks》) [38]。研究表明这两个领域结合部也是值得进一步探究。我们以为,人脑的很多特性具备量子的特性,或者从某种程度讲,人脑应该是一个量子态的人工神经网络,在空闲状态下,大脑中的每个神经元应该是处于量子叠加态的,但是遇有需要集中注意思索的情况,神经元的状态就会坍塌。据此,我们觉得,可以考虑构建量子人工神经网络来模拟人脑的诸多功能。

孙志森等

基金项目

1) 国家自然科学基金项目(61472446);

2) 国家自然科学基金项目(61701539);

3) 数学工程与先进计算国家重点实验室开放课题项目(2016A01)。

参考文献(References)

[1]吴军. 数学之美[M]. 北京: 人民邮电出版社, 2014.

[2]维基百科. https://https://www.360docs.net/doc/a25357917.html,/wiki/Artificial_intelligence

[3]Russell, S.J. and Norvig, P. 人工智能: 一种现代的方法[M]. 北京: 清华大学出版社, 2006.

[4]搜索模式面临天花板——百度总裁换帅升级人工智能战略[N]. 21世纪经济报道, 2017-01-18.

https://www.360docs.net/doc/a25357917.html,/html/2017-01/18/content_54928.htm

[5]Fitch, F.B. (1944) McCulloch Warren S. and Pitts Walter. A Logical Calculus of the Ideas Immanent in Nervous Ac-

tivity. Bulletin of Mathematical Biophysics, vol. 5 (1943), pp. 115-133. Journal of Symbolic Logic, 9, 49-50.

https://https://www.360docs.net/doc/a25357917.html,/10.2307/2268029

[6]Hebb, D.O. (1988) The Organization of Behavior. Neurocomputing: Foundations of Research. MIT Press, 575-577.

[7]Rosenblatt, F. (1958) The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain.

Psychological Review, 65, 386-408. https://https://www.360docs.net/doc/a25357917.html,/10.1037/h0042519

[8]Widrow, B. and Hoff, M.E. (1960) Adaptive Switching Circuits. Neurocomputing, 126-134.

https://https://www.360docs.net/doc/a25357917.html,/10.21236/AD0241531

[9]Minsky, M.L. and Papert, S. (1969) Perceptrons: An Introduction to Computational Geometry. Perceptrons: An Intro-

duction to Computational Geometry. The MIT Press,Cambridge, 3356-3362.

[10]Hopfield, J.J. (1982) Neural Networks and Physical Systems with Emergent Collective Computational Abilities. Pro-

ceedings of the National Academy of Sciences of the United States of America, 79, 2554.

https://https://www.360docs.net/doc/a25357917.html,/10.1073/pnas.79.8.2554

[11]Rumelhart, D.E., Hinton, G.E. and Williams, R.J. (1986) Learning Representations by Back-Propagating Errors. Na-

ture, 323, 533-536. https://https://www.360docs.net/doc/a25357917.html,/10.1038/323533a0

[12]Werbos, P. (1974) Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Science. Ph.D. Dis-

sertation, Harvard University, Cambridge, 29(18): 65-78.

[13]Silver, D., Huang, A., Maddison, C.J., et al. (2016) Mastering the Game of Go with Deep Neural Networks and Tree

Search. Nature, 529, 484-489. https://https://www.360docs.net/doc/a25357917.html,/10.1038/nature16961

[14]Silver, D., Schrittwieser, J., Simonyan, K., et al. (2017) Mastering the Game of Go without Human Knowledge. Nature,

550, 354-359. https://https://www.360docs.net/doc/a25357917.html,/10.1038/nature24270

[15]技术成熟度曲线. 百度百科.

https://https://www.360docs.net/doc/a25357917.html,/item/%E6%8A%80%E6%9C%AF%E6%88%90%E7%86%9F%E5%BA%A6%E6%9B%B2%

E7%BA%BF/2551258?fr=aladdin

[16]Searle, J.R. (1980) Minds, Brains, and Programs. Behavioral & Brain Sciences, 3, 417-424.

https://https://www.360docs.net/doc/a25357917.html,/10.1017/S0140525X00005756

[17]Cybenko, G. (1992) Approximation by Superpositions of a Sigmoidal Function. Approximation Theory & Its Applica-

tions, 5, 455-455.https://https://www.360docs.net/doc/a25357917.html,/10.1007/BF02134016

[18]Hornik, K. (1991) Approximation Capabilities of Multilayer Feed forward Networks. Neural Networks, 4, 251-257.

https://https://www.360docs.net/doc/a25357917.html,/10.1016/0893-6080(91)90009-T

[19]Yu, D., Seide, F. and Li, G. (2012) Conversational Speech Transcription using Context-Dependent Deep Neural Net-

works. International Conference on International Conference on Machine Learning, Edinburgh, 26 June-1 July 2012,

1-2.

[20]Hinton, G.E. and Salakhutdinov, R.R. (2006) Reducing the Dimensionality of Data with Neural Networks. Science,

313, 504-507.https://https://www.360docs.net/doc/a25357917.html,/10.1126/science.1127647

[21]Otterlo, M.V. and Wiering, M. (2012) Reinforcement Learning and Markov Decision Processes. In: Reinforcement

Learning, Springer, Berlin Heidelberg, 3-42.https://https://www.360docs.net/doc/a25357917.html,/10.1007/978-3-642-27645-3_1

[22]Goodfellow, I.J., Pouget-Abadie, J., Mirza, M., et al. (2014) Generative Adversarial Networks. Advances in Neural In-

formation Processing Systems, 3, 2672-2680.

孙志森等[23]Arthur, S. (1959) Some Studies in Machine Learning Using the Game of Checkers. IBM Journal of Research and De-

velopment, 3, 211-229.https://https://www.360docs.net/doc/a25357917.html,/10.1147/rd.33.0210

[24]周志华. 机器学习: Machine Learning[M]. 北京: 清华大学出版社, 2016.

[25]如何评价柯洁与AlphaGo的对决.

https://https://www.360docs.net/doc/a25357917.html,/question/60187918/answer/176302356

[26]魏海坤. 神经网络结构设计的理论与方法[M]. 北京: 国防工业出版社, 2005.

[27]Simon Haykin. 神经网络原理[M]. 北京: 机械工业出版社, 2004.

[28]李宏毅. Deep Learning Tutorial, Slides.

https://www.360docs.net/doc/a25357917.html,/tw_dsconf/ss-62245351?qid=108adce3-2c3d-4758-a830-95d0a57e46bc&v=&b=&from_sear ch=3

[29]Hinton, G.E., Osindero, S. and The, Y.W. (2006) A Fast Learning Algorithm for Deep Belief Nets. Neural Computa-

tion, 18, 1527-1554.https://https://www.360docs.net/doc/a25357917.html,/10.1162/neco.2006.18.7.1527

[30]华南, 王碧清. 中国人工智能的未来之路[J]. 中华儿女, 2017(13).

[31]Top 10 AI Failures of 2016. https://https://www.360docs.net/doc/a25357917.html,/article/top-10-ai-failures-of-2016/

[32]2017 in Review: 10 AI Failures. https://https://www.360docs.net/doc/a25357917.html,/2017/12/23/2017-in-review-10-ai-failures/

[33]Hawkins, J. and Blakeslee, S. (2005) On Intelligence. St. Martin’s Griffin, New York.

[34]Sabour, S., Frosst, N. and Hinton, G.E. (2017) Dynamic Routing between Capsules.

[35]Zeiler, M.D. and Fergus, R. (2014) Visualizing and Understanding Convolutional Networks. In: Fleet, D., et al., Eds.,

ECCV 2014, Part 1, LNCS 8689, Springer International Publishing, Berlin, 818-833.

[36]Wiebe, N., Kapoor, A. and Svore, K.M. (2015) Quantum Deep Learning.

[37]Li, Z., Liu, X., Xu, N., et al. (2015) Experimental Realization of a Quantum Support Vector Machine. Physical Review

Letters, 114, Article ID: 140504.https://https://www.360docs.net/doc/a25357917.html,/10.1103/PhysRevLett.114.140504

[38]Gao, X. and Duan, L.M. (2017) Efficient Representation of Quantum Many-Body States with Deep Neural Networks.

Nature Communications, 8, Article No. 662.https://https://www.360docs.net/doc/a25357917.html,/10.1038/s41467-017-00705-2

知网检索的两种方式:

1. 打开知网页面https://www.360docs.net/doc/a25357917.html,/kns/brief/result.aspx?dbPrefix=WWJD

下拉列表框选择:[ISSN],输入期刊ISSN:2161-8801,即可查询

2. 打开知网首页https://www.360docs.net/doc/a25357917.html,/

左侧“国际文献总库”进入,输入文章标题,即可查询

投稿请点击:https://www.360docs.net/doc/a25357917.html,/Submission.aspx

期刊邮箱:csa@https://www.360docs.net/doc/a25357917.html,

人工智能与神经网络课程论文

1. 引言 (2) 2. 在农业生产管理与决策中的应用 (2) 2.1. 在农业机械化中的应用 (2) 2.2. 在智能农业专家系统中的应用 (3) 3. 在预测和估产中的应用 (3) 3.1. 在农作物虫情预测中的应用 (3) 3.2. 在作物水分和营养胁迫诊断及产量估测中的应用 (4) 4. 在分类鉴别与图像处理中的应用 (5) 5. 结束语 (5)

BP 神经网络的研究与应用 摘要: 本文概述了BP 神经网络在农机总动力预测、农业专家系统信息决策、虫情测报、农作物水分和养分胁迫、土壤墒情、变量施肥、分类鉴别和图像处理等领域的应用情况,总结了人工神经网络模型的优点,指出其在精准农业和智能农业中的重要理论技术支撑作用。 关键词: BP神经网络; 农业工程; 农业专家系统; 变量施肥; 土壤墒情 Research and Application of BP Neural Network Abstract: Application of BP neural network in prediction of total power in agriculture machinery,information decision-making by agricultural experts system,pest forecast,crops to water stress and nutrient stress,soil moisture condition,variable rate fertilization,identification and image processing were overviewed.Characteristics of artificial neural network model were summed.Supporting role for important theory and technology in precision agriculture and intelligent agriculture were pointed. Key words: BP neural network,Agricultural engineering,Agricultural experts system,Variable rate fertilization,Soil moisture condition

人工智能教程习题及答案第9章神经网络与遗传算法

第九章神经网络与遗传算法习题参考解答 9.1练习题 9.1 何谓人工神经网络?它有哪些特征? 9.2 生物神经元由哪几部分构成?每一部分的作用是什么?它有哪些特性? 9.3 什么是人工神经元?它有哪些连接方式? 9.4 B-P算法的网络结构是什么?简述B-P算法的学习过程。 9.5 什么是网络的稳定性? Hopfield网络模型分为哪两类?两者的区别是什么? 9.6 有教师学习与无教师学习的区别是什么? 请分析说明。 9.7 Hopfield模型与B-P模型的网络结构有何异同? 9.8 简述简单遗传算法的基本原理和一般过程,说明个体选择的常用策略,以及遗传操作“交叉”和“变异”所起的作用。 9.9 遗传算法有哪些特点?在应用遗传算法时要解决的最关键问题有哪些? 9.2习题参考解答 9.1 答: (略) 9.2 答: 生物神经元主要由三部分构成:细胞体、轴突和树突。 每一部分的作用是:(a)细胞体是神经元的新陈代谢中心,同时还用于接收并处理从其他神经元传递过来的信息。(b)轴突的作用相当于神经元的输出电缆,它通过尾部分出的许多神经末梢以及梢端的突触向其他神经元输出神经冲动。(c)树突的相当于神经元的输入端,用于接收从四面八方传来的神经冲动。 神经元的功能特性包括:(a)时空整合功能。(b)神经元的动态极化性。(c)兴奋与抑制状态。(d)结构的可塑性。(e)脉冲与电位信号的转换。(f)突触延期和不应期。(g)学习、遗忘和疲劳。 9.3 答: (略) 9.4 答: B-P算法的网络结构是一个前向多层网络。网络中不仅含有输入节点和输出节点,而且含有一层或多层隐(层)节点,网络中各处理单元间的连接如图6.16所示。当有信息向网络输入时,信息首先由输入层传递到隐层节点,经特性函数(人工神经元)作用后,再

人工智能(部分习题答案)

1.什么是人类智能?它有哪些特征或特点? 定义:人类所具有的智力和行为能力。 特点:主要体现为感知能力、记忆与思维能力、归纳与演绎能力、学习能力以及行为能力。 2.人工智能是何时、何地、怎样诞生的? 解:人工智能于1956年夏季在美国Dartmouth大学诞生。此时此地举办的关于用机器模拟人类智能问题的研讨会,第一次使用“人工智能”这一术语,标志着人工智能学科的诞生。 3.什么是人工智能?它的研究目标是? 定义:用机器模拟人类智能。 研究目标:用计算机模仿人脑思维活动,解决复杂问题;从实用的观点来看,以知识为对象,研究知识的获取、知识的表示方法和知识的使用。 4.人工智能的发展经历了哪几个阶段? 解:第一阶段:孕育期(1956年以前);第二阶段:人工智能基础技术的研究和形成(1956~1970年);第三阶段:发展和实用化阶段(1971~1980年);第四阶段:知识工程和专家系统(1980年至今)。 5.人工智能研究的基本容有哪些? 解:知识的获取、表示和使用。 6.人工智能有哪些主要研究领域? 解:问题求解、专家系统、机器学习、模式识别、自动定论证明、自动程序设计、自然语言理解、机器人学、人工神经网络和智能检索等。 7.人工智能有哪几个主要学派?各自的特点是什么? 主要学派:符号主义和联结主义。 特点:符号主义认为人类智能的基本单元是符号,认识过程就是符号表示下的符号计算,从而思维就是符号计算;联结主义认为人类智能的基本单元是神经元,认识过程是由神经元构成的网络的信息传递,这种传递是并行分布进行的。 8.人工智能的近期发展趋势有哪些? 解:专家系统、机器人学、人工神经网络和智能检索。 9.什么是以符号处理为核心的方法?它有什么特征? 解:通过符号处理来模拟人类求解问题的心理过程。 特征:基于数学逻辑对知识进行表示和推理。 11.什么是以网络连接为主的连接机制方法?它有什么特征? 解:用硬件模拟人类神经网络,实现人类智能在机器上的模拟。 特征:研究神经网络。 1.请写出用一阶谓词逻辑表示法表示知识的步骤。 步骤:(1)定义谓词及个体,确定每个谓词及个体的确切含义;(2)根据所要表达的事物或概念,为每个谓词中的变元赋予特定的值;(3)根据所要表达的知识的语义用适当的联接符号将各个谓词联接起来,形成谓词公式。 2.设有下列语句,请用相应的谓词公式把它们表示出来: (1)有的人喜欢梅花,有的人喜欢菊花,有的人既喜欢梅花又喜欢菊花。 解:定义谓词如下: Like(x,y):x喜欢y。 Club(x):x是梅花。 Human(x):x是人。 Mum(x):x是菊花。 “有的人喜欢梅花”可表达为:(?x)(Human(x)∧Like(x,Club(x))) “有的人喜欢菊花”可表达为:(?x)(Human(x)∧Like(x,Mum(x))) “有的人既喜欢梅花又喜欢菊花”可表达为:(?x)(Human(x)∧Like(x,Club(x))∧ Like(x,Mum(x))) (1)他每天下午都去玩足球。 解:定义谓词如下: PlayFootball(x):x玩足球。 Day(x):x是某一天。 则语句可表达为:(?x)(D(x)→PlayFootball(Ta)) (2)市的夏天既干燥又炎热。 解:定义谓词如下: Summer(x):x的夏天。 Dry(x):x是干燥的。 Hot(x):x是炎热的。 则语句可表达为:Dry(Summer(Taiyuan))∧Hot(Summer(Taiyuan)) (3)所有人都有饭吃。

人工智能习题&答案-第4章-计算智能1-神经计算-模糊计算

第四章计算智能(1):神经计算模糊计算4-1 计算智能的含义是什么?它涉及哪些研究分支? 贝兹德克认为计算智能取决于制造者提供的数值数据,而不依赖于知识。计算智能是智力的低层认知。 主要的研究领域为神经计算,模糊计算,进化计算,人工生命。 4-2 试述计算智能(CI)、人工智能(AI)和生物智能(BI)的关系。 计算智能是智力的低层认知,主要取决于数值数据而不依赖于知识。人工智能是在计算智能的基础上引入知识而产生的智力中层认知。生物智能,尤其是人类智能,则是最高层的智能。即CI包含AI包含BI 4-3 人工神经网络为什么具有诱人的发展前景和潜在的广泛应用领域? 人工神经网络具有如下至关重要的特性: (1) 并行分布处理 适于实时和动态处理 (2)非线性映射 给处理非线性问题带来新的希望 (3) 通过训练进行学习 一个经过适当训练的神经网络具有归纳全部数据的能力,能够解决那些由数学模型或描述规则难以处理的问题 (4) 适应与集成 神经网络的强适应和信息融合能力使得它可以同时输入大量不同的控制信号,实现信息集成和融合,适于复杂,大规模和多变量系统 (5) 硬件实现 一些超大规模集成是电路实现硬件已经问世,使得神经网络成为具有快速和大规模处理能力的网络。 4-4 简述生物神经元及人工神经网络的结构和主要学习算法。

生物神经元 大多数神经元由一个细胞体(cell body或soma)和突(process)两部分组成。突分两类,即轴突(axon)和树突(dendrite),轴突是个突出部分,长度可达1m,把本神经元的输出发送至其它相连接的神经元。树突也是突出部分,但一般较短,且分枝很多,与其它神经元的轴突相连,以接收来自其它神经元的生物信号。 轴突的末端与树突进行信号传递的界面称为突触(synapse),通过突触向其它神经元发送信息。对某些突触的刺激促使神经元触发(fire)。只有神经元所有输入的总效应达到阈值电平,它才能开始工作。此时,神经元就产生一个全强度的输出窄脉冲,从细胞体经轴突进入轴突分枝。这时的神经元就称为被触发。突触把经过一个神经元轴突的脉冲转化为下一个神经元的兴奋或抑制。学习就发生在突触附近。 每个人脑大约含有10^11-10^12个神经元,每一神经元又约有10^3-10^4个突触。神经元通过突触形成的网络,传递神经元间的兴奋与抑制。大脑的全部神经元构成极其复杂的拓扑网络群体,用于实现记忆与思维。 人工神经网络的结构 人工神经网络由神经元模型构成。每个神经元具有单一输出,并且能够与其它神经元连接,存在许多输出连接方法,每种连接方法对应于一个连接权系数。 人工神经网络的结构分为2类, (1)递归(反馈)网络 有些神经元的输出被反馈至同层或前层神经元。信号能够从正向和反向流通。Hopfield网络,Elmman网络和Jordan网络是代表。 (2) 前馈网络 具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通,神经元从一层连接至下一层,不存在同层神经元之间的连接。多层感知器(MLP),学习矢量量化网络(LVQ),小脑模型连接控制网络(CMAC)和数据处理方法网络(GMDH)是代表。 人工神经网络的主要学习算法 (1) 指导式(有师)学习 根据期望和实际的网络输出之间的差来调整神经元连接的强度或权。包括Delta规则,广义Delta规则,反向传播算法及LVQ算法。 (2) 非指导(无导师)学习 训练过程中,神经网络能自动地适应连接权,以便按相似特征把输入模式分组聚集。包括

神经网络在人工智能中的应用

神经网络在人工智能中的应用 摘要:人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。关键词:人工智能,神经网络 一、人工智能 “人工智能”一词最初是在1956 年Dartmouth学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的,现在计算机不但能完成这种计算, 而且能够比人脑做得更快、更准确,因之当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”, 可见复杂工作的定义是随着时代的发展和技术的进步而变化的, 人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展,一方面又转向更有意义、更加困难的目标。 二、神经网络

神经网络是:思维学普遍认为,人类大脑的思维分为抽象(逻辑)思维、形象(直观)思维和灵感(顿悟)思维三种基本方式。 逻辑性的思维是指根据逻辑规则进行推理的过程;它先将信息化成概念,并用符号表示,然后,根据符号运算按串行模式进行逻辑推理;这一过程可以写成串行的指令,让计算机执行。然而,直观性的思维是将分布式存储的信息综合起来,结果是忽然间产生想法或解决问题的办法。这种思维方式的根本之点在于以下两点:1.信息是通过神经元上的兴奋模式分布储在网络上;2.信息处理是通过神经元之间同时相互作用的动态过程来完成的。 人工神经网络就是模拟人思维的第二种方式。这是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。 人工神经网络是由大量的简单基本元件——神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。 人工神经网络反映了人脑功能的若干基本特性,但并非生物系统的逼真描述,只是某种模仿、简化和抽象。 与数字计算机比较,人工神经网络在构成原理和功能特点等方面更加接近人脑,它不是按给定的程序一步一步地执行运算,而是能够自身适应环境、总结规律、完成某种运算、识别或过程控制。三.神经网络在人工智能中的应用专家系统

人工智能之人工神经网络(PDF 23页)

1 第八章人工神经网络吉林大学地面机械仿生技术教育部重点实验室 张锐

2 8.1 神经网络的基本概念及组成特性 8.1.1 生物神经元的结构与功能特性 从广义上讲,神经网络通常包括生物神经网络与人工神经网络两个方面。生物神经网络是指由动物的中枢神经系统及周围神经系统所构成的错综复杂的神经网络,它负责对动物肌体各种活动的管理,其中最重要的是脑神经系统。 人工神经网络是指模拟人脑神经系统的结构和功能,运用大量的软、硬件处理单元,经广泛并行互连,由人工方式建立起来的网络系统。 生物神经元就通常说的神经细胞,是构成生 物神经系统的最基本单元,简称神经元。 神经元主要由三个部分构成,包括细胞体、 轴突和树突,其基本结构如图所示。 1. 生物神经元的结构 生物神经元结构 吉林大学地面机械仿生技术教育部重点实验室 张锐

3 从生物控制论的观点来看,作为控制和信息处理基本单元的神经元,具有下列一些功能与特性。 2. 神经元的功能特性 (1)时空整合功能 神经元对于不同时间通过同一突触传入的信息,具有时间整合功能;对于同一时间通过不同突触传入的信息,具有空间整合功能。两种功能相互结合,使生物神经元具有时空整合的输入信息处理功能。 (2)神经元的动态极化性 尽管不同的神经元在形状及功能上都有明显的不同,但大多数神经元都是以预知的确定方向进行信息流动的。 (3)兴奋与抑制状态 神经元具有两种常规工作状态,即兴奋状态与抑制状态。 (4)结构的可塑性 突触传递信息的特性是可变的,随着神经冲动传递方式的变化,其传递作用可强可弱,所以神经元之间的连接是柔性的,这称为结构的可塑性。 吉林大学地面机械仿生技术教育部重点实验室 张锐

人工智能习题作业神经计算I习题答案

第五章 神经网络课后习题及答案 一、选择题: 1. 在BP算法中,设y=f(xi)为xi的平滑函数,想知道xi对y增大变化的情况, 我们可求 ,然后进行下列的哪一项? ( B ) A 取最小 B 取最大 C 取积分 D 取平均值 2. 对于反向传播学习,无论是在识别单个概念的学习或识别两个概念的学习中,都涉及到下列的哪一个操作? ( A ) A 权值的修正 B 调整语义结构 C 调整阀值 D 重构人工神经元 3. 根据Hopfield网络学习的特点,能实现联想记忆和执行线性和非线性规划等求解问题其应用没有涉及到下列的哪一个内容? ( D ) A 模糊推理模型 B 非线性辨认 C 自适应控制模型 D 图象识别 4. 对于神经网络的二级推理产生式规则由三个层次构成,它不含下列的哪一个层次? ( C ) A 输入层 B 输出层 C 中间层 D 隐层 5. 人工神经网络借用了生理神经元功能的一些描述方式,它涉及到下列的哪一些内容? ( ABC ) A 模拟神经元 B 处理单元为节点 C 加权有向图 D 生理神经元连接而成

6. 在应用和研究中采用的神经网络模型有许多种,下列的哪一些是具有代表性的? ( ABD ) A 反向传递(BP) B Hopfield网 C 自适应共振 D 双向联想存储器 7. 下列的哪一些内容与反向传播学习算法有关? ( ABCD ) A 选取比率参数 B 误差是否满足要求 C 计算权值梯度 D 权值学习修正 8. 构造初始网络后,要用某种学习算法调整它的权值矩阵,使NN在功能上满足样例集给定的输入一输出对应关系,并由此产生推理,该矩阵必须满足下列的哪一个性质? ( A ) A 收敛性 B 对称性 C 满秩性 D 稀疏性 9. 在人工神经元的功能描述中,往往会用一激发函数来表示输出,常用的一般非线性函数有下列的哪一些项? ( ABD ) A 阀值型 B 分段线性强饱和型 C 离散型 D S i gm oid型 10. 基于神经网络的推理,其应用中必须涉及到下列的哪一些内容? ( ACD ) A NN的结构模型 B NN的推理规则 C NN的学习算法 D 从NN到可解释的推理网 二、填空题: 1. 前馈网络是一种具有很强学习能力的系统,结构简单,易于编程。前馈网络通

人工智能部分习题答案

人工智能部分习题答案 Document number:WTWYT-WYWY-BTGTT-YTTYU-2018GT

1.什么是人类智能它有哪些特征或特点 定义:人类所具有的智力和行为能力。 特点:主要体现为感知能力、记忆与思维能力、归纳与演绎能力、学习能力以及行为能力。 2.人工智能是何时、何地、怎样诞生的 解:人工智能于1956年夏季在美国Dartmouth大学诞生。此时此地举办的关于用机器模拟人类智能问题的研讨会,第一次使用“人工智能”这一术语,标志着人工智能学科的诞生。 3.什么是人工智能它的研究目标是 定义:用机器模拟人类智能。 研究目标:用计算机模仿人脑思维活动,解决复杂问题;从实用的观点来看,以知识为对象,研究知识的获取、知识的表示方法和知识的使用。 4.人工智能的发展经历了哪几个阶段 解:第一阶段:孕育期(1956年以前);第二阶段:人工智能基础技术的研究和形成(1956~1970年);第三阶段:发展和实用化阶段(1971~1980年);第四阶段:知识工程和专家系统(1980年至今)。 5.人工智能研究的基本内容有哪些 解:知识的获取、表示和使用。 6.人工智能有哪些主要研究领域 解:问题求解、专家系统、机器学习、模式识别、自动定论证明、自动程序设计、自然语言理解、机器人学、人工神经网络和智能检索等。 7.人工智能有哪几个主要学派各自的特点是什么 主要学派:符号主义和联结主义。 特点:符号主义认为人类智能的基本单元是符号,认识过程就是符号表示下的符号计算,从而思维就是符号计算;联结主义认为人类智能的基本单元是神经元,认识过程是由神经元构成的网络的信息传递,这种传递是并行分布进行的。 8.人工智能的近期发展趋势有哪些 解:专家系统、机器人学、人工神经网络和智能检索。 9.什么是以符号处理为核心的方法它有什么特征 解:通过符号处理来模拟人类求解问题的心理过程。 特征:基于数学逻辑对知识进行表示和推理。 11.什么是以网络连接为主的连接机制方法它有什么特征 解:用硬件模拟人类神经网络,实现人类智能在机器上的模拟。 特征:研究神经网络。 1.请写出用一阶谓词逻辑表示法表示知识的步骤。 步骤:(1)定义谓词及个体,确定每个谓词及个体的确切含义;(2)根据所要表达的事物或概念,为每个谓词中的变元赋予特定的值;(3)根据所要表达的知识的语义用适当的联接符号将各个谓词联接起来,形成谓词公式。 2.设有下列语句,请用相应的谓词公式把它们表示出来: (1)有的人喜欢梅花,有的人喜欢菊花,有的人既喜欢梅花又喜欢菊花。 解:定义谓词如下: Like(x,y):x喜欢y。 Club(x):x是梅花。 Human(x):x是人。 Mum(x):x是菊花。 “有的人喜欢梅花”可表达为:(?x)(Human(x)?Like(x,Club(x))) “有的人喜欢菊花”可表达为:(?x)(Human(x)?Like(x,Mum(x))) “有的人既喜欢梅花又喜欢菊花”可表达为:(?x)(Human(x)?Like(x,Club(x))? Like(x,Mum(x))) (1)他每天下午都去玩足球。 解:定义谓词如下: PlayFootball(x):x玩足球。 Day(x):x是某一天。 则语句可表达为:(?x)(D(x)?PlayFootball(Ta)) (2)太原市的夏天既干燥又炎热。 解:定义谓词如下:

人工智能神经网络

基于神经网络的人机对抗人工智能系统(理论) -------------------------------------------------------------------------------- 基于神经网络的人机对抗人工智能系统 Harreke 摘要: 人工智能是一门科学名称。自电子计算机发明后不久,人工智能学科即宣布创立,其目的就是要模拟人类的智力活动机制来改进计算机的软件硬件构成,使他们掌握一种或多种人的智能,以便在各种领域内有效替代人的脑力劳动,特别是解决用传统软硬件方法难以解决的问题,如模式识别,复杂的控制行为或对海量的数据进行实时评估等。 所谓人工智能,就是由人工建立的硬件或软件系统的智能,是无生命系统的智能。智能是人类智力活动的能力,是一个抽象的概念。一个软件或硬件系统是否有智能,只能根据它所表现出来的行为是否和人类某些行为相类似来做判断。 人工智能在计算机上的实现,有两种不同的方式。一种是采用传统的编程技术,使系统呈现智能的效果,而不考虑所用方法是否与人或生物机体所用的方法相同。这种方法称为工程学方法,它的编程方式虽然简单,智能效果显著,可是算法和程序一旦固定下来,智能就很难再进一步提高。另一种是模拟法,它不仅要看智能效果,还要求实现方法和人类或生物机体所用的方法相同或类似。人工神经网络是模拟人类或生物大脑中神经元的活动方式,属于模拟法。 人工神经网络入门难度大,编程者需要为每一个对象设置一个智能系统来进行控制,新设置好的智能系统,虽然一开始什么都不懂,但它拥有学习的能力,可以通过学习,不断提升智能,不断适应环境、应付各种情况。通常来讲,使用人工神经网络虽然编程复杂,但编写完成后的维护工作,将比使用其他方式编程后的维护更加省力。 本文采用人工神经网络构建一个完整的人工智能系统,并将该人工神经网络理论应用于电脑领域的项目DOTA。 关键词:人机对抗,神经网络,人工智能,DOTA 目录 第一章神经网络系统概述 1.1生物学神经网络 1.2人工神经网络

2019人工智能与健康试题及答案

2019人工智能与健康试题及答案 一、单项选择题 1.()是集机械、电子、控制、计算机、传感器、人工智能等多学科先进技术于一体的现代制造业重要的自动化装备。 D.工业机器人 2.()是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。 B.机器翻译 3.()是人工智能的核心,是使计算机具有智能的主要方法,其应用遍及人工智能的各个领域。 B.机器学习 4.()是人以自然语言同计算机进行交互的综合性技术,结合了语言学、心理学、工程、计算机技术等领域的知识。 A.语音交互 5.()是通过建立人工神经网络,用层次化机制来表示客观世界,并解释所获取的知识,例如图像、声音和文本。 A.深度学习 6.()是研究用计算机系统解释图,像实现类似人类视觉系统理解外部世界的一种技术,所讨论的问题是为了完成某一任务需要从图像中获取哪些信息,以及如何利用这些信息获得必要的解释。 B.图像理解 7.()是一个具有大量的专门知识与经验的程序系统,它应用人工智能技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题。 A.专家系统 8.()是一种处理时序数据的神经网络,常用于语音识别、机器翻译等领域。 C.循环神经网络 9.()是一种基于树结构进行决策的算法。 B.决策树 10.()是用电脑对文本集按照一定的标准进行自动分类标记。

C.文本分类 11.()是指能够按照人的要求,在某一个领域完成一项工作或者一类工作的人工智能。 C.弱人工智能 12.()是指能够自己找出问题、思考问题、解决问题的人工智能。 B.强人工智能 13.()是指在各个领域都比人类要强的人工智能。 A.超人工智能 14.()是指直接通过肢体动作与周边数字设备和环境进行交互。 A.体感交互 15.()是自然语言处理的重要应用,也可以说是最基础的应用。 C.文本分类 16.()宣布启动了“先进制造伙伴计划”“人类连接组计划”“创新神经技术脑研究计划”。 C.美国 17.()中共中央政治局就人工智能发展现状和趋势举行第九次集体学习。 B.2018年10月31日 18.《“健康中国2030”规划纲要》中提到,健康是经济社会发展的() B.基础条件 19.《“健康中国2030”规划纲要》中提到,全民健康是建设健康中国的() D.根本目的 20.1997年,Hochreiter&Schmidhuber提出()。 D.长短期记忆模型 21.2005年,美国一份癌症统计报告表明:在所有死亡原因中,癌症占() A.1/4 22.2012年,Hinton教授小组在ImageNet竞赛中夺冠,降低了几乎()的错误率。 B.50% 23.2017年,卡内基梅隆大学开发的一个人工智能程序在()大赛上战胜了四位人类玩家,这在人工智能发展史上具有里程碑式的意义。 C.德州扑克 24.50年前,人工智能之父们说服了每一个人:“()是智能的钥匙。” B.逻辑 25.癌症的治疗分为手术、放疗、化疗。据WTO统计,有()的肿瘤患者需要接受放疗。

人工智能-BP神经网络算法的简单实现

人工神经网络是一种模仿人脑结构及其功能的信息处理系统,能提高人们对信息处理的智能化水平。它是一门新兴的边缘和交叉学科,它在理论、模型、算法等方面比起以前有了较大的发展,但至今无根本性的突破,还有很多空白点需要努力探索和研究。 1 人工神经网络研究背景 神经网络的研究包括神经网络基本理论、网络学习算法、网络模型以及网络应用等方面。其中比较热门的一个课题就是神经网络学习算法的研究。 近年来己研究出许多与神经网络模型相对应的神经网络学习算法,这些算法大致可以分为三类:有监督学习、无监督学习和增强学习。在理论上和实际应用中都比较成熟的算法有以下三种: (1) 误差反向传播算法(Back Propagation,简称BP 算法); (2) 模拟退火算法; (3) 竞争学习算法。 目前为止,在训练多层前向神经网络的算法中,BP 算法是最有影响的算法之一。但这种算法存在不少缺点,诸如收敛速度比较慢,或者只求得了局部极小点等等。因此,近年来,国外许多专家对网络算法进行深入研究,提出了许多改进的方法。 主要有: (1) 增加动量法:在网络权值的调整公式中增加一动量项,该动量项对某一时刻的调整起阻尼作用。它可以在误差曲面出现骤然起伏时,减小振荡的趋势,提高网络训练速度; (2) 自适应调节学习率:在训练中自适应地改变学习率,使其该大时增大,该小时减小。使用动态学习率,从而加快算法的收敛速度; (3) 引入陡度因子:为了提高BP 算法的收敛速度,在权值调整进入误差曲面的平坦区时,引入陡度因子,设法压缩神经元的净输入,使权值调整脱离平坦区。 此外,很多国内的学者也做了不少有关网络算法改进方面的研究,并把改进的算法运用到实际中,取得了一定的成果: (1) 王晓敏等提出了一种基于改进的差分进化算法,利用差分进化算法的全局寻优能力,能够快速地得到BP 神经网络的权值,提高算法的速度; (2) 董国君等提出了一种基于随机退火机制的竞争层神经网络学习算法,该算法将竞争层神经网络的串行迭代模式改为随机优化模式,通过采用退火技术避免网络收敛到能量函数的局部极小点,从而得到全局最优值; (3) 赵青提出一种分层遗传算法与BP 算法相结合的前馈神经网络学习算法。将分层遗传算法引入到前馈神经网络权值和阈值的早期训练中,再用BP 算法对前期训练所得性能较优的网络权值、阈值进行二次训练得到最终结果,该混合学习算法能够较快地收敛到全局最优解;

人工智能习题答案

(此文档为Word格式,下载后可以任意编辑修改!)试卷装订封面

第一章绪论 1-1. 什么是人工智能?试从学科和能力两方面加以说明。 从学科角度来看:人工智能是计算机科学中涉及研究、设计和应用智能机器的一个分支。它的近期主要目标在于研究用机器来模仿和执行人脑的某些智能功能,并开发相关理论和技术。 从能力角度来看:人工智能是智能机器所执行的通常与人类智能有关的功能,如判断、推理、证明、识别、感知、理解、设计、思考、规划、学习和问题求解等思维活动 1-2. 在人工智能的发展过程中,有哪些思想和思潮起了重要作用?控制论之父维纳1940 年主张计算机五原则。他开始考虑计算机如何能像大脑一样工作。系统地创建了控制论,根据这一理论,一个机械系统完全能进行运算和记忆。 帕梅拉?麦考达克(Pamela McCorduck)在她的著名的人工智能历史研究《机器思维》(Machine Who Think,1979) 中曾经指出:在复杂的机械装置与智能之间存在着长期的联系。著名的英国科学家图灵被称为人工智能之父,图灵不仅创造了一个简单的通用的非数字计算 模型,而且直接证明了计算机可能以某种被理解为智能的方法工作。提出了著名的图灵测试。数理逻辑从19 世纪末起就获迅速发展;到20 世纪30 年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。 1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型。60-70年代,联结主义,尤其是对以感知机(perceptron)为代表的脑模型的研究曾出现过 热潮, 控制论思想早在40-50 年代就成为时代思潮的重要部分,影响了早期的人工智能工作者。到 60-70 年代,控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子。 1-3. 为什么能够用机器(计算机)模仿人的智能? 物理符号系统的假设:任何一个系统,如果它能够表现出智能,那么它就必定能执行输入符号、输出符号、存储符号、复制符号、建立符号结构、条件性迁移6种功能。反之,任何系 统如果具有这 6 种功能,那么它就能够表现出智能(人类所具有的智能)。 物理符号系统的假设伴随有3个推论。 推论一: 既然人具有智能,那么他(她)就一定是个物理符号系统。 推论二: 既然计算机是一个物理符号系统,它就一定能够表现出智能。 推论三: 既然人是一个物理符号系统,计算机也是一个物理符号系统,那么我们就能够用计 算机来模拟人的活动。 1-4. 现在人工智能有哪些学派?它们的认知观是什么?符号主义(Symbolicism) ,又称为逻辑主义(Logicism) 、心理学派(Psychlogism) 或计算机学派(Computerism) [ 其原理主要为物理符号系统( 即符号操作系统)假设和有限合理性原理。] 认为人的认知基元是符号,而且认知过程即符号操作过

人工智能神经网络例题

神经网络学习 假设w1(0)=0.2, w2(0)=0.4, θ(0)=0.3, η=0.4,请用单层感知器完成逻辑或运算的学习过程。 解:根据“或”运算的逻辑关系,可将问题转换为: 输入向量:X1=[0, 0, 1, 1] X2=[0, 1, 0, 1] 输出向量:Y=[0, 1, 1, 1] 由题意可知,初始连接权值、阈值,以及增益因子的取值分别为: w1(0)=0.2, w2(0)=0.4, θ(0)=0.3,η=0.4 即其输入向量X(0)和连接权值向量W(0)可分别表示为: X(0)=(-1, x1 (0), x2 (0)) W(0)=(θ(0), w1(0), w2 (0)) 根据单层感知起学习算法,其学习过程如下: 设感知器的两个输入为x1(0)=0和x2(0)=0,其期望输出为d(0)=0,实际输出为:y(0)=f(w1(0) x1(0)+ w2(0) x2(0)-θ(0)) =f(0.2*0+0.4*0-0.3)=f(-0.3)=0 实际输出与期望输出相同,不需要调节权值。 再取下一组输入:x1(0)=0和x2(0)=1,其期望输出为d(0)=1,实际输出为: y(0)=f(w1(0) x1(0)+ w2(0) x2(0)-θ(0)) =f(0.2*0+0.4*1-0.3)=f(0.1)=1 实际输出与期望输出相同,不需要调节权值。 再取下一组输入:x1(0)=1和x2(0)=0,其期望输出为d(0)=1,实际输出为: y(0)=f(w1(0) x1(0)+ w2(0) x2(0)-θ(0)) =f(0.2*1+0.4*0-0.3) =f(-0.1)=0 实际输出与期望输出不同,需要调节权值,其调整如下: θ(1)=θ(0)+η(d(0)- y(0))*(-1)=0.3+0.4*(1-0)*(-1)= -0.1 w1(1)=w1(0)+η(d(0)- y(0))x1(0)=0.2+0.4*(1-0)*1=0.6 w2(1)=w2(0)+η(d(0)- y(0))x2(0)=0.4+0.4*(1-0)*0=0.4 再取下一组输入:x1(1)=1和x2(1)=1,其期望输出为d(1)=1,实际输出为: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-θ(1)) =f(0.6*1+0.4*1+0.1) =f(1.1)=1 实际输出与期望输出相同,不需要调节权值。 再取下一组输入:x1(1)=0和x2(1)=0,其期望输出为d(0)=0,实际输出为: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-θ(1)) =f(0.6*0+0.4*0 + 0.1)=f(0.1)=1

人工智能复习题(答案)

一:单选题 1. 人工智能的目的是让机器能够(D),以实现某些脑力劳动的机械化。 A. 具有完全的智能 B. 和人脑一样考虑问题 C. 完全代替人 D. 模拟、延伸和扩展人的智能 2. 下列关于人工智能的叙述不正确的有(C)。 A. 人工智能技术它与其他科学技术相结合极大地提高了应用技术的智能化水平。 B. 人工智能是科学技术发展的趋势。 C. 因为人工智能的系统研究是从上世纪五十年代才开始的,非常新,所以十分重要。 D. 人工智能有力地促进了社会的发展。 3. 自然语言理解是人工智能的重要应用领域,下面列举中的(C)不是它要实现的目标。 A. 理解别人讲的话。 B. 对自然语言表示的信息进行分析概括或编辑。 C. 欣赏音乐。 D. 机器翻译。 4. 下列不是知识表示法的是(A)。 A. 计算机表示法 B. 谓词表示法 C. 框架表示法 D. 产生式规则表示法 5. 关于“与/或”图表示知识的叙述,错误的有(D)。 A. 用“与/或”图表示知识方便使用程序设计语言表达,也便于计算机存储处理。 B. “与/或”图表示知识时一定同时有“与结点”和“或结点”。 C. “与/或”图能方便地表示陈述性知识和过程性知识。 D. 能用“与/或”图表示的知识不适宜用其他方法表示。 6. 一般来讲,下列语言属于人工智能语言的是(D)。 A. VJ B. C# C. Foxpro D. LISP 7. 专家系统是一个复杂的智能软件,它处理的对象是用符号表示的知识,处理的过程是(C)的过程。 A. 思考 B. 回溯 C. 推理 D. 递归 8. 确定性知识是指(A)知识。 A. 可以精确表示的 B. 正确的 C. 在大学中学到的知识 D. 能够解决问题的 9. 下列关于不精确推理过程的叙述错误的是(B)。 A. 不精确推理过程是从不确定的事实出发 B. 不精确推理过程最终能够推出确定的结论 C. 不精确推理过程是运用不确定的知识 D. 不精确推理过程最终推出不确定性的结论 10. 我国学者吴文俊院士在人工智能的(A)领域作出了贡献。 A. 机器证明 B. 模式识别 C. 人工神经网络 D. 智能代理

人工智能论文

湖南理工学院 人工智能课程论文 题目:模式识别及人工神经网络 课程名称:人工智能 院系:计算机学院 专业班级: 姓名: 学号: 课程论文成绩: 指导教师: 2016年 6 月 26 日 模式识别及人工神经网络 摘要:人工神经网络是指模拟人脑神经系统的结构和功能,运用大量的处理部件,由人工方式建立起来的网络系统。该文首先介绍了神经网络研究动向,然后介绍了近年来几种新型神经网络的基本模型及典型应用,包括模糊神经网络、神经网络与遗传算法的结合、进化神经网络、混沌神经网络和神经网络与小波分析的结合。最后,根据这几种新型神经网络的特点, 展望了它们今后的发展前景。[2] 关键词:模糊神经网络;神经网络与遗传算法的结合;进化神经网络;混沌神经网络;神经网络与小波分析。 Pattern recognition and artificial neural network

Abstract: Artificial neural network is the system that simulates the human brain’s structure and function, and uses a large number of processing elements, and is manually established by the network system. This paper firstly introduces the research trends of the neural network, and then introduces several new basic models of neural networks and typical applications in recent years, including of fuzzy neural network, the combine of neural network and genetic algorithm, evolutionary neural networks, chaotic neural networks and the combine of neural networks and wavelet analysis. Finally, their future prospects are predicted based on the characteristics of these new neural networks in the paper. Key words: Fuzzy neural network; Neural network and genetic algorithm; Evolutionary neural networks; Chaotic neural networks; Neural networks and wavelet analysis 1 什么是人工神经网络? 所谓人工神经网络就是模仿生物大脑的结构和功能而构成的一种信息系统计算机,人士地球上具有最高智慧的动物,而人的指均来自大脑,人类靠大脑进行思考,联想,记忆和推理判断等,这些功能是任何被称为“电脑”的一般计算机所无法取代的,长期以来,许多科学家一直致力于人脑内部结构和功能的探讨和研究,并试图建立模拟人脑的计算机,虽然到目前对大脑的内部工作机理还不是完全清楚,但对其结构有所了解。粗略地讲,大脑是由大量神经细胞或者神经元组成的,每个神经元可看作是一个小的处理单元,这些神经元按某种方式连接起来,形成大脑内部的生理神经元网络。这种神经元网络中各神经元之间联结的强弱,按外部的激励信号做自适应变化,而每个神经元又随着所接收到的多个信号的综合大小而呈现兴奋或抑制状态。 1.1 人工智能网络的发展 (1)初期(萌发)期---MP模型的提出和人工升级网络的兴起 --1943年,美国神经生理学家Warren Mcculloch和数学家Walter Pitts 合写了一篇关于神经元如何工作的开拓性文章:“A Logical Calculus of Ideas Immanent in Nervous Activity”。该文指出,脑细胞的活动就像各种逻辑运算。

模糊控制与神经网络

BP神经网络 BP (Back Propagation)神经网络是一种神经网络学习算法,全称基于误差反向传播算法的人工神经网络。 如图所示拓扑结构的单隐层前馈网络,一般称为三层前馈网或三层感知器,即:输入层、中间层(也称隐层)和输出层。它的特点是:各层神经元仅与相邻层神经元之间相互全连接,同层内神经元之间无连接,各层神经元之间无反馈连接,够成具有层次结构的前馈型神经网络系统。单计算层前馈神经网络只能求解线性可分问题,能够求解非线性问题的网络必须是具有隐层的多层神经网络。 在人工神经网络发展历史中,很长一段时间里没有找到隐层的连接权值调整问题的有效算法。直到误差反向传播算法(BP算法)的提出,成功地解决了求解非线性连续函数的多层前馈神经网络权重调整问题。 BP (Back Propagation)神经网络,即误差反传误差反向传播算法的学习过程,由信息的正向传播和误差的反向传播两个过程组成。输入层各神经元负责接收来自外界的输入信息,并传递给中间层各神经元;中间层是内部信息处理层,负责信息变换,根据信息变化能力的需求,中间层可以设计为单隐层或者多隐层结构;最后一个隐层传递到输出层各神经元的信息,经进一步处理后,完成一次学习的正向传播处理过程,由输出层向外界输出信息处理结果。当实际输出与期望输出不符时,进入误差的反向传播阶段。误差通过输出层,按误差梯度下降的方式修正各层权值,向隐层、输入层逐层反传。周而复始的信息正向传播和误差反向传播过程,是各层权值不断调整的过程,也是神经网络学习训练的过程,此过程一直进行到网络输出的误差减少到可以接受的程度,或者预先设定的学习次数为止。 神经网络 神经网络是: 思维学普遍认为,人类大脑的思维分为抽象(逻辑)思维、形象(直观)思维和灵感(顿悟)思维三种基本方式。 逻辑性的思维是指根据逻辑规则进行推理的过程;它先将信息化成概念,并用符号表示,然后,根据符号运算按串行模式进行逻辑推理;这一过程可以写成串行的指令,让计算机执行。然而,直观性的思维是将分布式存储的信息综合起来,结果是忽然间产生想法或解决问题的办法。这种思维方式的根本之点在于以下两点:1.信息是通过神经元上的兴奋模式分布储在网络上;2.信息处理是通过神经元之间同时相互作用的动态过程来完成的。 人工神经网络就是模拟人思维的第二种方式。这是一个非线性动力学系统,其特色在于信息的分布式存储和并行协同处理。虽然单个神经元的结构极其简单,功能有限,但大量神经元构成的网络系统所能实现的行为却是极其丰富多彩的。 神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。目前,主要的研究工作集中在以下几个方面: (1)生物原型研究。从生理学、心理学、解剖学、脑科学、病理学等生物科学方面研究神经细胞、神经网络、神经系统的生物原型结构及其功能机理。 (2)建立理论模型。根据生物原型的研究,建立神经元、神经网络的理论模型。其中包括概念模型、知识模型、物理化学模型、数学模型等。 (3)网络模型与算法研究。在理论模型研究的基础上构作具体的神经网络模型,以实现计算机馍拟或准备制作硬件,包括网络学习算法的研究。这方面的工作也称为技术模型研究。 (4)人工神经网络应用系统。在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,例如,完成某种信号处理或模式识别的功能、构作专家系统、制成机器人等等。 纵观当代新兴科学技术的发展历史,人类在征服宇宙空间、基本粒子,生命起源等科学技术领域的进程中历经了崎岖不平的道路。我们也会看到,探索人脑功能和神经网络的研究将伴随着重重困难的克服而日新月异。 【人工神经网络的工作原理】 人工神经网络首先要以一定的学习准则进行学习,然后才能工作。现以人工神经网络对手写“A”、“B”两个字母的识别为例进行说明,规定当“A”输入网络时,应该输出“1”,而当输入为“B”时,输出为“0”。 所以网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,应使得网络减少下次犯同样错误的可能性。首先,给网络的各连接权值赋予(0,1)区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。在此情况下,网络输出为“1”和“0”的概率各为50%,也就是说是完全随机的。这时如果输出为“1”(结果正确),则使连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。

相关文档
最新文档