2008年研究生神经网络试题A卷参考答案

合集下载

研究生神经网络试题A卷参考答案

研究生神经网络试题A卷参考答案

研究生神经网络试题A卷参考答案一、简答题1. 神经网络的基本原理是什么?神经网络是一种模仿人脑神经元网络结构和工作方式的计算模型。

它由大量的节点(神经元)和连接它们的边(突触)构成。

每个神经元接收多个输入信号,并通过激活函数进行处理后,将输出信号传递给其他神经元。

通过多层的神经元连接,神经网络能够对复杂的非线性问题进行建模和求解。

2. 神经网络训练的过程及原理是什么?神经网络的训练过程分为前向传播和反向传播两个阶段。

在前向传播过程中,将输入信号通过网络的各层神经元传递,并经过激活函数的作用,最终得到输出结果。

在反向传播过程中,通过与真实输出值的比较,计算网络输出的误差,然后将误差逆向传播回网络,根据误差进行权重和偏置的调整,以减小误差。

反复进行前向传播和反向传播的迭代训练,直到达到预定的训练精度或收敛条件。

3. 神经网络的主要应用领域有哪些?神经网络广泛应用于各个领域,包括图像识别、语音识别、自然语言处理、机器翻译、推荐系统等。

在图像识别领域,卷积神经网络(CNN)被广泛应用于图像分类、目标检测和图像分割等任务。

在自然语言处理领域,循环神经网络(RNN)和长短时记忆网络(LSTM)在语言模型、机器翻译和文本生成等方面表现出色。

此外,神经网络还可以用于金融预测、智能控制和模式识别等其他领域。

4. 神经网络中的激活函数有哪些常用的?它们的作用是什么?常用的激活函数包括sigmoid函数、ReLU函数和tanh函数。

它们的作用是在神经网络中引入非线性,增加网络的表达能力。

sigmoid函数将输入映射到0和1之间,主要用于二分类问题。

ReLU函数在输入大于0时返回该值,否则返回0,可以有效地缓解梯度消失问题,目前在深度学习中得到广泛应用。

tanh函数将输入映射到-1和1之间,具有对称性,使得网络的输出更加均匀。

5. 神经网络中的损失函数有哪些常用的?它们的作用是什么?常用的损失函数包括均方误差损失函数(MSE)、交叉熵损失函数和对数损失函数。

2008年研究生神经网络试题A卷参考答案

2008年研究生神经网络试题A卷参考答案

研究生神经网络试题A卷参考答案一、名词解释(共5题,每题5分,共计25分)1、泛化能力答:泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。

泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。

2、有监督学习答:有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。

3、过学习答:过学习(over-fitting),也叫过拟和。

在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC维太大,所以期望风险仍然很高。

也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。

典型的过学习是多层前向网络的BP算法4、Hebb学习规则答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。

如果用、表示神经元i和j的激活值(输出),表示两个神经元之间的连接权,则Hebb学习规则可以表示为:,这里表示学习速率。

Hebb 学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形。

5、自学习、自组织与自适应性答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。

而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。

能力方面的特征是神经网络的自学习、自组织与自性适应性。

自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。

自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。

自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。

2008年同等学力申硕计算机科学与技术真题及答案

2008年同等学力申硕计算机科学与技术真题及答案

间为
拍。
2.有编号为 0,1,2,…,31 共 32 个处理机(结点),采用移数函数构成互连网,则网络直径

,结点度为

二、问答题(本大题共 3 小题,每小题 2 分,共 6 分) 一台计算机以字为单位访问存储器。
其主存共包含 4096 个存储块,每个存储块大小为 128
个字。采用组相联映像方式的 Cache 由 64 个存储块构成,每组包含 4 个存储块。 1.问主存地址需要用多少位表示? 2.问 Cache 地址需要用多少位表示? 3.计算主存地址格式中,区号、组号、块号和块内地址字段的位数。
三、问答和计算题(本大题共 4 小题,共 14 分) 1.(3 分)试说明以太网规定的最短帧长是多少?为什么要限制最短帧长? 2.(3 分)试说明 TCP 协议是如何提供端到端可靠的传输服务的? 3.(4 分)考虑一条带宽为 1.6Mbps 的链路,往返传播时延为 45ms,假设数据帧的大小为 1KB。
1.设 A、B 均为有穷集合,A 和 B 的基数分别是 m 和 n(m >0, n >0)。
(1)当 m 和 n 满足
时,存在从 A 到 B 的双射函数。
此时共可生成
个不同的双射函数。
(2)当 m 和 n 满足 此时共可生成
时,存在从 A 到 B 的单射函数。 个不同的单射函数。
2.已知 5 位老师和 3 位学生围圆桌就座,如果要求学生两两不相邻,则有 案。
考生须知
1. 本试卷满分为 100 分,包括数学基础课程和专业知识课程两部分。数学基础课程满分 40 分,每位考生必答;专业知识课程包括五门课程,每门课程满分 30 分,考生须从中任选 2 门作答,多选者只按前选课程计分。

2008心理学考研真题及答案汇总

2008心理学考研真题及答案汇总

2008心理学考研真题及答案汇总在考研的征程中,心理学专业的考试一直是众多学子关注的焦点。

2008 年的心理学考研真题,为我们呈现了当年考试的重点和命题趋势,对于备考的同学来说,具有重要的参考价值。

让我们先来看看单选题部分。

其中,有一道题考查了感觉的相关知识。

题目是:“人在知觉过程中,总是用过去的知识和经验来理解当前的知觉对象,并且用语词加以概括,赋予它确定的含义,这种知觉特性称为()”。

答案是知觉的理解性。

这道题考查了对于知觉特性的理解和区分,需要考生对相关概念有清晰的认识。

还有一道单选题涉及到了记忆的内容:“根据艾宾浩斯遗忘曲线,遗忘的速度是()”。

答案是先快后慢。

这是一个经典的知识点,考生需要牢记遗忘的规律,以便在学习和复习中采取有效的策略。

在多选题部分,也有一些具有挑战性的题目。

比如:“下列选项中,属于心理过程的有()”,这道题涵盖了心理学中多个重要的心理过程概念,包括认知过程、情感过程和意志过程等。

简答题方面,有这样一道题目:“简述动机的功能。

”答案包括激发功能、指向功能、维持和调节功能。

考生需要对动机的作用有全面而准确的理解,并能够清晰地表达出来。

还有一道简答题是:“简述情绪和情感的区别和联系。

”这要求考生对情绪和情感的概念、特点以及相互关系有深入的把握。

论述题部分,有一道题目是:“结合实际,论述影响问题解决的因素。

”这道题不仅考查了考生对理论知识的掌握,还要求能够结合实际情况进行分析和阐述。

考生需要从问题的类型、知识经验、思维定势、功能固着、动机和情绪、人际关系等多个方面进行论述,并通过实际例子加以说明。

在实验心理学部分,有一道实验设计的题目,要求考生设计一个实验来研究某种心理现象。

这就需要考生具备扎实的实验设计能力和逻辑思维能力。

对于这些真题,我们可以从中总结出一些备考的重点和方法。

首先,基础知识的掌握至关重要。

心理学的概念、理论和原理是解答各种题型的基础。

其次,要注重知识的理解和应用,不能死记硬背。

2008年全国硕士研究生入学统一考试心理学专业基础综合试题

2008年全国硕士研究生入学统一考试心理学专业基础综合试题

2008年全国硕士研究生入学统一考试心理学专业基础综合试题及考题注:标准字体为完整的08年心理学考研真题,每道08年考题后边”加粗”的字为博仁08年内部资料内部及位置,因书面资料的局限性,为保证辅导效果一部分信息传递给了授课老师,在课堂上讲解,因此内部资料不是博仁辅导班的唯一信息传寄方式。

提示:考前押只是在时间有限的情况下的权宜之计,押题是有风险,根据老师在基础时的讲解认真复习打好基础才是正确之选,切不可从一开始就存侥幸心理。

今年继续会将部分信息出在内部资料上,也会将部分信息传递给授课老师在课堂上讲解,内部资料不再将这部分内容作为训练的重点,请学员上课时认真听讲。

一、单项选择题:l-65题,每小题2分,共130分。

下列每题给出的四个选项中,只有一个选项是符合题目要求的。

1.强调心理学不应该以意识为主要研究对象的学派是A.构造主义 B.机能主义 C.人本主义 D.行为主义博仁内部资料《心理学考研模拟试题B卷》普通心理学试题一、选择题1、强调“整体”的心理学观点以及关心一个人是如何知觉环境的是:A.格式塔心理学B. 精神分析学派C.机能主义D. 行为主义《心理学考研辅导系列资料八》普心一、单项选题43,主张抛开意识,探索刺激与反应之间联系的心理学派是()A 行为主义B 人本主义C 认知主义D 社会心理学2.现代心理学诞生和发展的两个重要历史渊源是哲学和A.生理学 B.社会学 C.人类学 D.物理学3.通过裂脑人研究来揭示大脑两半球功能单侧化的科学家是A.布洛卡(P.Broca) B.拉什利(K.s.Lashley) C.斯佩里(R.S peny) D.威尔尼克(C.Wernicke)《心理学考研辅导系列资料八》普心一、单项选题24,用“割裂脑”实验证明了,对右利手的人来说左半球言语功能占优势,右半球空间知觉和形象思维占优势的神经生理学家是()A 布洛卡B 罗杰.斯佩里C 巴甫洛夫D 艾宾浩斯4.颜色视觉的三个基本属性是A.色调、波长、照度 B.色调、明度、照度C.波长、明度、饱和度 D.色调、明度、饱和度5.视觉感受野位于A.外侧膝状体 B.额叶 C.视网膜 D.视觉皮层博仁内部资料《心理学考研模拟试题A卷》普通心理学试题一、选择题6、马赫带可以用()来解释。

人工神经网络复习题

人工神经网络复习题

《神经网络原理》一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。

2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。

3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。

4、神经网络研究的发展大致经过了四个阶段。

5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。

6、联想的形式有两种,它们分是自联想和异联想。

7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。

8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。

9、神经元分兴奋性神经元和抑制性神经元。

10、汉明距离指两个向量中对应元素不同的个数。

二、简答题1、人工神经元网络的特点?答:(1)、信息分布存储和容错性。

(2)、大规模并行协同处理。

(3)、自学习、自组织和自适应。

(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。

(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。

2、单个神经元的动作特征有哪些?答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。

3、怎样描述动力学系统?答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=F[X(t)];对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=F[U(t)]。

4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。

在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。

(完整版)神经网络试卷(A卷)(含答案)

20 08 –20 09 学年第 一 学期 考试方式: 开卷[ ] 闭卷[√]课程名称: 神经网络使用班级: 计算机科学与技术(医学智能方向)06 班级: 学号: 姓名: 一、单项选择题(每空2分,共30分)1. 人工神经网络的激活函数主要有三种形式,下面(A )对应的是非线性转移函数, ( B )对应的是对应的是域值函数,( C )分段线性函数。

()()101)f())f )01e 1, 1f , 11)f 01, 1v A v B v C v v v v v v D v v ≥⎧==⎨-<+⎩≥⎧⎪=-<<=⎨⎪-≤-⎩()2. 根据神经元的不同连接方式,可将神经网络分为两大类:分层网络和相互连接型网络。

分层网络将一个神经网络模型中的所有神经元按照功能分成若干层。

一般有输入层、隐含层(中间层)和输出层,各层顺次连接。

下面图形(D )对应的是相互连接型网络,图形(C )对应的是层内互联的前向网络,图形( B)对应的是具有反馈的前向网络,图形( A)对应的是单纯的前向网络。

······x 1x 2x n12m······x 1x 2x n12m······x 1x 2x n12m······x 1x 2x n12ma)b)c)d)3. 在MATLAB中,下面的(○3)命令可以使用得下次绘制的图和已经绘制的图将不在同一张图上。

A) hold on(设置在同一张图绘制多条曲线)B) figure (下次的图和已绘制的不在同一张图上)C) plot D) hold off(取消在同一张图绘制多条曲线)3.下面是一段有关向量运算的MATLAB代码:>>y= [3 7 11 5];>>y(3) = 2运算后的输出结果是(○8)A) 3 2 11 5 B) 3 7 2 5C) 2 7 11 5 D) 3 7 11 24. 下面是一段有关矩阵运算的MATLAB代码:>>A = [1 2 3 4; 5 6 7 8; 9 10 11 12];>>B = A(2,1:3)取出矩阵A中第二行第一个到第三个构成矩阵B若A(2,3)=5将矩阵第二行第三列的元素置为5A=[A B’]将B转置后,再以列向量并入AA(:,2)=[]删除第二列:代表删除列A([1,4],:)=[]删除第一和第四行:代表删除行A=[A;4,3,2,1]加入第四行那么运算后的输出结果是(○9)A) 5 7 8 B) 5 6 8 C) 5 6 7D) 6 7 85.下面对MATLAB中的plot(x,y,s)函数叙说正确的是(○10)A) 绘制以x、y为横纵坐标的连线图(plot(x,y)) B绘制多条不同色彩的连线图(plot(x,y))C) 默认的绘图颜色为蓝色D) 如果s=’r+’,则表示由红色的+号绘制图形6. 如果现在要对一组数据进行分类,我们不知道这些数据最终能分成几类,那么应该选择(○11)来处理这些数据最适合。

北邮信号考研2008年(A卷)真题及答案


, 当实系数 K=
时系
2. 已知 x(n ) = 3 , 4 , 5 , 6

{
}

h(n ) = x(0.5n − 1) =
。 。 。
3. 两个时间函数 f 1 (t ), f 2 (t ) 在 [t1 , t 2 ] 区间内相互正交的条件是 4. 已知冲激序列 δ T (t ) =
n =−∞
∑ δ (t − nT ) ,其指数形式的傅里叶级数为
5.信号 x(n ) = cos A: 4
nπ 的周期为 2 , B:2 ,
C:0.2 π ,
D:0.5 π 。
三 、填空题(本大题共 10 个空,每空 3 分共 30 分)不写解答过程,写出每 空格内的正确答案。 1. 图示反馈系统 H (S ) = 统为临界稳定状态。
V 2 (S ) = V1 (S )
f (− 2t + 1) ∞ O
(2)
t
π π π 2. 已知信号 x(t ) = 16 cos 20πt + + 6 cos 30πt + + 4 cos 40πt + 。 4 6 3 (1) 画出双边幅度谱和相位谱图; (2) 计算并画出信号的功率谱。 3. 已知 s1 (t ) 、 f (t ) 的波形如下图所示,画出卷积积分 s 2 (t ) = s1 (t ) ∗ f (t ) 的 波形。
三、填空题(本大题共 10 个空,每空 3 分共 30 分) 1.
2. 3.
{3 , 0 , 4 , 0 , 5 , 0 , 6 }

S 2 + (4 − K )S + 4
KS
,
K=4

深度学习与神经网络考试试题

深度学习与神经网络考试试题一、选择题(每题 3 分,共 30 分)1、以下哪个不是深度学习常用的框架?()A TensorFlowB PyTorchC ScikitlearnD Keras2、神经网络中的激活函数的作用是?()A 增加模型的复杂度B 引入非线性C 加速模型的训练D 减少过拟合3、在卷积神经网络中,池化层的主要作用是?()A 特征提取B 减少参数数量C 增加模型的鲁棒性D 以上都是4、以下哪种情况可能导致神经网络过拟合?()A 训练数据过少B 模型过于简单C 正则化参数过大D 学习率过高5、反向传播算法用于计算?()A 输入层的误差B 输出层的误差C 各层神经元的误差D 损失函数的值6、以下哪个不是神经网络的优化算法?()A 随机梯度下降B 牛顿法C 模拟退火D 蚁群算法7、在循环神经网络中,用于解决长期依赖问题的机制是?()A 门控机制B 注意力机制C 池化机制D 卷积机制8、对于图像识别任务,以下哪种神经网络结构表现较好?()A 多层感知机B 卷积神经网络C 循环神经网络D 自编码器9、深度学习中的“深度”通常指的是?()A 数据的规模B 模型的复杂度C 网络的层数D 训练的时间10、以下哪个指标常用于评估分类模型的性能?()A 均方误差B 准确率C 召回率D 以上都是二、填空题(每题 3 分,共 30 分)1、神经网络中的神经元通过_____接收输入信号,并通过_____产生输出信号。

2、常见的激活函数有_____、_____、_____等。

3、卷积神经网络中的卷积核的大小通常为_____。

4、深度学习中的正则化方法包括_____、_____、_____等。

5、循环神经网络中的长短期记忆单元(LSTM)包含_____、_____、_____三个门。

6、图像分类任务中,数据增强的常见方法有_____、_____、_____等。

7、神经网络的训练过程包括_____和_____两个阶段。

考研历年计算机试题及答案

考研历年计算机试题及答案一、操作系统1. 2008年考研计算机试题试题:1. 操作系统的基本功能包括()A. 处理器的分配和管理B. 文件的管理C. 设备的管理D. 以上都是2. 下列描述cpu态的是()A. 运行进程时的状态B. 进程被阻塞时的状态C. cpu在设置进程工作区时的状态D. cpu在调度进程时的状态3. 能实现进程间通信的机制是()A. 信号量B. 文件C. 栈D. 配置文件4. 进程的状态包括()A. 就绪态B. 等待态C. 执行态D. 以上都是5. 系统调用的作用是()A. 提供用户程序方便使用操作系统功能的接口B. 用于操作设备C. 提供网络连接D. 完成数据的输入与输出答案:1. D2. A3. A4. D5. A二、数据结构1. 2012年考研计算机试题试题:1. 下列选项中,时间复杂度最高的是()A. O(1)B. O(n)C. O(n^2)D. O(log n)2. 以下数据结构中,无法实现插入和删除操作的是()A. 数组B. 链表C. 栈D. 队列3. 假设选择排序的初始序列是5, 3, 8, 1, 2,那么经过第一趟排序之后的序列是()A. 5, 3, 8, 1, 2B. 1, 3, 8, 5, 2C. 8, 1, 2, 3, 5D. 2, 1, 3, 5, 84. 在图的存储结构中,当使用邻接矩阵来表示图时,需要的空间复杂度是()A. O(n)B. O(n^2)C. O(log n)D. O(1)5. 二叉查找树的中序遍历结果是()A. 从小到大排列的结果B. 从大到小排列的结果C. 完全随机的结果D. 无法确定答案:1. C2. A3. B4. B5. A三、数据库1. 2015年考研计算机试题试题:1. 下列关系数据模型中,用来解决多对多关联的模型是()A. 层次模型B. 网状模型C. 关系模型D. 对象模型2. 当更新一个数据库时,数据库管理系统一般使用的策略是()A. 追加B. 删除C. 修改D. 插入3. 下列数据库查询语言中,属于关系数据库查询语言的是()A. SQLB. COBOLC. C++D. Java4. 下列哪种数据库模型描述能力最强()A. 层次模型B. 网状模型C. 关系模型D. 对象模型5. 下列哪个语言是用来定义数据库结构的语言()A. SQLB. COBOLC. C++D. Java答案:1. C2. C3. A4. D5. D本文简要介绍了历年考研计算机试题及答案,其中包括操作系统、数据结构和数据库三个主要方向的考题。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

研究生神经网络试题A 卷参考答案 一、名词解释(共5题,每题5分,共计25分)
1、泛化能力
答:泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。

泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。

2、有监督学习
答:有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。

3、过学习
答:过学习(over-fitting ),也叫过拟和。

在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC 维太大,所以期望风险仍然很高。

也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。

典型的过学习是多层前向网络的BP 算法
4、Hebb 学习规则
答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。


果用i v 、j v 表示神经元i 和j 的激活值(输出),
ij ϖ表示两个神经元之间的连接权,则Hebb 学习规则可以表示为: ij i j w v v α∆= ,这里α表示学习速率。

Hebb 学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb 学习规则的变形。

5、自学习、自组织与自适应性
答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。

而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。

能力方面的特征是神经网络的自学习、自组织与自性适应性。

自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。

自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。

自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。

也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。

二、问答题(共7题,每题8分,共计56分)
1、试述遗传算法的基本原理,并说明遗传算法的求解步骤。

答:遗传算法的基本原理如下:通过适当的编码方式把问题结构变为位串形式(染色体),在解空间中取一群点作为遗传开始的第一代,染色体的优劣程度用一个适应度函数来衡量,每一代在上一代的基础上随机地通过复制、遗传、变异来产生新的个体,不断迭代直至产生符合条件的个体为止。

迭代结束时,一般将适应度最高的个体作为问题的解。

一般遗传算法的主要步骤如下:
(1) 随机产生一个由确定长度的特征字符串组成的初始群体。

(2) 对该字符串群体迭代的执行下面的步 (a) 和 (b) ,直到满足停止标准:
(a) 计算群体中每个个体字符串的适应值;
(b) 应用复制、交叉和变异等遗传算子产生下一代群体。

(3) 把在后代中出现的最好的个体字符串指定为遗传算法的执行结果,这个结果可以表示问题的一个解。

2、什么是进化计算?它包括哪些内容?它们的出发点是什么?
答:进化计算即模仿生物来建立功能强大的算法,进而将它们运用于复杂的优化问题。

进化计算包括遗传算法、进化策略、进化编程、遗传编程和人工生命。

遗传算法是模仿生物遗传学和自然选择机理,通过人工方式构造的一类优化搜索算法,是对生物进化过程进行的一种数学仿真,是进化计算的一种最重要形式。

进化策略是一类模仿自然进化原理以求解参数优化问题的算法。

进化编程的过程,可理解为从所有可能的计算机程序形成的空间中,搜索具有高的适应度的计算机程序个体。

人工生命试图通过人工方法建造具有自然生命特征的人造系统。

3、人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?
答; 1.单元上的差别对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。

如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。

而人工神经元则忽略了这些影响,输入、输出关系十分简单。

2.信息上的差别生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。

3.规模与智能上的差别目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在104个以下,显然,其智能也无法与生物神经网络相比。

4、感知器神经网络存在的主要缺陷是什么?
答: 1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题;
2)感知器仅能够线性地将输入矢量进行分类。

理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;
3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。

5、请比较前馈型神经网络与反馈型神经网络的异同点。

(8分)
答:前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。

(1)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。

(2)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。

(3)两者都有局部极小问题。

6、BP算法的基本思想是什么,它存在哪些不足之处?(9分)
答:BP算法(即反向传播法)的基本思想是:学习过程由信号的正向传播与误差的反向传播两个过程组成。

1)正向传播:输入样本->输入层->各隐层(处理)->输出层
注1:若输出层实际输出与期望输出(教师信号)不符,则转入2)(误差反向传播过程)
2)误差反向传播:输出误差(某种形式)->隐层(逐层)->输入层
其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程)。

注2:权值调整的过程,也就是网络的学习训练过程(学习也就是这么的由来,权值调整)。

虽然BP算法得到广泛的应用,但它也存在自身的限制与不足,其主要表现在于它的训练过程的不确定上。

具体说明如下:
1)易形成局部极小(属贪婪算法,局部最优)而得不到全局最优;
BP算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。

2)训练次数多使得学习效率低下,收敛速度慢(需做大量运算);
对于一些复杂的问题,BP算法可能要进行几小时甚至更长的时间的训练。

这主要是由于学习速率太小所造成的。

可采用变化的学习速率或自适应的学习速率来加以改进。

3)隐节点的选取缺乏理论支持;
4)训练时学习新样本有遗忘旧样本趋势
7、请描述结构风险最小化原则(SRM)的思想,并给出其数学表达式。

答:传统机器学习中的经验风险最小化(ERM)原则在有限样本情况下是不合理的。

需要同时最小化经验风险和置信界限。

统计学习理论提出了一种新的策略,即把函数集构造为一个函数子集序列,使各个子集按照VC维的大小(亦即θ的大小)排列:在每个子集中寻找最小经验风险,在子集间折衷考虑经验风险和置信界限,取得实际风险的最小,如下图所示。

这种思想称作结构风险最小化准则,即SRM准则。

结构风险最小化原则的数学表达式如下式所示:
式中R(w)为实际风险,R
emp (w)为经验风险,h是函数集的VC维,n是样本数。

n
h
n
h
w
R
w
R
emp
)
4
/
ln(
) 1
)
/
2
(ln(
)
(
)
(
η
-
+
+≤
结构风险最小化原理图
三、推导题(共一题,计19分)
1、给定图1所示的具有一个隐含层的BP简化网络图,请给出BP算法的完整推导步骤。

答:
1、信息的正向传递
1)隐含层中第i个神经元的输出为:
(1)2)输出层第k个神经元的输出为:
(2)3)定义误差函数为:
(3)2、利用梯度下降法求权值变化及误差的反向传播
(1)输出层的权值变化
对从第i个输入到第k个输出的权值有:
(4)其中:
(5)(6)同理可得:
(7)
(2)隐含层权值变化
对从第j个输入到第i个输出的权值,有:
(8)其中:(9)
同理可得:(10)。

相关文档
最新文档