人工神经网络复习题.
勘探设备人工神经网络应用考核试卷

2. 在人工神经网络中,隐藏层的数量越多,模型性能越好。( )
3. 对于所有的勘探数据,都可以直接使用人工神经网络进行处理。( )
4. 在人工神经网络训练过程中,学习速率越大,模型的收敛速度越快。( )
5. 在人工神经网络中,使用批量梯度下降算法时,每次迭代都需要计算整个训练集的梯度。( )
C. 隐藏层节点数应等于输入层节点数
D. 网络层数越多,分类效果越好
8. 下列哪种方法可以降低人工神经网络的过拟合现象?( )
A. 增加训练样本数
B. 减少隐藏层节点数
C. 提高学习速率
D. 所有选项
9. 在人工神经网络训练过程中,以下哪个指标可以衡量网络的性能?( )
A. 误差平方和
B. 正确率
C. 召回率
1. 神经元
2. Sigmoid
3. 梯度裁剪
4. 提前停止
5. 数据标准化
6. 学习速率衰减
7. 数据清洗
8. 泛化能力
9. RNN/LSTM
10. 优化算法
四、判断题
1. √
2. ×
3. ×
4. ×
5. √
6. ×
7. ×
8. ×
9. √
10. ×
五、主观题(参考)
1. 人工神经网络在勘探设备数据处理中的主要作用是特征提取、模式识别和预测。应用场景包括地震数据去噪、地震相识别和油气藏预测。
8. 人工神经网络中,______是指模型在训练数据上的表现与在未知数据上的表现之间的差距。
9. 在地震勘探中,利用______神经网络可以有效地识别地震波形特征。
人工智能与神经网络考试试题

人工智能与神经网络考试试题一、选择题(每题 5 分,共 30 分)1、以下哪个不是人工智能的应用领域?()A 医疗诊断B 金融投资C 艺术创作D 传统手工制造业2、神经网络中的神经元通过什么方式进行连接?()A 随机连接B 全连接C 部分连接D 以上都不对3、在训练神经网络时,常用的优化算法是()A 随机梯度下降B 牛顿法C 二分法D 以上都是4、下列关于人工智能和神经网络的说法,错误的是()A 人工智能包括神经网络B 神经网络是实现人工智能的一种方法C 人工智能就是神经网络D 神经网络具有学习能力5、下面哪种激活函数常用于神经网络?()A 线性函数B 阶跃函数C Sigmoid 函数D 以上都是6、神经网络的层数越多,其性能一定越好吗?()A 一定B 不一定C 肯定不好D 以上都不对二、填空题(每题 5 分,共 30 分)1、人工智能的英文缩写是_____。
2、神经网络中的“学习”是指通过调整_____来优化模型性能。
3、常见的神经网络架构有_____、_____等。
4、训练神经网络时,为了防止过拟合,可以采用_____、_____等方法。
5、深度学习是基于_____的一种机器学习方法。
6、神经网络中的损失函数用于衡量_____与_____之间的差异。
三、简答题(每题 10 分,共 20 分)1、请简要说明人工智能和机器学习的关系。
答:人工智能是一个广泛的概念,旨在让计算机能够像人类一样思考和行动,实现智能的表现。
机器学习则是实现人工智能的重要手段之一。
机器学习专注于让计算机通过数据和算法进行学习,自动发现数据中的模式和规律,从而能够对新的数据进行预测和决策。
机器学习为人工智能提供了技术支持,使计算机能够从大量数据中获取知识和技能,不断提升智能水平。
可以说机器学习是人工智能的核心组成部分,但人工智能不仅仅局限于机器学习,还包括其他技术和方法,如知识表示、推理、规划等。
2、简述神经网络中反向传播算法的原理。
神经网络试卷

人工神经网络原理课程考试试卷一、填空题(共40分)1、人工神经网络(Artificial Neural Networks ,ANNs ),也简称为神经网络(NNs ),是模拟 进行信息处理的一种数学模型。
2、 人工神经网络的激活函数主要有三种形式,1() 1e f v v =-+属于 、1 0()=0 0 v f v v ≥⎧⎪⎨<⎪⎩属于 、()1 1 111 1,v f v v,v ,v ⎧≥⎪⎪=-<<⎨⎪-≤-⎪⎩属于 。
3、一个神经元有三部分构成:____________________________________________。
4、三种常见的人工神经网络结构:_______________、____________________、______________________________________。
5、神经网络的学习规则或算法有3类:_______________、____________________、______________________________________。
6、神经网络常用的三种优化算法:_______________、____________________、______________________________________。
7、最小均方算法(Least mean square, LMS),又称_______________算法,或 _______________。
它是一个近似的_______________。
它的核心利用性能指数(代价函数)的瞬时值来估计性能指数,这里的性能指数主要是上面讨论的误差平方和。
8、反向传播算法(BP )算法的计算经过两个方向:第一次是_______________,第二次是_______________。
BP 算法中的激活函数满足的条件: _______________。
二、综合题(每题15分,共60分)1、构建一个有两个输入一个输出的单层感知器,实现对表一中的数据进行分类,设 感知器的阈值为0.6,初始权值均为0.1,学习率为0.6,误差值要求为0,感知器的 激活函数为硬限幅函数,计算权值w1与w2。
人工神经网络试卷

一、填空题1、人工神经网络是生理学上的真实人脑神经网络的结构和功能,以及若干基本特性的某种理论抽象、简化和模拟而构成的一种信息处理系统。
从系统的观点看,人工神经网络是由大量神经元通过及其丰富和完善的连接而构成的自适应非线性动态系统。
2、神经元(即神经细胞)是由细胞体、树突、轴突和突触四部分组成。
3、NN的特点:信息的分布存储、大规模并行协同处理、自学习、自组织、自适应性、NN大量神经元的集体行为。
4、膜电位:以外部电位作为参考电位的内部电位。
5、神经元的兴奋:产生膜电位约为100mv,时宽约为1ms,分为四个过程:输入信号期、兴奋期、绝对不应期、相对不应期。
6、神经元的动作特征:空间性相加、时间性相加、阀值作用、不应期、疲劳、可塑性。
7、阀值作用:膜电位上升不超过一定值55mv,神经元不兴奋。
8、学习形式按照输出y划分为:二分割学习、输出值学习、无教师学习。
9、权重改变方式:训练期的学习方式、模式学习方式。
10、稳定的平稳状态指当由于某些随机因素的干扰,使平衡状态发生偏移,随着时间的推移,偏移越来越小,系统最后回到平衡状态。
二、简答题1、学习规则可以分为那几类?答:(1)相关规则:仅根据连接间的激活水平改变权系;(2)纠错规则:基于或等效于梯度下降方法,通过在局部最大改善的方向上,按照小步逐次进行修正,力图达到表示函数功能问题的全局解;(3)无导师学习规则:学习表现为自适应与输入空间的检测规则。
2、简述神经网络按照不同标准分类。
答:按网络结构分为前馈型和反馈型;按网络的性能分为连续性和离散性、确定性和随机性网络;按照学习方式分为有导师(指导)和无导师(自组织学习包括在内)学习;按照突触连接性质分为一阶线性关联与高阶非线性关联网络。
3、误差反传算法的主要思想?答:误差反传算法把学习过程分为两个阶段:第一阶段(正向传播过程),给出输入信息通过输入层经隐含层逐层处理并计算每个单元的实际输出值;第二阶段(反向过程),若在输出层未能得到期望的输出值,则逐层递归的计算实际输出与期望输出之差值(即误差),以便根据此差调节权值。
人工神经网络单选练习题

人工神经网络单选练习题一、基本概念1. 下列关于人工神经网络的描述,正确的是:A. 人工神经网络是一种静态的计算模型B. 人工神经网络可以模拟人脑的神经元连接方式C. 人工神经网络只能处理线性问题D. 人工神经网络的学习过程是监督式的2. 下列哪种算法不属于人工神经网络?A. 感知机算法B. 支持向量机算法C. BP算法D. Hopfield网络3. 人工神经网络的基本组成单元是:A. 神经元B. 节点C. 权重D. 阈值二、前向传播与反向传播4. 在前向传播过程中,下列哪个参数是固定的?A. 输入值B. 权重C. 阈值D. 输出值5. 反向传播算法的主要目的是:A. 更新输入值B. 更新权重和阈值C. 计算输出值D. 初始化网络参数6. 下列关于BP算法的描述,错误的是:A. BP算法是一种监督学习算法B. BP算法可以用于多层前馈神经网络C. BP算法的目标是最小化输出误差D. BP算法只能用于解决分类问题三、激活函数7. 下列哪种激活函数是非线性的?A. 步进函数B. Sigmoid函数C. 线性函数D. 常数函数8. ReLU激活函数的优点不包括:A. 计算简单B. 避免梯度消失C. 提高训练速度D. 减少过拟合9. 下列哪种激活函数会出现梯度饱和现象?A. Sigmoid函数B. ReLU函数C. Tanh函数D. Leaky ReLU函数四、网络结构与优化10. 关于深层神经网络,下列描述正确的是:A. 深层神经网络一定比浅层神经网络效果好B. 深层神经网络更容易过拟合C. 深层神经网络可以减少参数数量D. 深层神经网络训练速度更快11. 下列哪种方法可以降低神经网络的过拟合?A. 增加训练数据B. 减少网络层数C. 增加网络参数D. 使用固定的学习率12. 关于卷积神经网络(CNN),下列描述错误的是:A. CNN具有局部感知能力B. CNN具有参数共享特点C. CNN可以用于图像识别D. CNN无法处理序列数据五、应用场景13. 下列哪种问题不适合使用人工神经网络解决?A. 图像识别B. 自然语言处理C. 股票预测D. 线性规划14. 下列哪个领域不属于人工神经网络的应用范畴?A. 医学诊断B. 金融预测C. 智能家居D. 数值计算15. 关于循环神经网络(RNN),下列描述正确的是:A. RNN无法处理长距离依赖问题B. RNN具有短期记忆能力C. RNN训练过程中容易出现梯度消失D. RNN只能处理序列长度相同的数据六、训练技巧与正则化16. 下列哪种方法可以用来防止神经网络训练过程中的过拟合?A. 提前停止B. 增加更多神经元C. 减少训练数据D. 使用更大的学习率17. 关于Dropout正则化,下列描述错误的是:A. Dropout可以减少神经网络中的参数数量B. Dropout在训练过程中随机丢弃一些神经元C. Dropout可以提高模型的泛化能力D. Dropout在测试阶段不使用18. L1正则化和L2正则化的主要区别是:A. L1正则化倾向于产生稀疏解,L2正则化倾向于产生平滑解B. L1正则化比L2正则化更容易计算C. L2正则化可以防止过拟合,L1正则化不能D. L1正则化适用于大规模数据集,L2正则化适用于小规模数据集七、优化算法19. 关于梯度下降法,下列描述正确的是:A. 梯度下降法一定会找到全局最小值B. 梯度下降法在鞍点处无法继续优化C. 梯度下降法包括批量梯度下降、随机梯度下降和小批量梯度下降D. 梯度下降法的学习率在整个训练过程中保持不变20. 下列哪种优化算法可以自动调整学习率?A. 随机梯度下降(SGD)B. Adam优化算法C. Momentum优化算法D. 牛顿法21. 关于Adam优化算法,下列描述错误的是:A. Adam结合了Momentum和RMSprop算法的优点B. Adam算法可以自动调整学习率C. Adam算法对每个参数都使用相同的学习率D. Adam算法在训练初期可能会不稳定八、损失函数22. 在分类问题中,下列哪种损失函数适用于二分类问题?A. 均方误差(MSE)B. 交叉熵损失函数C. Hinge损失函数D. 对数损失函数23. 关于均方误差(MSE)损失函数,下列描述错误的是:A. MSE适用于回归问题B. MSE对异常值敏感C. MSE的输出范围是[0, +∞)D. MSE损失函数的梯度在接近最小值时趋近于024. 下列哪种损失函数适用于多分类问题?A. 交叉熵损失函数B. Hinge损失函数C. 对数损失函数D. 均方误差(MSE)九、模型评估与超参数调优25. 下列哪种方法可以用来评估神经网络的性能?A. 训练误差B. 测试误差C. 学习率D. 隐层神经元数量26. 关于超参数,下列描述正确的是:A. 超参数是在模型训练过程中自动学习的B. 超参数的值通常由经验丰富的专家设定C. 超参数的调整对模型性能没有影响D. 超参数包括学习率、批量大小和损失函数27. 关于交叉验证,下列描述错误的是:A. 交叉验证可以减少过拟合的风险B. 交叉验证可以提高模型的泛化能力C. 交叉验证会降低模型的训练速度D. 交叉验证适用于小规模数据集十、发展趋势与挑战28. 下列哪种技术是近年来人工神经网络的一个重要发展方向?A. 深度学习B. 线性回归C. 决策树D. K最近邻29. 关于深度学习,下列描述错误的是:A. 深度学习需要大量标注数据B. 深度学习模型通常包含多层神经网络C. 深度学习可以处理复杂的非线性问题D. 深度学习不适用于小规模数据集30. 下列哪种现象是训练深度神经网络时可能遇到的挑战?A. 梯度消失B. 参数过多C. 数据不平衡D. 所有上述选项都是挑战答案一、基本概念1. B2. B二、前向传播与反向传播4. B5. B6. D三、激活函数7. B8. D9. A四、网络结构与优化10. B11. A12. D五、应用场景13. D14. D15. C六、训练技巧与正则化16. A17. A18. A七、优化算法19. C20. B八、损失函数22. B23. D24. A九、模型评估与超参数调优25. B26. B27. D十、发展趋势与挑战28. A29. D30. D。
人工神经网络 试题

1、简要说明误差反向传播的BP算法的基本原理,讨论BP基本算法的优缺点。
并采用BP神经网络进行模式识别。
设计一个BP网络对附图中的英文字母进行分类。
输入向量含16个分量,输出向量分别用[1,-1,-1]T,[-1,1,-1]T,[-1,-1,1]T代表字符A,I,O。
采用不同的学习算法(traingd,traingdm,traingdx,trainlm)进行比较。
并测试施加5%噪声与输入时的测试结果。
要求:给出matlab的源程序(可调用matlab NN工具箱),网络结构,初始权值,训练结果,测试结果。
2、简要说明误差反向传播的BP算法的基本原理,讨论BP基本算法的优缺点。
并采用BP神经网络设计实现一个9*9表。
采用不同的学习算法(traingd,traingdm,traingdx,trainlm)进行比较。
要求:给出matlab的源程序(可调用matlab NN工具箱),网络结构,初始权值,训练结果,测试结果。
(考虑将其中的数改为二进制)3、简要说明误差反向传播的BP算法的基本原理,讨论BP基本算法的优缺点。
表1中给出了某结构在多种状态下的特征向量,表2给出了某时刻结构的特征向量,请使用人工神经网络根据表2中的特征向量判断其所属状态。
表1表2网络结构设计输入个数为10,输出个数为1,故神经元个数为1,结构如下图。
本题是一个模式识别问题,采用自组织竞争人工神经网络。
图1-1 网络结构图画出6个状态在坐标系中如图1-2所示。
%创建输入向量X=[0 1;0 1]clusters=6;points=10;std_dev=0.05;P=nngenc(X,clusters,points,std_dev);plot(P(1,:),P(2,:),'+r')title('Input Vectors');xlabel('p(1)');ylabel('p(2)');%创建自组织竞争神经网络net=newc([0 1;0 1],6,.1);net=init(net);w=net.IW{1};hold off;plot(P(1,:),P(2,:),'+r');hold on; plot(w(:,1),w(:,2),'ob');xlabel('p(1)');ylabel('p(2)');hold off;net.trainParam.epochs=7;hold on;net=init(net);more off;net=train(net,P);TRAINR, Epoch 0/7TRAINR, Epoch 7/7TRAINR, Maximum epoch reached. %训练该网络hold on ;net=init(net); more off;w=net.IW{1};delete(findobj(gcf,'color',[0 0 1])); hold offplot(P(1,:),P(2,:),'+r');hold off;hold on; plot(w(:,1),w(:,2),'ob'); xlabel('p(1)');ylabel('p(2)');hold off;%仿真该网络p=[0.794;0.271];a=sim(net,p);ac=vec2ind(a)。
《人工神经网络原理与应用》试题

《人工神经网络原理与应用》试题1、试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。
2、试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。
以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。
要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )3、试论述神经网络系统建模的几种基本方法。
利用BP 网络对以下非线性系统进行辨识。
非线性系统 )(5.1)1()(1)1()()1(22k u k y k y k y k y k y +-++-=+ 1)首先利用[-1,1]区间的随机信号u(k),样本点500,输入到上述系统,产生y(k), 用于训练BP 网络;2)网络测试,利用u(k)=sin(2*pi*k/10)+1/5*sin(2*pi*k/100),测试点300~500,输入到上述系统,产生y(k),检验BP 网络建模效果要求给出程序流程,matlab 程序否则c 程序,训练样本输入输出图形,检验结果的输入输出曲线。
4、试列举神经网络PID 控制器的几种基本形式,给出相应的原理框图。
5、试论述连续Hopfield 网络的工作原理,讨论网络状态变化稳定的条件。
6、谈谈学习神经网络课程后的心得体会,你准备如何在你的硕士(博士)课题中应用神经网络理论和知识解决问题(给出一到两个例)。
《人工神经网络原理与应用》试题1、试论述神经网络的典型结构,常用的作用函数以及各类神经网络的基本作用,举例说明拟定结论。
2、试论述BP 算法的基本思想,讨论BP 基本算法的优缺点,以及改进算法的思路和方法。
以BP 网络求解XOR 问题为例,说明BP 网络隐含层单元个数与收敛速度,计算时间之间的关系。
要求给出计算结果的比较表格,以及相应的计算程序(.m 或者.c )3、试论述神经网络系统建模的几种基本方法。
人工神经网络复习题

《神经网络原理》一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。
2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。
3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。
4、神经网络研究的发展大致经过了四个阶段。
5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。
6、联想的形式有两种,它们分是自联想和异联想。
7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。
8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。
9、神经元分兴奋性神经元和抑制性神经元。
10、汉明距离指两个向量中对应元素不同的个数。
二、简答题1、人工神经元网络的特点?答:(1)、信息分布存储和容错性。
(2)、大规模并行协同处理。
(3)、自学习、自组织和自适应。
(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。
(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。
2、单个神经元的动作特征有哪些?答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。
3、怎样描述动力学系统?答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=F[X(t)];对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=F[U(t)]。
4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。
在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
《神经网络原理》一、填空题1、从系统的观点讲,人工神经元网络是由大量神经元通过极其丰富和完善的连接而构成的自适应、非线性、动力学系统。
2、神经网络的基本特性有拓扑性、学习性和稳定收敛性。
3、神经网络按结构可分为前馈网络和反馈网络,按性能可分为离散型和连续型,按学习方式可分为有导师和无导师。
4、神经网络研究的发展大致经过了四个阶段。
5、网络稳定性指从t=0时刻初态开始,到t时刻后v(t+△t)=v(t),(t>0),称网络稳定。
6、联想的形式有两种,它们分是自联想和异联想。
7、存储容量指网络稳定点的个数,提高存储容量的途径一是改进网络的拓扑结构,二是改进学习方法。
8、非稳定吸引子有两种状态,一是有限环状态,二是混沌状态。
9、神经元分兴奋性神经元和抑制性神经元。
10、汉明距离指两个向量中对应元素不同的个数。
二、简答题1、人工神经元网络的特点?答:(1)、信息分布存储和容错性。
(2)、大规模并行协同处理。
(3)、自学习、自组织和自适应。
(4)、人工神经元网络是大量的神经元的集体行为,表现为复杂的非线性动力学特性。
(5)人式神经元网络具有不适合高精度计算、学习算法和网络设计没有统一标准等局限性。
2、单个神经元的动作特征有哪些?答:单个神经元的动作特征有:(1)、空间相加性;(2)、时间相加性;(3)、阈值作用;(4)、不应期;(5)、可塑性;(6)疲劳。
3、怎样描述动力学系统?答:对于离散时间系统,用一组一阶差分方程来描述:X(t+1)=F[X(t)];对于连续时间系统,用一阶微分方程来描述:dU(t)/dt=F[U(t)]。
4、F(x)与x 的关系如下图,试述它们分别有几个平衡状态,是否为稳定的平衡状态?答:在图(1)中,有两个平衡状态a 、b ,其中,在a 点曲线斜率|F ’(X)|>1,为非稳定平稳状态;在b 点曲线斜率|F ’(X)|<1,为稳定平稳状态。
在图(2)中,有一个平稳状态a ,且在该点曲线斜率|F ’(X)|>1,为非稳定平稳状态。
X F(X)0 a b (1) X F(X) 0 a (2)5、对于单个神经元的离散模型,Hebb 学习假设是什么,基本学习方程是什么?答:对于单个神经元的离散模型,Hebb 学习假设是:只有当神经元兴奋时,与其连接的突触结合权才被强化而增大;当两个神经元同时处于兴奋状态时,它们之间的连接权应该加强。
基本学习方程是:j i ij ij ij x y n w n w w η=-+=∆)()1(6、联想形式中的自联想和异联想有何区别?答:自联想指的是由某种代表事物(或该事物的主要特征或可能是部分主在特征)联想到其所表示的实际事物。
其数学模型为:当输入X =X0+V 时,输出Y=X0。
异联想指的是由某一事物(或该事物的主要特征或可能是部分主在特征)联想到与其相关的另一事物。
其数学模型为:在映射X0→Y0下,当输入X =X0+V 时,输出Y=Y0。
7、网络的稳定吸引子和吸引子的吸引域分别指什么?答:当t=0时,对网络输入模式x ,网络处于状态v(0),到时刻t 网络达到状态v(t),若v(t)稳定,则称v(t)为网络的稳定吸引子。
吸引子的吸引域是指所有经过一定时间能够稳定在吸引子v(t)上的所有初始状态的集合。
三、论述题1、 前馈式神经元网络与反馈式神经元网络有何不同?答:(1)、前馈型神经元网络取连续或离散变量,一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系。
反馈式神经元网络可以用离散变量也可以用连续取值,考虑输出与输入之间在时间上和延迟,需要用动态方程来描述系统的模型。
(2)、前馈型网络的学习主要采用误差修正法(如BP 算法),计算过程一般比较慢,收敛速度也比较慢。
而反馈型网络主要采用Hebb 学习规则,一般情况下计算的收敛速度很快。
反馈网络也有类似于前馈网络的应用,例如用作联想记忆或分类,而在优化计算方面的应用更能显出反馈网络的特点。
2、 试述离散型Hopfield 神经元网络的结构及工作原理。
(1) Hopfield 神经元网络的结构如下:① 这种网络是一种单层网络,由n 个单元组成。
②每个神精元既是输入单元,又是输出单元;各节点一般选用相同的转移函数,且为符号函数,即: ③ 为网络的输入; 为网络的输出; 为网络在时刻t 的状态,其中t ∈{0,1,2,···} 为离散时间变量。
④Wij 为从Ni 到Nj 的连接权值,Hopfield 网络为对称的即有Wij = Wji 。
)sgn()()()(21x x f x f x f n==== {}nny y y y y 1,1),,,,(21+-∈= {}nn t v t v t v t v t v 1,1)()),(,),(),(()(21+-∈= {}nnx x x x x 1,1),,,,(21+-∈=(2)、工作原理:①、网络经过训练后,可以认为网络处于等待工作状态,对网络给定初始输入x 时,网络就处于特定的初始状态,由此初始状态开始运行,可以得到网络的下一个输出状态。
②、这个输出状态通过反馈回送到网络的输入端,作为网络下一个阶段的输入信号,这个输入信号可能与初始输入信号不同,由这个新的输入又可得到下一步的输出,如此重复。
③、如果网络是稳定的,经过若干次反馈运行后网络将会达到稳态。
④、Hopfield 网络的工作过程可用下式表示:N 1N 2 N n-1 N nx 1 x 2 x n-1 x ny 1 y 2 Y n-1 y n…V 1(t) V 2(t) V n-1(t) V n (t) w 21W n-1 2))(()1()0(1jn i i ij j j j j t v w f t v x v θ-∑=+==研究生神经网络试题A 卷参考答案 一、名词解释(共5题,每题5分,共计25分)1、泛化能力答:泛化能力又称推广能力,是机器学习中衡量学习机性能好坏的一个重要指标。
泛化能力主要是指经过训练得到的学习机对未来新加入的样本(即测试样本)数据进行正确预测的能力。
2、有监督学习答:有监督学习又被称为有导师学习,这种学习方式需要外界存在一个“教师”,她可以对一组给定输入提供应有的输出结果,学习系统可根据已知输出与实际输出之间的差值来调节系统参数。
3、过学习答:过学习(over-fitting ),也叫过拟和。
在机器学习中,由于学习机器过于复杂,尽管保证了分类精度很高(经验风险很小),但由于VC 维太大,所以期望风险仍然很高。
也就是说在某些情况下,训练误差最小反而可能导致对测试样本的学习性能不佳,发生了这种情况我们称学习机(比如神经网络)发生了过学习问题。
典型的过学习是多层前向网络的BP 算法4、Hebb 学习规则答:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强。
如果用i v 、j v 表示神经元i 和j 的激活值(输出),ij ϖ表示两个神经元之间的连接权,则Hebb 学习规则可以表示为: ij i j w v v α∆= ,这里α表示学习速率。
Hebb 学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb 学习规则的变形。
5、自学习、自组织与自适应性答:神经网络结构上的特征是处理单元的高度并行性与分布性,这种特征使神经网络在信息处理方面具有信息的分布存储与并行计算而且存储与处理一体化的特点。
而这些特点必然给神经网络带来较快的处理速度和较强的容错能力。
能力方面的特征是神经网络的自学习、自组织与自性适应性。
自适应性是指一个系统能改变自身的性能以适应环境变化的能力,它包含自学习与自组织两层含义。
自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于给定输入能产生期望的输出。
自组织是指神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络。
也就是说自组织神经元的学习过程,完全是一种自我学习的过程,不存在外部教师的示教。
二、问答题(共7题,每题8分,共计56分)3、人工神经网络是模拟生物神经网络的产物,除相同点外,它们还存在哪些主要区别?答; 1.单元上的差别对于生物神经元而言,影响突触传递信息强度的因素很多、很复杂。
如突触前微细胞的大小与多少、神经传递化学物质含量的多少、神经传递化学物质释放的速度、突触间隙的变化、树突的位置与大小等诸多因素都会对突触电位产生影响,从而影响神经元的输出脉冲响应。
而人工神经元则忽略了这些影响,输入、输出关系十分简单。
2.信息上的差别生物神经元传递的信息是脉冲,而人工神经元传递的信息是模拟电压。
3.规模与智能上的差别目前,人工神经网络的规模还远小于生物神经网络,网络中神经元的数量一般在104个以下,显然,其智能也无法与生物神经网络相比。
4、感知器神经网络存在的主要缺陷是什么?答: 1)由于感知器的激活函数采用的是阀值函数,输出矢量只能取0或1,所以只能用它来解决简单的分类问题;2)感知器仅能够线性地将输入矢量进行分类。
理论上已经证明,只要输人矢量是线性可分的,感知器在有限的时间内总能达到目标矢量;3)感知器还有另外一个问题,当输入矢量中有一个数比其他数都大或小得很多时,可能导致较慢的收敛速度。
5、请比较前馈型神经网络与反馈型神经网络的异同点。
(8分)答:前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。
(1)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。
(2)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。
(3)两者都有局部极小问题。
6、BP算法的基本思想是什么,它存在哪些不足之处?(9分)答:BP算法(即反向传播法)的基本思想是:学习过程由信号的正向传播与误差的反向传播两个过程组成。
1)正向传播:输入样本->输入层->各隐层(处理)->输出层注1:若输出层实际输出与期望输出(教师信号)不符,则转入2)(误差反向传播过程)2)误差反向传播:输出误差(某种形式)->隐层(逐层)->输入层其主要目的是通过将输出误差反传,将误差分摊给各层所有单元,从而获得各层单元的误差信号,进而修正各单元的权值(其过程,是一个权值调整的过程)。
注2:权值调整的过程,也就是网络的学习训练过程(学习也就是这么的由来,权值调整)。