人工神经网络课后作业

合集下载

人工神经网络原理第8章习题参考答案

人工神经网络原理第8章习题参考答案

1.人工神经网络适合于解决哪些问题?试举例说明。

人工神经网络技术在处理对内部规律不甚了解,也不能用一组规则和方程等数学表达式描述的较为复杂的问题时具有一定的优越性,尤其对容错性有一定要求的任务,例如图形的检测与识别、诊断、特征提取、推论等,人工神经网络都是比较合适的处理手段,对于上述任务,即使输入数据是模糊的或不完善的,人工神经网络仍然能够对其进行处理。

示例略。

2.一个人工神经网络应用的开发要经过哪些阶段?明确需求、选取模型、设计神经网络节点、设计神经网络结构、设计神经网络训练算法、选择训练和测试样本、网络训练与测试、实现神经网络。

3.若要用神经网络实现对0~9十个数字字符的识别,应当如何选取适当的人工神经网络模型?参见表8-1,可以选择BP、Hopfield等神经网络模型。

4.若要实现一个简单的交通标志识别系统,应当如何选取适当的人工神经网络模型?参见表8-1,可以选择BP、Hopfield等神经网络模型。

5.若有一个私人医生,每天可接受10个预约病人的上门服务。

若要为该医生设计一条当天的巡诊路线,以使该医生的巡诊距离最短,应当如何选取适当的人工神经网络模型?这是一个优化问题,可以选择Hopfield神经网络。

6.试述对习题2、3、4中选取的人工神经网络模型进行设计开发的全过程。

略。

7.有如下几种模型,其特性如表8-4所示。

表8-4 人工神经网络模型的基本性能若要开发一个贷款评估人工神经网络,要求能够根据借贷申请人的月收入、生活费用支出、房租、水、电、交通费用支出及其他费用支出来实时地分析这一贷款申请是否合格。

如合格,则批准申请给予贷款,否则给予拒绝。

请从表8-4列出的人工神经网络模型中选择一个适合该贷款评估应用的模型,并阐明原因。

可根据输出类型(例如,此题是一个分类问题,而不是优化问题)、训练方法、要求的训练时间和执行时间等选取各项指标都符合具体需求的模型。

此题只是一个示例,让读者掌握如何选取适当的人工神经网络模型,具体选取过程略。

人工神经网络原理第4章习题参考答案

人工神经网络原理第4章习题参考答案

1. 试比较BP 学习算法与感知机学习算法的异同。

同:两种学习算法均基于纠错学习规则,采用有指导的学习方式,根据来自输出节点的外部反馈(期望输出)调整连接权,使得网络输出节点的实际输出与外部的期望输出一致。

异:感知机学习算法中,隐含层处理单元不具备学习能力,其模式分类能力仍然非常有限;而BP 学习算法采用非线性连续变换函数,使隐含层神经元具有了学习能力。

BP 学习算法基于最小均方误差准则,采用误差函数按梯度下降的方法进行学习,其学习过程分为模式顺传播,误差逆传播、记忆训练、学习收敛4个阶段。

2. 试述BP 神经网络有哪些优点和缺点。

优点:具有良好的非线性映射能力、泛化能力和容错能力。

缺点:学习算法的收敛速度慢;存在局部极小点;隐含层层数及节点数的选取缺乏理论指导;训练时学习新样本有遗忘旧样本的趋势。

3. 试举例说明BP 神经网络擅长解决哪些问题,并针对一个具体应用实例,描述BP 神经网络解决该问题的具体方案。

擅长解决函数拟合问题(例如,拟合多项式函数),线性与非线性的分类问题(例如,疾病病例分类),预测问题(例如,房屋价格预测),模式识别问题(例如,手写数字识别)。

具体应用实例及解决方案略。

4. 请给出一个BP 神经网络的具体应用实例。

略。

5. 什么是BP 神经网络的泛化能力?如何提高BP 神经网络的泛化能力?BP 神经网络的泛化能力是指BP 神经网络对未训练样本的逼近程度或对于未知数据的预测能力。

即:BP 神经网络学习训练完成后会将所提取的样本模式对中的非线性映射关系存储在网络连接权向量中,在其后的正常工作阶段,当向BP 神经网络输入训练时未曾见过的数据时,BP 神经网络也能够完成由输入模式到输出模式的正确映射。

提高BP 神经网络泛化能力的方法包括: 1) 增加训练集中的样本数; 2) 适当减少隐藏节点个数;3) 增加网络结构中的因子数(考虑更多可能影响结果的因子作为额外的输入项); 4) 对于选取的数据样本,要尽量保证包含拐点处的数据样本,同时尽可能保证相邻样本的变化率小于误差精度要求。

《人工神经网络:模型、算法及应用》习题参考答案

《人工神经网络:模型、算法及应用》习题参考答案

习题2.1什么是感知机?感知机的基本结构是什么样的?解答:感知机是Frank Rosenblatt在1957年就职于Cornell航空实验室时发明的一种人工神经网络。

它可以被视为一种最简单形式的前馈人工神经网络,是一种二元线性分类器。

感知机结构:2.2单层感知机与多层感知机之间的差异是什么?请举例说明。

解答:单层感知机与多层感知机的区别:1. 单层感知机只有输入层和输出层,多层感知机在输入与输出层之间还有若干隐藏层;2. 单层感知机只能解决线性可分问题,多层感知机还可以解决非线性可分问题。

2.3证明定理:样本集线性可分的充分必要条件是正实例点集所构成的凸壳与负实例点集构成的凸壳互不相交.解答:首先给出凸壳与线性可分的定义凸壳定义1:设集合S⊂R n,是由R n中的k个点所组成的集合,即S={x1,x2,⋯,x k}。

定义S的凸壳为conv(S)为:conv(S)={x=∑λi x iki=1|∑λi=1,λi≥0,i=1,2,⋯,k ki=1}线性可分定义2:给定一个数据集T={(x1,y1),(x2,y2),⋯,(x n,y n)}其中x i∈X=R n , y i∈Y={+1,−1} , i=1,2,⋯,n ,如果存在在某个超平面S:w∙x+b=0能够将数据集的正实例点和负实例点完全正确地划分到超平面的两侧,即对所有的正例点即y i=+1的实例i,有w∙x+b>0,对所有负实例点即y i=−1的实例i,有w∙x+b<0,则称数据集T为线性可分数据集;否则,称数据集T线性不可分。

必要性:线性可分→凸壳不相交设数据集T中的正例点集为S+,S+的凸壳为conv(S+),负实例点集为S−,S−的凸壳为conv(S−),若T是线性可分的,则存在一个超平面:w ∙x +b =0能够将S +和S −完全分离。

假设对于所有的正例点x i ,有:w ∙x i +b =εi易知εi >0,i =1,2,⋯,|S +|。

人工神经网络原理第7章习题参考答案

人工神经网络原理第7章习题参考答案

1.试述自组织神经网络中“自组织”的含义。

自组织神经网络采用类似于人类大脑生物神经网络的无指导学习方式,能够对外界未知环境进行学习或模拟,并对自身的网络结构进行调整,实现对输入模式的自动分类。

在调整网络结构时,网络按照预定的规则和输入模式,不断调整网络连接权值直至形成一种全局有序的结构,而这种全局有序的结构是通过网络中许多相邻神经元的局部相互作用形成的,这些相邻神经元之间的相互作用最终会使网络在空间模式或时间节奏上达成一致,这也是自组织的本质。

2. 若某一基本竞争神经网络的输入层有5个节点,竞争层有3个节点。

网络的6个学习模式为X 1=(1,0,0,0,0)T ,X 2=(1,0,0,0,1)T ,X 3=(1,1,0,1,0)T ,X 4=(1,1,0,1,1)T ,X 5=(0,0,1,1,0)T ,X 6=(0,0,1,1,1)T ,试计算这6个学习模式的汉明距离。

6个学习模式的汉明距离X 1 X 2 X 3 X 4 X 5 X 6 X 1 0 1 2 3 3 4 X 2 1 0 3 2 4 3 X 3 2 3 0 1 3 4 X 4 3 2 1 0 4 3 X 5 3 4 3 4 0 1 X 6434313. 采用竞争学习规则,通过训练将第2题中的6个学习模式进行分类,试比较训练后的分类结果和通过汉明距离得到分类结果。

按照前面描述的竞争学习规则对第2题的6个学习模式进行记忆训练,假定学习速率为0.5,网络的初始连接权值如下:⎪⎪⎪⎪⎪⎪⎭⎫⎝⎛=2.03.02.02.02.03.01.02.02.02.01.02.03.02.01.0W网络的学习过程如下:t =1 X 1=(1,0,0,0,0)T 竞争层各个神经元的净输入为 s 1=w 11x 1+w 21x 2+w 31x 3+w 41x 4+w 51x 5=0.1*1+0.2*0+0.2*0+0.3*0+0.2*0=0.1 s 2=w 12x 1+w 22x 2+w 32x 3+w 42x 4+w 52x 5=0.2*1+0.1*0+0.2*0+0.2*0+0.3*0=0.2 s 3=w 13x 1+w 23x 2+w 33x 3+w 43x 4+w 53x 5=0.3*1+0.2*0+0.1*0+0.2*0+0.2*0=0.3因此,竞争层各个神经元的输出为 y 1=0 y 2=0 y 3=1调整后的连接权如下 w 13=0.3+0.5*(1/1-0.3)=0.65 w 23=0.2+0.5*(0/1-0.2)=0.1 w 33=0.1+0.5*(0/1-0.1)=0.05 w 43=0.2+0.5*(0/1-0.2)=0.1 w 53=0.2+0.5*(0/1-0.2)=0.1t =2 X 2=(1,0,0,0,1)T 竞争层各个神经元的净输入为 s 1=w 11x 1+w 21x 2+w 31x 3+w 41x 4+w 51x 5=0.1*1+0.2*0+0.2*0+0.3*0+0.2*1=0.3 s 2=w 12x 1+w 22x 2+w 32x 3+w 42x 4+w 52x 5=0.2*1+0.1*0+0.2*0+0.2*0+0.3*1=0.5 s 3=w 13x 1+w 23x 2+w 33x 3+w 43x 4+w 53x 5=0.65*1+0.1*0+0.05*0+0.1*0+0.1*1=0.75因此,竞争层各个神经元的输出为 y 1=0 y 2=0 y 3=1 调整后的连接权如下w 13=0.65+0.5*(1/2-0.65)=0.575 w 23=0.1+0.5*(0/2-0.1)=0.05 w 33=0.05+0.5*(0/2-0.05)=0.025 w 43=0.1+0.5*(0/2-0.1)=0.05 w 53=0.1+0.5*(1/2-0.1)=0.3 t =3 X 3=(1,1,0,1,0)T 竞争层各个神经元的输入为 s 1=w 11x 1+w 21x 2+w 31x 3+w 41x 4+w 51x 5=0.1*1+0.2*1+0.2*0+0.3*1+0.2*0=0.6 s 2=w 12x 1+w 22x 2+w 32x 3+w 42x 4+w 52x 5=0.2*1+0.1*1+0.2*0+0.2*1+0.3*0=0.5 s 3=w 13x 1+w 23x 2+w 33x 3+w 43x 4+w 53x 5=0.575*1+0.05*1+0.025*0+0.05*1+0.3*0=0.675 因此,竞争层各个神经元的输出为y 1=0 y 2=0 y 3=1 调整后的连接权如下w 13=0.575+0.5*(1/3-0.575)=0.4542 w 23=0.05+0.5*(1/3-0.05)=0.1917 w 33=0.025+0.5*(0/3-0.025)=0.0125 w 43=0.05+0.5*(1/3-0.05)=0.1917 w 53=0.3+0.5*(0/3-0.3)=0.15 ……按照上述过程经过多次学习后,网络会得到如下分类结果,与通过汉明距离分析的结果完全一致。

机器学习与人工智能(人工神经网络)习题与答案

机器学习与人工智能(人工神经网络)习题与答案

1.非线性机器学习算法具有以下的什么特性?A.针对难以用准则来描述的复杂模型B.能够达到更深层次的抽象C.能够进行广泛使用的分类算法D.以上都是正确答案:D2.神经网络的学习步骤包括:1、求得权重等参数,2、定义代价函数,3、对测试数据进行预测,4、根据样本数据和标签采用梯度下降法进行学习,步骤的正确顺序为:A.4213B.2413C.2143D.4123正确答案:B二、判断题1.单层感知器能对线形可分的数据集进行分类,能解决逻辑问题异或。

正确答案:×2.前馈神经网络中偏置单元可以有输入。

正确答案:×3.在某种意思上,小批量梯度下降算法是以迭代次数换取算法的运行速度。

正确答案:√4.神经网络中的神经元有两个状态:兴奋、抑制。

这两个状态由阈值决定。

正确答案:√5.前馈式神经网络层间有反馈。

6.小批量梯度下降法在迭代的每一步中,参数的更新只用了小批量样本的信息。

正确答案:√7.小批量梯度下降法和随机梯度下降算法收敛可能需要更多的迭代次数正确答案:√三、多选题1.使用均方误差作为代价函数,有什么特点?( )A.形式简单B.通俗易懂C.容易出现饱和现象D.容易陷入局部最优解正确答案:A、B、C、D2.感知器可以解决一下哪些问题?( )A.实现逻辑关系中的与B.实现逻辑关系中的或C.实现逻辑关系中的非D.线性分类和线性回归问题正确答案:A、B、C、D3.神经网络具有下面哪几个特点?( )A.能充分逼近复杂的非线性关系B.具有高度的容错能力C.具有自组织能力D.可以并行分布处理正确答案:A、B、C、D4.以下会造成梯度消失的激活函数有( )。

A.sigmoid函数B.tanh函数C.ReLU函数D.softplus函数正确答案:A、B四、填空1.在()模型中,每个神经元同时将自身的输出作为输入信号反馈给其他神经元。

正确答案:反馈神经网络。

人工智能概论习题答案第3章 人工神经网络作业 20210307

人工智能概论习题答案第3章 人工神经网络作业 20210307

一、单项选择题1.人工神经网络是人工智能的三大流派思想中哪个流派的基础。

(B)A.符号主义B.连接主义(或称为仿生学派)C.行为主义D.逻辑推理主义2.以下关于感知器的说法错误的是(A)。

A.单层感知器可以解决异或问题B.感知器分类的原理是就是通过调整权重使两类不同的样本经过感知机模型后的输出不同C.单层感知器只能针对线性可分的数据集分类D.学习率可以控制每次权值调整力度3.人工神经网络的层数增加会出现梯度消失现象,其本质原因是(C)。

A.各层误差梯度相加导致B.各层误差梯度相减导致C.各层误差梯度相乘导致D.误差趋于饱和4.卷积层的主要作用是(A)A.提取图像特征B.降低输入维度C.解决梯度消失和梯度爆炸问题D.进行某种非线性变换二、多项选择题1.知识可以从以下哪几个维度来进行分类(AC)。

A.是否可统计B.是否可计算C.是否可推理D.是否可被人理解2.人工神经网络由许多神经元构成,M-P模型的主要特征包括(ABD)。

A.多输入单输出B.对输入加权求和C.具有树突和轴突D.具有激活函数3.卷积神经网络的结构主要包括(ABCD)。

A.卷积层B.池化层C.全连接层D.输入层三、判断题1.人工神经网络的层数是固定的,每层的神经元个数是不固定的(错)2.BP神经网络的误差是从前往后传播的(错)3.卷积神经网络的层数一般超过三层(对)四、简答题1.感知机是如何实现从数据中学习的?答:通过训练数据得到误差,再根据误差来调整权值,让再次计算训练数据得到的误差减小,最终达到无误差。

这时候得到的权值就称为学习到关于这些数据的知识。

2.什么是梯度,什么是梯度的方向?答:梯度就是把多元函数关于各个变量的偏导数放在一起构成的向量(也称为矢量)。

梯度方向表示当函数的各个变量都按照各自偏导数的比例进行增加时,各个增加量合起来构成的方向,是函数值变化最快的方向。

3.有A类物体和B类物体,均有两个类似的特征值。

以下有三个属于A类的样本,每个样本的特征值分别为[0.1, 1],[0.2, 0.7],[0.4, 0.8],样本标签用1表示;有三个属于B类的样本,其特征值分别为[0.8, 0.3],[0.9, 0.2],[1.0, 0.5],样本标签用0表示。

人工神经网络设计作业

人工神经网络设计作业

人工神经网络设计作业一、利用感知机神经网络完成真值表中的操作设有一个M-P模型神经元有两个输入P1和P2,其输出为a,让其完成下列的真值表功能:1、具体的程序及其说明如下:clcP=[0 0 1 1;0 1 0 1];T=[0 1 1 1];%提供两组输入一组输出的训练集C=[-2 3 -2 3];%设置坐标轴的范围plotpv(P,T,C)%绘制样本点的坐标pause;[R,Q]=size(P);%R个输入[S,Q]=size(T);%S个输出[W,B]=rands(S,R);%随机获得权值plotpc(W,B)%绘制出初始的决策线pause;A=hardlim(netsum(W*P,B));%计算感知器神经元的输出E=T-A;SSE=sumsqr(E);%计算初始决策线的误差for epoch=1:100if(SSE==0)%若误差为零,画出决策线,并停止训练plot(W,B,'r-')disp('训练成功');breakend[dW,dB]=learnp(P,A,T)%感知器的学习W=W+dW;%修正权值B=B+dB;%调整偏差plotpc(W,B); %绘制决策线pause;a=epoch(1);hold onA=hardlim(netsum(W*P,B));%计算感知器神经元输出E=T-A;%计算误差SSE=sumsqr(E);endA %输出最后的训练结果a %输出训练次数2、具体的训练过程如图所示:样本点P(1)P (2)初始决策线P(1)P (2)训练中的决策线P(1)P (2)训练结束P(1)P (2)3、训练结果:训练结束后我们可知道A=[0 1 1 1],训练次数a=4次。

二、利用BP 网络逼近一个非线性函数1、函数选择为指数衰减函数2*2p te -=*,隐层采用对数正切S 型,输出层采用线性型,具体的程序及其说明如下:clcn=5;%隐层神经元的个数 lr=0.1;%学习率 mc=0.9;%动量因子 p=0:0.05:3; t=2*exp(-2.*p);[r,l]=size(p);%r 输入层的维数 [s,l]=size(t);%s 输出层的维数 w1=0.2*rand(n,r);%隐层的权值 deltaw1=zeros(n,r); B1=0.2*rand(n,1);%隐层的偏移量 deltaB1=zeros(n,1); w2=0.2*rand(s,n);%输出层权值 deltaw2=zeros(s,n);B2=0.2*rand(s,1);%输出层的偏移量 deltaB2=zeros(s,1); A1=tansig(w1*p,B1);A2=purelin(w2*A1,B2);plot(p,t,'r+',p,A2,'b:');xlabel('输入样本p');ylabel('输出样本t');axis([0 3 -1 2])title(['样本点和未经训练的曲线']);legend('样本点');pause;epoch=1;sse=1;for epoch=1:10000 %最大训练圈数为1000w1=w1+deltaw1;%权值及其偏移量的调整B1=B1+deltaB1;w2=w2+deltaw2;B2=B2+deltaB2;[A1,A2]=simuff(p,w1,B1,'tansig',w2,B2,'purelin');E=t-A2;sse(epoch)=sumsqr(E);%计算误差if(sse(epoch)==0.001)%达到期望误差退出逼近breakendD2=deltalin(A2,E);D1=deltatan(A1,D2,w2);[deltaw2,deltaB2]=learnbpm(A1,D2,lr,mc,deltaw2,deltaB2); [deltaw1,deltaB1]=learnbpm(p,D1,lr,mc,deltaw1,deltaB1); if(sse(epoch)<=0.001)breakendend;epochplot(p,t,'r+',p,A2,'b:');xlabel('输入样本p');ylabel('输出样本t');title(['训练',num2str(epoch),'次后的曲线']);legend('样本点');axis([0 3 -1 2])pauseFF=1:epoch;plot(FF,sse(FF),'r-');xlabel('训练次数');ylabel('误差');title(['SSE误差曲线']);pause;%泛化能力测试[A1,A2]=simuff(p,w1,B1,'tansig',w2,B2,'purelin');p=0:0.05:3;t=2*exp(-2.*p);%训练后逼近的曲线plot(p,A2,'-');xlabel('输入样本p');ylabel('输出样本t');legend('逼近的曲线'); axis([0 3 -1 3]) hold on ; pt=0:0.1:3;tt=2*exp(-2.*pt); plot(pt,tt,'ro'); title(['检验泛化能力']); axis([0 3 -1 3]) pause; hold off ; epoch %输出训练次数2、具体的逼近过程如下图形显示:0.511.522.53输入样本p输出样本t样本点和未经训练的曲线0.511.522.53输入样本p输出样本t训练113后的曲线由训练结果显示:完成很好的逼近功能,训练次数为113次,误差曲线如下图,我们可以看到误差是收敛的。

人工神经网络原理第6章习题参考答案

人工神经网络原理第6章习题参考答案

1.随机型神经网络的特点是什么?(1) 神经元的净输入不能决定其输出状态为0或1,决定神经元输出状态的是值为1或0的概率;(2) 在网络学习阶段,随机型神经网络并不基于某种确定性算法调整网络连接权值,而是按照某种概率分布进行处理;(3) 在网络运行阶段,随机型神经网络不是按照某种确定性的网络方程进行状态演变,而是按照某种概率分布决定网络状态的转移。

2.试述Boltzmann机的特点,并比较其与离散型Hopfield网络的异同。

从网络结构看,与离散型Hopfield神经网络相同的是,Boltzmann机网络为单层全互连结构,各个神经元之间采用双向对称连接方式,并且每个神经元到自身都无反馈;但与离散型Hopfield神经网络不同的是,Boltzmann机同时又考虑到了多层网络的特点,将神经元按照功能分为可视层与隐含层两大部分,其中的可视层又可以继续分为输入部分和输出部分,但是这些层次在Boltzmann机中并没有明显的划分界限。

从处理单元模型看,Boltzmann机网络的每个神经元的输出均为0、1二值离散输出,n 个神经元的状态集合构成了Boltzmann机网络的状态,即在给定时刻t,Boltzmann机网络的状态为X(t)=(x1, x2, …, x n),但与离散型Hopfield神经网络不同的是,Boltzmann机中的神经元不能通过其输入状态获得确定的输出状态,它的输出状态要由神经元净输入状态的概率决定,不同的净输入状态对应不同的输出状态概率。

从能量函数看,随着Boltzmann机的运行,从概率意义上说,网络的能量呈下降趋势。

这意味着在网络状态的演化过程中,尽管网络能量总的变化趋势是下降的,但不能排除在某一时刻某个神经元按照小概率事件进行状态变化,从而使网络的能量暂时上升;而随着离散型Hopfield神经网络的运行,王的能量是单调递减的。

3.为什么Boltzmann机可以避免陷入局部极小点?Boltzmann机的网络能量在概率意义上呈单调下降趋势,即在网络状态变化过程中,网络能量总的趋势是下降的,但也存在能量暂时上升的可能性,这种可能性使得Boltzmann机具有了跳出局部极小点的能力。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
相关文档
最新文档