卷积神经网络详述
简述卷积神经网络(CNN)和循环神经网络(RNN)的原理及应用场景

简述卷积神经网络(CNN)和循环神经网络(RNN)的原理及应用场景卷积神经网络(CNN)和循环神经网络(RNN)是当前深度学习领域最为重要和广泛应用的两种神经网络模型。
它们分别在计算机视觉和自然语言处理等领域取得了巨大的成功。
本文将从原理和应用场景两个方面进行详细介绍。
一、卷积神经网络(CNN)的原理及应用场景卷积神经网络(CNN)是一种专门用于处理具有网格结构数据的深度学习模型。
它最初是为了解决计算机视觉中的图像分类问题而提出的,但现在已经广泛应用于图像识别、目标检测、语义分割等多个领域。
1.1 原理卷积神经网络(CNN)主要由卷积层、池化层和全连接层组成。
其中,卷积层是CNN最重要的组成部分,它通过一系列滤波器对输入数据进行特征提取。
滤波器通过与输入数据进行点乘操作,得到特征图(feature map),从而捕捉到输入数据中的局部特征。
池化层用于减小特征图的尺寸,并保留重要特征。
常见的池化操作有最大池化和平均池化。
最大池化选择每个区域中的最大值作为输出,平均池化则选择每个区域的平均值作为输出。
这样可以减小特征图的尺寸,减少参数数量,从而降低计算复杂度。
全连接层将特征图转换为一维向量,并通过一系列全连接层进行分类或回归等任务。
全连接层中的每个神经元都与上一层中所有神经元相连,这样可以充分利用上一层提取到的特征进行分类。
1.2 应用场景卷积神经网络(CNN)在计算机视觉领域有着广泛应用。
其中最典型的应用场景是图像分类和目标检测。
在图像分类任务中,CNN可以通过学习到的特征提取器将输入图像分为不同类别。
例如,在ImageNet数据集上进行分类任务时,CNN可以实现对1000个不同类别进行准确分类。
在目标检测任务中,CNN可以识别并定位输入图像中存在的多个目标。
通过在卷积网络之后加入额外的回归和分类层,可以实现对目标位置和类别进行同时预测。
此外,在语义分割、人脸识别、图像生成等领域,CNN也有着广泛的应用。
卷积神经网络与循环神经网络

卷积神经网络与循环神经网络卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Network,RNN)是目前深度学习领域最为流行的两种神经网络架构。
它们分别适用于不同的数据类型和任务,能够有效地处理图像、语音、文本等各种形式的数据。
一、卷积神经网络卷积神经网络是一种专门用于处理格状数据(如图像)的神经网络模型。
它的核心思想是利用卷积操作对输入数据进行特征提取,然后通过池化操作减小特征图的尺寸,最后将提取到的特征输入全连接层进行分类或回归。
卷积神经网络的结构主要包括卷积层、池化层和全连接层。
1.1卷积层卷积层是卷积神经网络的核心组件,它通过卷积操作对输入数据进行特征提取。
卷积操作是指使用一个滤波器(也称为卷积核)在输入数据上进行滑动计算,得到对应位置的输出。
滤波器的参数是在训练过程中通过反向传播算法学习得到的。
在图像处理中,卷积操作可以帮助提取图像中的边缘、纹理、角点等特征。
卷积层一般会使用多个不同的滤波器,从而提取多个不同的特征。
1.2池化层池化层是利用池化操作对卷积层的输出进行降采样,从而减小特征图的尺寸。
常见的池化操作有最大池化和平均池化。
最大池化是保留每个区域内的最大值作为输出,平均池化是计算每个区域内的平均值作为输出。
池化操作的目的是减少计算复杂度和减小过拟合。
1.3全连接层全连接层是卷积神经网络的最后一层,它将池化层的输出作为输入进行分类或回归。
全连接层的每个神经元都与上一层的所有神经元相连,输出一个标量值。
全连接层通常使用一种称为softmax的函数将输出转化为概率分布,再根据不同任务进行相应的损失函数计算和优化。
卷积神经网络通过共享权重和局部感知野的设计,大大减少了模型参数的数量,同时也能够保留输入数据的局部结构特征。
这使得卷积神经网络在图像识别、目标检测、语义分割等计算机视觉任务中取得了很大的成功。
二、循环神经网络循环神经网络是一种专门用于处理序列数据(如语音、文本)的神经网络模型。
神经网络中的卷积神经网络模型详解

神经网络中的卷积神经网络模型详解神经网络是一种模拟人脑神经元的数学模型,通过多层神经元的连接和传递信息来实现各种任务。
而卷积神经网络(Convolutional Neural Network,简称CNN)是一种在图像识别和处理领域中广泛应用的神经网络模型。
1. CNN的基本结构CNN的基本结构由输入层、卷积层、池化层和全连接层组成。
输入层接收原始图像数据,并将其转化为神经网络能够处理的形式。
卷积层是CNN的核心部分,通过卷积操作提取图像的特征。
池化层用于减少特征图的尺寸,提高计算效率。
全连接层将特征图映射到输出层,实现对图像的分类或回归。
2. 卷积操作卷积操作是CNN中最重要的操作之一。
它通过将图像与一组卷积核进行卷积运算,得到特征图。
卷积核是一个小的矩阵,通过滑动窗口的方式与图像进行逐元素相乘并求和,从而得到特征图中的每个像素值。
卷积操作的好处在于它能够保留图像的空间关系和局部特征。
通过不同的卷积核,CNN可以学习到不同的特征,例如边缘、纹理和形状等。
这使得CNN在图像识别任务中具有很强的表达能力。
3. 池化操作池化操作是CNN中的另一个重要操作。
它通过将特征图的某个区域进行统计汇总,得到一个更小的特征图。
常见的池化操作有最大池化和平均池化。
池化操作的目的是减少特征图的尺寸,提高计算效率,并且具有一定的平移不变性。
通过池化操作,CNN可以对图像的细节进行抽象,从而更好地捕捉到图像的整体特征。
4. 全连接层全连接层是CNN中的最后一层,它将特征图映射到输出层,实现对图像的分类或回归。
全连接层的每个神经元都与前一层的所有神经元相连接,通过学习权重参数来实现对不同类别的判别。
全连接层在CNN中起到了决策的作用,通过学习到的权重参数,可以将特征图的信息转化为对图像类别的预测。
5. CNN的训练过程CNN的训练过程主要包括前向传播和反向传播两个阶段。
在前向传播中,输入图像通过卷积层、池化层和全连接层的计算,得到输出结果。
卷积神经网络概述

卷积神经⽹络
卷积神经⽹络(Convolutional Neural Network, CNN)是⼀种⽤于图像分类和识别的⼈⼯神经⽹络。
它通过使⽤卷积运算来提取图像的特征,从⽽实现对图像的分类。
CNN由输⼊层、卷积层、池化层、全连接层和输出层组成。
输⼊层⽤于接收图像数据,并将其转换为神经⽹络可以处理的形式。
卷积层则使⽤卷积核对图像进⾏卷积运算,从⽽提取图像的特征。
池化层则使⽤池化算法对卷积层的输出进⾏下采样,从⽽减少参数数量。
全连接层则将池化层的输出连接到输出层,从⽽实现图像的分类。
CNN的优点在于它可以有效地提取图像的特征,并且在计算量⽅⾯相对较⼩。
此外,CNN还可以通过调整卷积核的⼤⼩和数量来控制⽹络的复杂度。
然⽽,CNN也有⼀些缺点。
⾸先,它对数据的要求较⾼,需要⼤量的⾼质量数据才能达到较好的效果。
其次,CNN在处理⾮结构化数据⽅⾯的表现并不是很好。
总的来说,CNN是⼀种有效的图像分类⽅法,但它也有⼀些局限性。
在使⽤CNN 时,应该考虑到数据的质量和类型,并选择合适的⽹络结构和超参数。
此外,CNN也可以⽤于其他领域,例如⾃然语⾔处理、语⾳识别等。
在这些领域中,CNN可以通过使⽤卷积运算来提取序列数据的特征,从⽽实现对序列数据的分类。
在未来,CNN仍然有很⼤的发展潜⼒。
研究⼈员正在探索新的⽹络结构和训练⽅法,以提⾼CNN的准确率和效率。
此外,⼈⼯智能技术的发展也为CNN的发展提供了新的机会。
随着⼈⼯智能技术的不断发展,CNN有望在更多领域得到⼴泛应⽤。
深度学习中的卷积神经网络

深度学习中的卷积神经网络深度学习是一种基于人工神经网络的机器学习方法,通过多层次的非线性处理单元进行特征提取和抽象,能够模拟人类大脑的神经网络结构。
其中,卷积神经网络是深度学习中的一种重要网络结构,通过卷积运算和池化操作来实现对图像和语音等高维数据的处理。
一、卷积神经网络的基本结构卷积神经网络由多个层次组成,包括输入层、卷积层、池化层和全连接层。
其基本结构如下:1. 输入层:接受原始数据的输入,通常为图像或其他高维数据。
2. 卷积层:通过卷积运算提取输入数据的特征,包括卷积核和特征图。
每个卷积核负责检测特定的特征,如边缘、纹理等。
3. 池化层:通过池化操作对卷积层的特征图进行降采样,减少参数量和计算复杂度,并保持特征不变性。
4. 全连接层:将池化层的输出连接到全连接层,通过激活函数进行非线性变换,得到最终的分类结果。
二、卷积运算的原理卷积运算是卷积神经网络的核心操作,通过对输入数据和卷积核进行卷积运算,可以提取输入数据的局部特征。
卷积运算的过程如下:1. 定义卷积核:卷积核是一个小的矩阵或滤波器,用于检测输入数据中的某种特征。
每个卷积核都包含一组可学习的权重参数。
2. 滑动窗口操作:将卷积核在输入数据上进行滑动操作,对每个位置上的输入数据和卷积核进行逐元素乘积并求和。
3. 特征映射:将滑动窗口操作得到的结果保存在特征映射中,每个特征映射都对应一个卷积核。
通过多个卷积核的组合,可以从输入数据中提取不同的特征,并逐渐实现对复杂特征的提取和表示。
三、卷积神经网络的训练卷积神经网络的训练过程主要包括前向传播和反向传播两个步骤:1. 前向传播:从输入层到输出层的信号传递过程。
通过对输入数据进行卷积运算、池化操作和非线性变换,得到最终的分类结果。
2. 反向传播:通过计算损失函数的梯度,将误差从输出层向前传递,同时更新网络的权重参数,以提高网络的准确性。
训练过程中,需要使用大量的标注数据进行监督学习,通过不断调整权重参数,使网络的输出结果与标注数据尽可能一致。
卷积神经网络原理简述

卷积神经网络原理简述卷积神经网络(ConvolutionalNeuralNetworks,简称CNN)是近几年十分流行的机器学习技术,它能够从图像中发现特征,并将其映射到可以被算法理解的特征空间。
在计算机视觉和自然语言处理方面它都有着重要应用,在一些领域它更是完美地取代了传统的机器学习模型,被认为是机器学习中的先进技术。
CNN是基于卷积运算,其中网络中每一层拥有一组卷积核,每个卷积核和输入图像的相关性都被记录在内。
这些卷积核之间的权重和偏置值会随着训练的进行而发生变化,从而形成网络的学习过程。
在实际应用中,CNN可以用作计算机视觉和语言识别的主要技术。
它具有很高的准确率,能够以较低的计算成本和较少的参数精确地完成任务。
因此,CNN各个组件的设计都非常重要,在构建网络时需要考虑每个卷积层和池化层。
卷积层是CNN最基本的构造,它将原始图像与可学习的权重矩阵进行卷积,并输出一个新的特征映射。
从原始图像中提取特征的过程分为两个步骤,包括卷积和池化。
卷积步骤可以将原始图像映射到更高维度的特征空间,池化步骤则减少了特征的维度,而且能够有效的减少特征的噪声。
除了卷积层与池化层之外,CNN还可以使用全连接层(fully connected layer),其作用是将前面几层提取出的特征映射到分类器输出空间,将最后一层的输出结果映射到预设分类标签。
这些层的搭建需要根据实际任务来设计,其中主要包括受保护的卷积层、池化层和全连接层,可以从这些层中提取出最有用的特征。
与传统的机器学习技术相比,CNN有着诸多优势,如能够有效的提取特征,避免计算量庞大的特征提取过程,也能够更加精准的提取出需要的特征,而且它针对小型图像数据集也显示出良好的性能。
而且可以通过卷积核的变换进行颜色、大小变换,能够更好适应图像增强,并且在一定程度上减少了数据集和训练样本的限制等。
因此,CNN 在神经网络领域得到了越来越多的应用。
本文介绍了CNN的原理和构造,以及它的优势和应用。
卷积神经网络

卷积神经网络是一种用于图像、音频、文本等大量数据处理的神经网络,它通过对数据进行多层次的卷积和池化操作,从而提取出数据中的特征信息。
在近年来,已经成为人工智能领域中最具有影响力的技术之一,被广泛应用于计算机视觉、自然语言处理、语音识别等领域。
一、的基本结构(Convolutional Neural Networks,CNN)由多个卷积层、激活函数层、池化层和全连接层组成。
卷积层是CNN的核心部分,它以一定的步长在输入数据上进行卷积操作,从而提取出数据中的局部特征。
激活函数层通过非线性函数对卷积层的输出进行激活,提高了网络的非线性表达能力。
池化层通过将卷积层的输出进行降采样操作,降低了网络的计算复杂度,并保留了一定特征信息。
全连接层将网络的输出映射到目标值的空间中,输出最终的预测结果。
二、的优势相较于传统的机器学习算法,在图像、音频、文本等大量数据处理方面有着很多优势。
首先,能够自动提取数据中的特征信息,减少了人工干预的需求。
其次,具有较强的泛化能力,能够适应多种不同的数据。
另外,的计算量相对较小,适用于处理大规模数据。
三、的应用已经被广泛应用于计算机视觉、自然语言处理、语音识别等领域。
在计算机视觉方面,被用于图像分类、目标检测、图像分割等任务。
在自然语言处理方面,被用于文本分类、情感分析、机器翻译等任务。
在语音识别方面,被用于语音识别、语音情感识别等任务。
四、的未来随着人工智能技术的不断发展,将会成为人工智能领域中最为重要的技术之一。
未来,将会在更多的领域得到应用,在医疗、金融、教育等领域带来更多的改变。
同时,的算法和架构也将不断进行优化和改进,提供更好的性能和更高的效率。
总之,是一种重要的神经网络模型,具有很强的泛化能力和适应性,已经成为人工智能领域中的核心技术之一。
随着技术的不断发展与完善,将会在更广泛的领域得到应用,带来更多的改变和创新。
深度学习技术中的卷积神经网络结构和特点解析

深度学习技术中的卷积神经网络结构和特点解析卷积神经网络(Convolutional Neural Network,CNN)是当今深度学习技术中最重要的模型之一。
它被广泛应用于计算机视觉、自然语言处理、语音识别等领域。
本文将解析卷积神经网络的结构和特点,帮助读者更好地理解和运用这一强大的深度学习工具。
一、卷积神经网络的结构卷积神经网络由多层神经网络组成,每一层由多个神经元组成。
其中,最重要的几层是卷积层(Convolutional Layer)、池化层(Pooling Layer)和全连接层(Fully Connected Layer)。
1. 卷积层:卷积层是卷积神经网络的核心层之一。
它通过使用一组可学习的滤波器(或称为卷积核)对输入数据进行卷积操作,并生成特征图(Feature Map)。
卷积操作通过在输入数据中滑动卷积核,并在每个位置上执行点乘运算,得到对应位置的特征。
卷积层的特点在于共享权重。
这意味着在同一层的不同位置使用的卷积核是相同的,因此卷积层的参数量大大减少,使得网络更加简化。
2. 池化层:池化层用于对卷积层的特征进行降维和抽象。
它通过固定大小的滑动窗口在特征图上进行采样,并将采样结果汇聚为一个值。
常见的池化方法有最大池化和平均池化。
池化层能够减少参数数量,降低过拟合的风险,同时也增强特征的不变性和鲁棒性,使得网络对于输入数据的微小变化具有更好的鲁棒性。
3. 全连接层:全连接层是卷积神经网络的最后一层,也是输出层。
它将前面的隐藏层与最终的分类器相连,将特征转化为概率或标签。
全连接层的每个神经元与前一层中的所有神经元都有连接关系。
全连接层的作用是将抽取到的特征与实际标签进行匹配,从而进行最终的分类判断。
二、卷积神经网络的特点1. 局部感知性:卷积神经网络通过卷积操作对输入数据进行特征提取,并利用池化操作定位和提取最显著的特征。
这种局部感知性使得网络对于局部信息具有更好的提取和理解能力。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1 u sl k , n rl k
k l 1 v A l
K l 1
a l v , k l 1 , k u cl 1 k l 1 , n v rl k
1
rl k 1
b 1 k u vl n
1 卷积神经网络的发展历史
1962 年 Hubel 和 Wiesel 通过对猫视觉皮层细胞的研究,提出了感受野(receptive field) 的概念,1984 年日本学者 Fukushima 基于感受野概念提出的神经认知机(neocognitron)可以 看作是卷积神经网络的第一个实现网络,也是感受野概念在人工神经网络领域的首次应用。 神经认知机将一个视觉模式分解成许多子模式(特征),然后进入分层递阶式相连的特征平面 进行处理,它试图将视觉系统模型化,使其能够在即使物体有位移或轻微变形的时候,也能 完成识别。 神经认知机能够利用位移恒定能力从激励模式中学习, 并且可识别这些模式的变 化形,在其后的应用研究中,Fukushima 将神经认知机主要用于手写数字的识别。随后,国 内外的研究人员提出多种卷积神经网络形式, 在邮政编码识别和人脸识别方面得到了大规模 的应用。 通常神经认知机包含两类神经元,即承担特征抽取的 S-元和抗变形的 C-元。S-元中涉 及两个重要参数,即感受野与阈值参数,前者确定输入连接的数目,后者则控制对特征子模 式的反应程度。 许多学者一直致力于提高神经认知机的性能的研究: 在传统的神经认知机中, 每个 S-元的感光区中由 C-元带来的视觉模糊量呈正态分布。如果感光区的边缘所产生的模 糊效果要比中央来得大,S-元将会接受这种非正态模糊所导致的更大的变形容忍性。我们希 望得到的是, 训练模式与变形刺激模式在感受野的边缘与其中心所产生的效果之间的差异变 得越来越大。 为了有效地形成这种非正态模糊, Fukushima 提出了带双 C-元层的改进型神经 认知机。 Trotin 等人提出了动态构造神经认知机并自动降低闭值的方法[1], 初始态的神经认知机 各层的神经元数目设为零, 然后会对于给定的应用找到合适的网络规模。 在构造网络过程中, 利用一个反馈信号来预测降低阈值的效果, 再基于这种预测来调节阈值。 他们指出这种自动 阈值调节后的识别率与手工设置阈值的识别率相若, 然而, 上述反馈信号的具体机制并未给 出,并且在他们后来的研究中承认这种自动阈值调节是很困难的 。 Hildebrandt 将神经认知机看作是一种线性相关分类器, 也通过修改阈值以使神经认知机 成为最优的分类器。Lovell 应用 Hildebrandt 的训练方法却没有成功。对此, Hildebrandt 解 释的是,该方法只能应用于输出层,而不能应用于网络的每一层。事实上,Hildebrandt 没有 考虑信息在网络传播中会逐层丢失。 Van Ooyen 和 Niehuis 为提高神经认知机的区别能力引入了一个新的参数。事实上,该 参数作为一种抑制信号, 抑制了神经元对重复激励特征的激励。 多数神经网络在权值中记忆 训练信息。根据 Hebb 学习规则,某种特征训练的次数越多,在以后的识别过程中就越容易
卷积神经网络
摘要:卷积神经网络是近年来广泛应用于模式识别、图像处理等领域的一种高效识别算法,它具有结构简 单、训练参数少和适应性强等特点。本文从卷积神经网络的发展历史开始,详细阐述了卷积神经网络的网 络结构、神经元模型和训练算法。在此基础上以卷积神经网络在人脸检测和形状识别方面的应用为例,简 单介绍了卷积神经网络在工程上的应用,并给出了设计思路和网络结构。 关键字:模型;结构;训练算法;人脸检测;形状识别
【15 】 网络中神经元的输出连接值符合 “最大值检出假说” , 即在某一小区域内存在的一个 神经元集合中, 只有输出最大的神经元才强化输出连接值。 所以若神经元近旁存在有输出比
其更强的神经元时,其输出连接值将不被强化。根据上述假说,就限定了只有一个神经元会 发生强化。卷积神经网络的种元就是某 S-面上最大输出的 S-元,它不仅可以使其自身强化, 而且还控制了邻近元的强化结果。因而,所有的 S-元渐渐提取了几乎所有位置上相同的特 征。 在卷积神经网络早期研究中占主导的无监督学习中, 训练一种模式时需花费相当长的时 间去自动搜索一层上所有元中具有最大输出的种元, 而现在的有监督学习方式中, 训练模式 同它们的种元皆由教师设定。 图 1 是文献[12]中卷积神经网络的典型结构图。将原始图像直接输入到输入层(Uc1 ),原 始图像的大小决定了输入向量的尺寸, 神经元提取图像的局部特征, 因此每个神经元都与前 一层的局部感受野相连。文中使用了 4 层网络结构,隐层由 S-层和 C-层组成。每层均包含 多个平面,输入层直接映射到 Us2 层包含的多个平面上。每层中各平面的神经元提取图像中 特定区域的局部特征,如边缘特征,方向特征等,在训练时不断修正 S-层神经元的权值。 同一平面上的神经元权值相同,这样可以有相同程度的位移、旋转不变性。S-层中每个神经 元局部输入窗口的大小均为 5x5,由于同一个平面上的神经元共享一个权值向量,所以从一
【8 】
被检测。也有学者将进化计算理论与神经认知机结合 ,通过减弱对重复性激励特征的训 练学习, 而使得网络注意那些不同的特征以助于提高区分能力。 上述都是神经认知机的发展 过程, 而卷积神经网络可看作是神经认知机的推广形式, 神经认知机是卷积神经网络的一种 特例。 卷积神经网络本身可采用不同的神经元和学习规则的组合形式。其中一种方法是采用 M-P 神经元和 BP 学习规则的组合,常用于邮政编码识别中。还有一种是先归一化卷积神经 网络, 然后神经元计算出用输入信号将权值和归一化处理后的值, 再单独训练每个隐层得到 权值,最后获胜的神经元输出活性,这个方法在处理二值数字图像时比较可行,但没有在大 数据库中得到验证。第三种方法综合前两种方法的优势,即采用 McCulloch-Pitts 神经元代 替复杂的基于神经认知机的神经元。在该方法中,网络的隐层和神经认知机一样,是一层一 层训练的,但是回避了耗时的误差反向传播算法。这种神经网络被称为改进的神经认知机。 随后神经认知机和改进的神经认知机作为卷积神经网络的例子,广泛用于各种识别任务中, 比如大数据库的人脸识别和数字识别。 下面详细介绍卷积神经网络的原理、 网络结构及训练 算法。
个平面到下一个平面的映射可以看作是作卷积运算,S-层可看作是模糊滤波器,起到二次特 征提取的作用。隐层与隐层之间空间分辨率递减,而每层所含的平面数递增,这样可用于检 测更多的特征信息。
图1
卷积神经网络结构图
Fig.1 The structure of convolutional neural network
Байду номын сангаас
0 引言
卷积神经网络是人工神经网络的一种已成为当前语音分析和图像识别领域的研究热点, 它的权值共享网络结构使之更类似于生物神经网络, 降低了网络模型的复杂度, 减少了权值 的数量。 该优点在网络的输入是多维图像时表现的更为明显, 使图像可以直接作为网络的输 入, 避免了传统识别算法中复杂的特征提取和数据重建过程。 卷积网络是为识别二维形状而 特殊设计的一个多层感知器,这种网络结构对平移、比例缩放、倾斜或者共他形式的变形具 有高度不变性。
x
x, x 0 0, x 0
(2.2)
式(2.2)表示的是指定某级(第 l 级)、某层(S-层)、某面(第 kl 个 S-面)、某元(向量为 n 处)的一个输出。对于一个 S-元的作用函数可分为两部分,即兴奋性作用函数和抑制性作 用函数。兴奋性作用使得膜电位上升,而抑制性作用起分流作用。 兴奋性作用为:
【9 】
2 卷积神经网络
2.1 网络结构 卷积神经网络是一个多层的神经网络, 每层由多个二维平面组成, 而每个平面由多个独 立神经元组成。网络中包含一些简单元和复杂元,分别记为 S-元和 C-元。S-元聚合在一起 组成 S-面,S-面聚合在一起组成 S-层,用 Us 表示。C-元、C-面和 C-层(Us )之间存在类似的 关系。网络的任一中间级由 S-层与 C-层串接而成,而输入级只含一层,它直接接受二维视 觉模式,样本特征提取步骤已嵌入到卷积神经网络模型的互联结构中。一般地, Us 为特征 提取层,每个神经元的输入与前一层的局部感受野相连,并提取该局部的特征,一旦该局部 特征被提取后,它与其他特征间的位置关系也随之确定下来; Uc 是特征映射层,网络的每 个计算层由多个特征映射组成,每个特征映射为一个平面,平面上所有神经元的权值相等。 特征映射结构采用影响函数核小的 sigmoid 函数作为卷积网络的激活函数,使得特征映射具 有位移不变性。此外,由于一个映射面上的神经元共享权值,因而减少了网络自由参数的个 数,降低了网络参数选择的复杂度。卷积神经网络中的每一个特征提取层(S-层)都紧跟着一 个用来求局部平均与二次提取的计算层(C-层),这种特有的两次特征提取结构使网络在识别 时对输入样本有较高的畸变容忍能力【10 】 。
1
(2.1)
式(2.1)中 al(v, kl-1 , k) 和 bl (k)分别表示兴奋性输入和抑制性输入的连接系数; rl (k) 控制特征提取的选择性,其值越大,对噪音和特征畸变的容错性越差,它是一常量,它控制 着位于每一 S-层处的单个抑制子平面中每个神经元的输入: rl (k)的值越大,与抑制性成比 例的兴奋性就得越大, 以便能产生一个非零输出, 换句话说就是相当好的匹配才一能激活神 经元,然而因为 rl (k)还需乘以φ (),所以 rl 值越大就能产生越大的输出,相反,小的 rl (k) 值允许不太匹配的神经元兴奋,但它只能产生一个比较小的输出;φ (x)为非线性函数。v 是一个矢量,表示处于 n 感受野中的前层神经元 n 的相对位置,Al 确定 S 神经元要提取特征 的大小,代表 n 的感受野。所以式中对 v 的求和也就包含了指定区域当中所有的神经元;外 面对于勺 kl-1 的求和,也就包含了前一级的所有子平面,因此在分子中的求和项有时也被称 作兴奋项, 实际上为乘积的和, 输入到 n 的神经元的输出都乘上它们相应的权值然后再输出 到 nc 。