卷积神经网络全面解析之算法实现

合集下载

卷积神经网络算法分析及图像处理示例

卷积神经网络算法分析及图像处理示例

卷积神经网络算法分析及图像处理示例卷积神经网络(Convolutional Neural Network, CNN)是一种广泛应用于图像处理、语音识别等领域的深度神经网络,在计算机视觉中被广泛应用。

它的特殊之处在于,它的网络结构与人类的视觉神经结构有异曲同工之妙,能够有效提取图片中的图像特征。

下面将介绍我们是如何应用卷积神经网络对图像进行处理的,并对算法进行分析。

首先来看卷积神经网络的基本算法思想。

卷积神经网络是由卷积层、池化层、全连接层等基本组件构成的,其中卷积层是卷积神经网络的核心,因为它负责特征提取。

这么说可能还不是很清楚,下面就来详细分析一下卷积神经网络的算法。

卷积神经网络的算法分析主要分为两个方面:卷积层的算法和反向传播算法。

1. 卷积层的算法卷积神经网络的卷积层基本操作是使用固定大小的窗口在输入特征图(inputfeature map)的每个位置上对应进行卷积,然后将这些卷积结果组合成输出特征图(output feature map)。

一个卷积滤波器(卷积核)从输入特征图的左上角开始移动,每次向右移动一个像素,然后再向下移动一个像素。

卷积核内的值与输入特征值相乘之和(即内积)即为卷积结果,而这个卷积结果则成为输出特征值。

在卷积过程中,卷积核通常是可以学习的,也就是说,网络会自适应地训练卷积核以自动提取有用的特征。

这个训练过程是通过反向传播实现的。

2. 反向传播算法反向传播算法是卷积神经网络使用的一种优化算法,用于计算网络的误差梯度,以便对网络进行调整。

反向传播算法主要分为两个步骤:前向传播和反向传播。

前向传播是卷积神经网络中的重要环节,通过这一步骤可以得到每个节点的输出(forward pass)。

它通过不断迭代多次前向传播来计算最终输出。

反向传播是指统计误差并利用误差信息来训练网络(backward pass)。

它通过计算误差的反向传播,逐层更新每个节点的权重来训练网络,完成优化操作。

(完整版)卷积神经网络CNN原理、改进及应用

(完整版)卷积神经网络CNN原理、改进及应用

卷积神经网络(CNN)一、简介卷积神经网络(Convolutional Neural Networks,简称CNN)是近年发展起来,并引起广泛重视的一种高效的识别方法。

1962年,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的局部互连网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络[1](Convolutional Neural Networks-简称CNN)7863。

现在,CNN已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。

Fukushima在1980年基于神经元间的局部连通性和图像的层次组织转换,为解决模式识别问题,提出的新识别机(Neocognitron)是卷积神经网络的第一个实现网络[2]。

他指出,当在不同位置应用具有相同参数的神经元作为前一层的patches时,能够实现平移不变性1296。

随着1986年BP算法以及T-C问题[3](即权值共享和池化)9508的提出,LeCun和其合作者遵循这一想法,使用误差梯度(the error gradient)设计和训练卷积神经网络,在一些模式识别任务中获得了最先进的性能[4][5]。

在1998年,他们建立了一个多层人工神经网络,被称为LeNet-5[5],用于手写数字分类,这是第一个正式的卷积神经网络模型3579。

类似于一般的神经网络,LeNet-5有多层,利用BP算法来训练参数。

它可以获得原始图像的有效表示,使得直接从原始像素(几乎不经过预处理)中识别视觉模式成为可能。

然而,由于当时大型训练数据和计算能力的缺乏,使得LeNet-5在面对更复杂的问题时,如大规模图像和视频分类,不能表现出良好的性能。

因此,在接下来近十年的时间里,卷积神经网络的相关研究趋于停滞,原因有两个:一是研究人员意识到多层神经网络在进行BP训练时的计算量极其之大,当时的硬件计算能力完全不可能实现;二是包括SVM在内的浅层机器学习算法也渐渐开始暂露头脚。

图像识别中的卷积神经网络算法

图像识别中的卷积神经网络算法

图像识别中的卷积神经网络算法随着机器学习技术的日益发展,图像识别技术也变得越来越成熟。

在图像识别中,卷积神经网络(Convolutional Neural Networks,简称CNN)是一种广泛使用的神经网络算法。

本文将介绍卷积神经网络算法的原理和应用。

一、卷积神经网络的基本原理卷积神经网络是一种包含多层神经元的神经网络。

它的基本原理是将输入数据(通常是一个图像)通过多个卷积层和池化层,最终输出一个预测结果。

下面我们来详细解释卷积神经网络的工作原理。

1. 卷积层卷积层是卷积神经网络最基本的组成部分。

它通过一个卷积核(或称为过滤器)来扫描输入数据并提取出其中的特征。

卷积核通常是一个二维矩阵,其中的权重值可以通过训练来得到。

假设我们有一个3x3的输入数据(即图像),卷积核也是一个3x3的矩阵。

卷积层的计算过程如下:1. 在输入数据的左上角位置,将卷积核的所有元素与输入数据中对应位置的元素相乘,并将结果相加得到一个标量。

2. 将卷积核向右移动一个像素,重复上述计算过程,得到第二个标量。

3. 将卷积核继续向右移动,重复以上过程,得到第三个标量,以此类推。

4. 将每次计算得到的标量结果组成一个新的矩阵,即为卷积层的输出数据。

通过不断移动卷积核,卷积层能够提取图像的各种特征,例如边缘、颜色等信息。

2. 池化层卷积层的输出数据有时会非常大,需要进行压缩。

这时就需要池化层。

池化层的作用是缩小输入数据的尺寸,并减少数据中的噪声。

常见的池化方式有两种:最大池化和平均池化。

最大池化会在一个窗口内选出最大值作为输出结果,而平均池化则是将窗口内的值取平均。

3. 全连接层在经过多次卷积和池化后,卷积神经网络会得到一个高维的特征向量。

这时,我们需要将这些向量通过全连接层进行分类。

全连接层就是传统神经网络中的常见组件,每个节点会与上一层所有节点相连。

卷积神经网络中,全连接层通常只出现在最后一层。

最后一层的节点数等于我们所要分类的类别数。

卷积神经网络与循环神经网络

卷积神经网络与循环神经网络

卷积神经网络与循环神经网络卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Network,RNN)是目前深度学习领域最为流行的两种神经网络架构。

它们分别适用于不同的数据类型和任务,能够有效地处理图像、语音、文本等各种形式的数据。

一、卷积神经网络卷积神经网络是一种专门用于处理格状数据(如图像)的神经网络模型。

它的核心思想是利用卷积操作对输入数据进行特征提取,然后通过池化操作减小特征图的尺寸,最后将提取到的特征输入全连接层进行分类或回归。

卷积神经网络的结构主要包括卷积层、池化层和全连接层。

1.1卷积层卷积层是卷积神经网络的核心组件,它通过卷积操作对输入数据进行特征提取。

卷积操作是指使用一个滤波器(也称为卷积核)在输入数据上进行滑动计算,得到对应位置的输出。

滤波器的参数是在训练过程中通过反向传播算法学习得到的。

在图像处理中,卷积操作可以帮助提取图像中的边缘、纹理、角点等特征。

卷积层一般会使用多个不同的滤波器,从而提取多个不同的特征。

1.2池化层池化层是利用池化操作对卷积层的输出进行降采样,从而减小特征图的尺寸。

常见的池化操作有最大池化和平均池化。

最大池化是保留每个区域内的最大值作为输出,平均池化是计算每个区域内的平均值作为输出。

池化操作的目的是减少计算复杂度和减小过拟合。

1.3全连接层全连接层是卷积神经网络的最后一层,它将池化层的输出作为输入进行分类或回归。

全连接层的每个神经元都与上一层的所有神经元相连,输出一个标量值。

全连接层通常使用一种称为softmax的函数将输出转化为概率分布,再根据不同任务进行相应的损失函数计算和优化。

卷积神经网络通过共享权重和局部感知野的设计,大大减少了模型参数的数量,同时也能够保留输入数据的局部结构特征。

这使得卷积神经网络在图像识别、目标检测、语义分割等计算机视觉任务中取得了很大的成功。

二、循环神经网络循环神经网络是一种专门用于处理序列数据(如语音、文本)的神经网络模型。

使用卷积神经网络进行图像语义分析的技术解析

使用卷积神经网络进行图像语义分析的技术解析

使用卷积神经网络进行图像语义分析的技术解析近年来,随着人工智能技术的快速发展,卷积神经网络(Convolutional Neural Network,简称CNN)在图像处理领域中被广泛应用,特别是在图像语义分析方面取得了显著的成果。

本文将对使用卷积神经网络进行图像语义分析的技术进行解析。

一、卷积神经网络的基本原理卷积神经网络是一种深度学习模型,其基本原理是通过模拟人脑神经元的工作方式,将输入的图像数据通过多个卷积层和池化层进行特征提取和降维处理,最后通过全连接层进行分类或回归等任务。

在卷积层中,通过滑动一个固定大小的卷积核对输入图像进行卷积操作,从而提取出不同位置的特征。

卷积核的参数会根据训练数据进行自动学习,以使得网络能够准确地识别图像中的不同特征,如边缘、纹理等。

池化层的作用是对卷积层输出的特征图进行降维处理,减少计算量和参数数量。

常用的池化操作包括最大池化和平均池化,它们分别选取特征图中的最大值或平均值作为输出。

二、图像语义分析的任务和挑战图像语义分析是指通过计算机对图像进行理解和解释,从而得到图像的语义信息。

常见的图像语义分析任务包括图像分类、目标检测、语义分割等。

然而,图像语义分析面临着一些挑战。

首先,图像数据的维度较高,包含大量的像素信息,需要进行特征提取和降维处理。

其次,图像中的语义信息往往是多样的、复杂的,需要进行准确的识别和理解。

此外,图像中可能存在光照、遮挡、尺度变化等干扰因素,使得图像语义分析变得更加困难。

三、卷积神经网络在图像语义分析中的应用卷积神经网络在图像语义分析中有着广泛的应用。

以图像分类为例,卷积神经网络能够从输入图像中提取出不同层次的特征,通过多个卷积层和池化层的组合,逐步提高对图像的抽象能力。

最后,通过全连接层将提取到的特征映射到不同类别的概率上,从而实现图像分类任务。

在目标检测方面,卷积神经网络可以通过在卷积层后添加额外的网络层来实现。

这些网络层可以预测图像中目标的位置和类别,从而实现对图像中目标的检测和定位。

卷积神经网络隐写分析算法的优化方法与实现

卷积神经网络隐写分析算法的优化方法与实现

卷积神经网络隐写分析算法的优化方法与实现隐写分析是一种有效的数据安全技术,是从隐写的有效图像中恢复有价值数据的技术,是在图像处理领域中越来越受到关注的一种技术。

与传统的隐写分析方法相比,卷积神经网络(CNN)可以在精确性和鲁棒性方面进行更好的优化。

本文力图探索CNN在隐写分析中的优化和实现,通过对CNN模型参数调整、模型结构调整等,实现CNN 在隐写分析领域更优化的性能。

首先,介绍CNN在隐写分析中的优化方法。

当使用CNN模型进行隐写分析时,可以通过调整参数来提高CNN模型的准确度。

具体来说,可以调整学习率,控制网络的深度和宽度,采用更多的正则化技术来减少过拟合,并采用更多的增强学习和数据增广技术来提高模型的泛化能力。

此外,在样本采样方面,可以采取抽样策略来提高模型的精度,减少样本数据的偏离。

另外,在模型结构方面,可以尝试采用更深和宽的卷积神经网络模型,以提高模型的准确度,并利用更多的特征提取技术,如支持向量机、多层感知机等,以及一些经典的特征提取算法,如LBP、HOG等,以提高隐写分析的精准度。

其次,探讨CNN在隐写分析中的实现方法。

首先,要搭建CNN模型,需要利用相关深度学习框架和自己定义的CNN模型,可以利用TensorFlow、Keras等框架,搭建所需要的CNN模型;其次,可以利用所给的样本数据,训练CNN模型,根据模型的训练效果,调整模型参数,使模型拟合其样本数据;最后,可以使用训练完成的CNN模型,在相应的隐写有效图像上进行测试,以评估模型的准确度。

总的来说,CNN可以在隐写分析中发挥重要作用,可以实现较高精度的恢复。

但是,在实施CNN隐写分析时,由于涉及到模型参数调整、模型结构调整等多项复杂操作,实施起来有一定的难度。

因此,未来需要开发一些新的、有效的优化和实现方法,以提高CNN隐写分析的效率和准确性,并进一步发挥CNN在隐写分析领域的优势。

综上所述,卷积神经网络隐写分析算法的优化方法与实现,需要通过调整模型参数、模型结构等,实现CNN在隐写分析领域更优化的性能,并需要对模型的核心技术进行有效的优化和实现。

onnx convolution参数-概述说明以及解释

onnx convolution参数-概述说明以及解释

onnx convolution参数-概述说明以及解释1.引言1.1 概述概述部分:卷积神经网络(Convolutional Neural Network, CNN)是一种常用于计算机视觉领域的深度学习算法。

在CNN中,卷积(Convolution)是其中最为重要的操作之一。

在ONNX(Open Neural Network Exchange)规范中,卷积操作是模型中的一个重要组件,它通过一定的参数配置,能够实现图像的特征提取、分类和目标检测等任务。

本文将聚焦于研究ONNX卷积操作的三个重要参数,分别为参数A、参数B和参数C。

通过对这些参数的深入研究,我们将探讨它们在卷积操作中的作用和意义,并探索如何根据具体的问题场景进行参数选择。

参数A是卷积操作中的一个关键参数,它决定了卷积核的大小和形状。

卷积核是一种特殊的矩阵,通过与输入图像进行卷积运算,可以提取图像中的不同特征。

参数A的选择不仅会影响到特征提取的效果,还会直接关系到卷积操作的计算复杂度和模型的大小。

因此,对于参数A的选择需要根据具体的应用场景和需求进行权衡和选择。

参数B是卷积操作中的另一个关键参数,它决定了卷积操作的步长大小。

步长的大小决定了输出特征图的尺寸和数量。

较大的步长可以降低特征图的尺寸和数量,从而减少计算复杂度,但也会对特征提取的精度产生一定的影响。

因此,参数B的选择需要根据具体的应用需求和性能要求进行权衡。

参数C是卷积操作中的还一个关键参数,它决定了卷积操作的填充方式。

填充是指在输入特征图的边缘周围添加一定数量的像素值,它可以使得输出特征图的尺寸和输入特征图的尺寸一致。

参数C的选择不仅会影响到特征提取的精度,还会直接影响到卷积操作的计算效率。

因此,对于参数C的选择需要结合具体的问题和需求进行综合考虑。

本文将通过对参数A、参数B和参数C的详细解析和讨论,旨在帮助读者深入理解ONNX卷积操作的原理和实现机制,并为读者在实际应用中选择合适的参数提供参考和指导。

神经网络算法的代码实现详解

神经网络算法的代码实现详解

神经网络算法的代码实现详解神经网络算法是一种模拟人脑神经系统的计算模型,它通过构建多层神经元网络来实现对数据的学习与预测。

本文将对神经网络算法的代码实现进行详细解析,通过Python语言实现。

1.数据准备首先,我们需要准备训练数据和测试数据。

训练数据是用来训练神经网络的样本,通常包含一组输入数据和对应的输出数据。

测试数据则是用来测试训练后的神经网络模型的准确性。

2.构建神经网络结构接下来,我们需要构建神经网络的结构。

神经网络通常由多层神经元组成,每层神经元与上一层的神经元全连接。

我们可以使用Python的Numpy库来创建神经网络的结构,其中的矩阵运算能够高效地实现神经网络算法。

3.定义激活函数神经网络中,每个神经元都需要一个激活函数来对输入数据进行处理,并输出非线性的结果。

常用的激活函数有sigmoid函数、ReLU 函数等。

我们可以在构建神经网络结构时定义激活函数。

4.前向传播前向传播是指从输入层开始,逐层计算神经元的输出,直到输出层为止。

这一过程可以通过矩阵运算实现,其中每一层的输出都是上一层输出与权重矩阵的乘积再经过激活函数处理得到。

最终,输出层的输出即为神经网络的预测结果。

5.反向传播反向传播是指根据预测结果,逐层更新权重矩阵,以使得预测结果与实际结果尽可能接近。

反向传播算法通过计算误差项,逆向更新权重矩阵。

误差项的计算根据损失函数的不同而有所差异,常用的损失函数有均方误差、交叉熵等。

6.更新权重矩阵根据反向传播算法计算得到的误差项,我们可以更新每一层的权重矩阵。

更新的方法一般是使用梯度下降算法,通过计算每个权重的梯度值以及学习率,来逐步调整权重的取值。

7.训练神经网络模型在完成以上步骤后,我们可以开始训练神经网络模型。

训练过程即是重复进行前向传播和反向传播,以不断更新权重矩阵。

通过多次迭代,使得神经网络模型的预测结果逼近真实结果。

8.测试神经网络模型在训练完成后,我们需要使用测试数据对神经网络模型进行测试,以评估其性能。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

卷积神经网络全面解析之算法实现前言从理解卷积神经到实现它,前后花了一个月时间,现在也还有一些地方没有理解透彻,CNN还是有一定难度的,不是看哪个的博客和一两篇论文就明白了,主要还是靠自己去专研,阅读推荐列表在末尾的参考文献。

目前实现的CNN在MINIT数据集上效果还不错,但是还有一些bug,因为最近比较忙,先把之前做的总结一下,以后再继续优化。

卷积神经网络CNN是Deep Learning的一个重要算法,在很多应用上表现出卓越的效果,[1]中对比多重算法在文档字符识别的效果,结论是CNN优于其他所有的算法。

CNN 在手写体识别取得最好的效果,[2]将CNN应用在基于人脸的性别识别,效果也非常不错。

前段时间我用BP神经网络对手机拍照图片的数字进行识别,效果还算不错,接近98%,但在汉字识别上表现不佳,于是想试试卷积神经网络。

1、CNN的整体网络结构卷积神经网络是在BP神经网络的改进,与BP类似,都采用了前向传播计算输出值,反向传播调整权重和偏置;CNN与标准的BP最大的不同是:CNN中相邻层之间的神经单元并不是全连接,而是部分连接,也就是某个神经单元的感知区域来自于上层的部分神经单元,而不是像BP那样与所有的神经单元相连接。

CNN的有三个重要的思想架构:∙局部区域感知∙权重共享∙空间或时间上的采样局部区域感知能够发现数据的一些局部特征,比如图片上的一个角,一段弧,这些基本特征是构成动物视觉的基础[3];而BP中,所有的像素点是一堆混乱的点,相互之间的关系没有被挖掘。

CNN中每一层的由多个map组成,每个map由多个神经单元组成,同一个map的所有神经单元共用一个卷积核(即权重),卷积核往往代表一个特征,比如某个卷积和代表一段弧,那么把这个卷积核在整个图片上滚一下,卷积值较大的区域就很有可能是一段弧。

注意卷积核其实就是权重,我们并不需要单独去计算一个卷积,而是一个固定大小的权重矩阵去图像上匹配时,这个操作与卷积类似,因此我们称为卷积神经网络,实际上,BP也可以看做一种特殊的卷积神经网络,只是这个卷积核就是某层的所有权重,即感知区域是整个图像。

权重共享策略减少了需要训练的参数,使得训练出来的模型的泛华能力更强。

采样的目的主要是混淆特征的具体位置,因为某个特征找出来后,它的具体位置已经不重要了,我们只需要这个特征与其他的相对位置,比如一个“8”,当我们得到了上面一个"o"时,我们不需要知道它在图像的具体位置,只需要知道它下面又是一个“o”我们就可以知道是一个'8'了,因为图片中"8"在图片中偏左或者偏右都不影响我们认识它,这种混淆具体位置的策略能对变形和扭曲的图片进行识别。

CNN的这三个特点是其对输入数据在空间(主要针对图像数据)上和时间(主要针对时间序列数据,参考TDNN)上的扭曲有很强的鲁棒性。

CNN一般采用卷积层与采样层交替设置,即一层卷积层接一层采样层,采样层后接一层卷积...这样卷积层提取出特征,再进行组合形成更抽象的特征,最后形成对图片对象的描述特征,CNN后面还可以跟全连接层,全连接层跟BP一样。

下面是一个卷积神经网络的示例:图1(图片来源)卷积神经网络的基本思想是这样,但具体实现有多重版本,我参考了matlab的Deep Learning的工具箱DeepLearnToolbox,这里实现的CNN与其他最大的差别是采样层没有权重和偏置,仅仅只对卷积层进行一个采样过程,这个工具箱的测试数据集是MINIST,每张图像是28*28大小,它实现的是下面这样一个CNN:图22、网络初始化CNN的初始化主要是初始化卷积层和输出层的卷积核(权重)和偏置,DeepLearnToolbox里面对卷积核和权重进行随机初始化,而对偏置进行全0初始化。

3、前向传输计算前向计算时,输入层、卷积层、采样层、输出层的计算方式不相同。

3.1 输入层:输入层没有输入值,只有一个输出向量,这个向量的大小就是图片的大小,即一个28*28矩阵;3.2 卷积层:卷积层的输入要么来源于输入层,要么来源于采样层,如上图红色部分。

卷积层的每一个map都有一个大小相同的卷积核,Toolbox里面是5*5的卷积核。

下面是一个示例,为了简单起见,卷积核大小为2*2,上一层的特征map大小为4*4,用这个卷积在图片上滚一遍,得到一个一个(4-2+1)*(4-2+1)=3*3的特征map,卷积核每次移动一步,因此。

在Toolbox的实现中,卷积层的一个map与上层的所有map都关联,如上图的S2和C3,即C3共有6*12个卷积核,卷积层的每一个特征map是不同的卷积核在前一层所有map上作卷积并将对应元素累加后加一个偏置,再求sigmod得到的。

还有需要注意的是,卷积层的map个数是在网络初始化指定的,而卷积层的map的大小是由卷积核和上一层输入map的大小决定的,假设上一层的map大小是n*n、卷积核的大小是k*k,则该层的map大小是(n-k+1)*(n-k+1),比如上图的24*24的map大小24=(28-5+1)。

斯坦福的深度学习教程更加详细的介绍了卷积特征提取的计算过程。

图33.3 采样层(subsampling,Pooling):采样层是对上一层map的一个采样处理,这里的采样方式是对上一层map的相邻小区域进行聚合统计,区域大小为scale*scale,有些实现是取小区域的最大值,而ToolBox里面的实现是采用2*2小区域的均值。

注意,卷积的计算窗口是有重叠的,而采用的计算窗口没有重叠,ToolBox里面计算采样也是用卷积(conv2(A,K,'valid'))来实现的,卷积核是2*2,每个元素都是1/4,去掉计算得到的卷积结果中有重叠的部分,即:图44、反向传输调整权重反向传输过程是CNN最复杂的地方,虽然从宏观上来看基本思想跟BP一样,都是通过最小化残差来调整权重和偏置,但CNN的网络结构并不像BP那样单一,对不同的结构处理方式不一样,而且因为权重共享,使得计算残差变得很困难,很多论文[1][5]和文章[4]都进行了详细的讲述,但我发现还是有一些细节没有讲明白,特别是采样层的残差计算,我会在这里详细讲述。

4.1输出层的残差和BP一样,CNN的输出层的残差与中间层的残差计算方式不同,输出层的残差是输出值与类标值得误差值,而中间各层的残差来源于下一层的残差的加权和。

输出层的残差计算如下:公式来源这个公式不做解释,可以查看公式来源,看斯坦福的深度学习教程的解释。

4.2 下一层为采样层(subsampling)的卷积层的残差当一个卷积层L的下一层(L+1)为采样层,并假设我们已经计算得到了采样层的残差,现在计算该卷积层的残差。

从最上面的网络结构图我们知道,采样层(L+1)的map大小是卷积层L的1/(scale*scale),ToolBox里面,scale取2,但这两层的map个数是一样的,卷积层L的某个map中的4个单元与L+1层对应map的一个单元关联,可以对采样层的残差与一个scale*scale的全1矩阵进行克罗内克积进行扩充,使得采样层的残差的维度与上一层的输出map的维度一致,Toolbox的代码如下,其中d表示残差,a 表示输出值:yers{l}.d{j} = yers{l}.a{j} .* (1 - yers{l}.a{j}) .* expand(yers{l + 1}.d{j}, [yers{l + 1}.scale yers{l + 1}.scale 1])扩展过程:图5利用卷积计算卷积层的残差:图64.3 下一层为卷积层(subsampling)的采样层的残差当某个采样层L的下一层是卷积层(L+1),并假设我们已经计算出L+1层的残差,现在计算L层的残差。

采样层到卷积层直接的连接是有权重和偏置参数的,因此不像卷积层到采样层那样简单。

现再假设L层第j个map Mj与L+1层的M2j关联,按照BP的原理,L层的残差Dj是L+1层残差D2j的加权和,但是这里的困难在于,我们很难理清M2j的那些单元通过哪些权重与Mj的哪些单元关联,Toolbox里面还是采用卷积(稍作变形)巧妙的解决了这个问题,其代码为:convn(yers{l + 1}.d{j}, rot180(yers{l + 1}.k{i}{j}),'full');rot180表示对矩阵进行180度旋转(可通过行对称交换和列对称交换完成),为什么这里要对卷积核进行旋转,答案是:通过这个旋转,'full'模式下得卷积的正好抓住了前向传输计算上层map单元与卷积和及当期层map的关联关系,需要注意的是matlab的内置函数convn在计算卷积前,会对卷积核进行一次旋转,因此我们之前的所有卷积的计算都对卷积核进行了旋转:a =1 1 11 1 11 1 1k =1 2 34 5 67 8 9>> convn(a,k,'full')ans =1 3 6 5 35 12 21 16 912 27 45 33 1811 24 39 28 157 15 24 17 9convn在计算前还会对待卷积矩阵进行0扩展,如果卷积核为k*k,待卷积矩阵为n*n,需要以n*n原矩阵为中心扩展到(n+2(k-1))*(n+2(k-1)),所有上面convn(a,k,'full')的计算过程如下:图7实际上convn内部是否旋转对网络训练没有影响,只要内部保持一致(即都要么旋转,要么都不旋转),所有我的卷积实现里面没有对卷积核旋转。

如果在convn计算前,先对卷积核旋转180度,然后convn内部又对其旋转180度,相当于卷积核没有变。

为了描述清楚对卷积核旋转180与卷积层的残差的卷积所关联的权重与单元,正是前向计算所关联的权重与单元,我们选一个稍微大一点的卷积核,即假设卷积层采用用3*3的卷积核,其上一层采样层的输出map的大小是5*5,那么前向传输由采样层得到卷积层的过程如下:图8这里我们采用自己实现的convn(即内部不会对卷积核旋转),并假定上面的矩阵A、B下标都从1开始,那么有:B11 = A11*K11 + A12*K12 + A13*K13 + A21*K21 + A22*K22 + A23*K23 + A31*K31 + A32*K32 + A33*K33B12 = A12*K11 + A13*K12 + A14*K13 + A22*K21 + A23*K22 + A24*K23 + A32*K31 + A33*K32 + A34*K33B13 = A13*K11 + A14*K12 + A15*K13 + A23*K21 + A24*K22 + A25*K23 + A33*K31 + A34*K32 + A35*K33B21 = A21*K11 + A22*K12 + A23*K13 + A31*K21 + A32*K22 + A33*K23 + A41*K31 + A42*K32 + A43*K33B22 = A22*K11 + A23*K12 + A24*K13 + A32*K21 + A33*K22 + A34*K23 + A42*K31 + A43*K32 + A44*K33B23 = A23*K11 + A24*K12 + A25*K13 + A33*K21 + A34*K22 + A35*K23 + A43*K31 + A44*K32 + A45*K33B31 = A31*K11 + A32*K12 + A33*K13 + A41*K21 + A42*K22 + A43*K23 + A51*K31 + A52*K32 + A53*K33B32 = A32*K11 + A33*K12 + A34*K13 + A42*K21 + A43*K22 + A44*K23 + A52*K31 + A53*K32 + A54*K33B33 = A33*K11 + A34*K12 + A35*K13 + A43*K21 + A44*K22 + A45*K23 + A53*K31 + A54*K32 + A55*K33我们可以得到B矩阵每个单元与哪些卷积核单元和哪些A矩阵的单元之间有关联:A11 [K11] [B11]A12 [K12, K11] [B12, B11]A13 [K13, K12, K11] [B12, B13, B11]A14 [K13, K12] [B12, B13]A15 [K13] [B13]A21 [K21, K11] [B21, B11]A22 [K22, K21, K12, K11] [B12, B22, B21, B11]A23 [K23, K22, K21, K13, K12, K11] [B23, B22, B21, B12, B13, B11]A24 [K23, K22, K13, K12] [B23, B12, B13, B22]A25 [K23, K13] [B23, B13]A31 [K31, K21, K11] [B31, B21, B11]A32 [K32, K31, K22, K21, K12, K11] [B31, B32, B22, B12, B21, B11]A33 [K33, K32, K31, K23, K22, K21, K13, K12, K11] [B23, B22, B21, B31, B12, B13, B11, B33, B32]A34 [K33, K32, K23, K22, K13, K12] [B23, B22, B32, B33, B12, B13]A35 [K33, K23, K13] [B23, B13, B33]A41 [K31, K21] [B31, B21]A42 [K32, K31, K22, K21] [B32, B22, B21, B31]A43 [K33, K32, K31, K23, K22, K21] [B31, B23, B22, B32, B33, B21]A44 [K33, K32, K23, K22] [B23, B22, B32, B33]A45 [K33, K23] [B23, B33]A51 [K31] [B31]A52 [K32, K31] [B31, B32]A53 [K33, K32, K31] [B31, B32, B33]A54 [K33, K32] [B32, B33]A55 [K33] [B33]然后再用matlab的convn(内部会对卷积核进行180度旋转)进行一次convn(B,K,'full'),结合图7,看红色部分,除去0,A11=B'33*K'33=B11*K11,发现A11正好与K11、B11关联对不对;我们再看一个A24=B'34*K'21+B'35*K'22+B'44*K'31+B'45*K'32=B12*K23+B13*K22+B22 *K13+B23*K12,发现参与A24计算的卷积核单元与B矩阵单元,正好是前向计算时关联的单元,所以我们可以通过旋转卷积核后进行卷积而得到采样层的残差。

相关文档
最新文档