卷积神经网络总结

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

1卷积神经网络卷积神经网络是深度学习的一种,已成为当前图像理解领域的研究热点它的权值共享网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。这个优点在网络的输入是多维图像时表现得更为明显,图像可以直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程.卷积网络是为识别二维形状而特殊设计的一个多层感知器,这种网络结构对平移、比例缩放以及其他形式的变形具有一定不变性.在典型的CNN中,开始几层通常是卷积层和下采样层的交替,在靠近输出层的最后几层网络通常是全连接网络。卷积神经网络的训练过程主要是学习卷积层的卷积核参数和层间连接权重等网络参数,预测过程主要是基于输入图像和网络参数计算类别标签。卷积神经网络的关键是:网络结构(含卷积层、下采样层、全连接层等)和反向传播算法等。在本节中,我们先介绍典型CNN的网络结构和反向传播算法,然后概述常用的其他CNN网络结构和方法。神经网络参数的中文名称主要参考文献[18]卷积神经网络的结构和反向传播算法主要参考文献[17]。1.1网络结构1.1.1卷积层在卷积层,上一层的特征图(Featuremap)被一个可学习的卷积核进行卷积,然后通过一个激活函数(Activationfunction),就可以得到输出特征图.每个输出特征图可以组合卷积多个特征图的值[17]:()lljjxfu1jlllljjijjiMuxkb其中,lju称为卷积层l的第j个通道的净激活(Netactivation),它通过对前一层输出特征图1ljx进行卷积求和与偏置后得到的,ljx是卷积层l的第j个通道的输出。()f称为激活函数,通常可使用sigmoid和tanh等函数。jM表示用于计算lju的输入特征图子集,lijk是卷积核矩阵,ljb是对卷积后特征图的偏置。对于一个输出特征图ljx,每个输入特征图1ljx对应的卷积核lijk可能不同,“*”是卷积符号。1.1.2下采样层下采样层将每个输入特征图通过下面的公式下采样输出特征图[17]:()lljjxfu1()lllljjjjudownxb其中,lju称为下采样层l的第j通道的净激活,它由前一层输出特征图1ljx进行下采样加权、偏置后得到,是下采样层的权重系数,ljb是下采样层的偏置项.符号()down表示下采样函数,它通过对输入特征图1ljx通过滑动窗口方法划分为多个不重叠的nn图像块,然后对每个图像块内的像素求和、求均值或最大值,于是输出图像在两个维度上都缩小了n倍。1.1.3全连接层在全连接网络中,将所有二维图像的特征图拼接为一维特征作为全连接网络的输入.全连接层l的输出可通过对输入加权求和并通过激活函数的响应得到[17]:()lljjxfu1lllluwxb其中,lu称为全连接层l的净激活,它由前一层输出特征图1lx进行加权和偏置后得到的。lw是全连接网络的权重系数,lb是全连接层l的偏置项。1.2反向传播算法神经网络有两类基本运算模式:前向传播和学习.前向传播是指输入信号通过前一节中一个或多个网络层之间传递信号,然后在输出层得到输出的过程.反向传播算法是神经网络有监督学习中的一种常用方法,其目标是根据训练样本和期望输出来估计网络参数.对于卷积神经网络而言,主要优化卷积核参数k、下采样层网络权重¯、全连接层网络权重w和各层的偏置参数b等.反向传播算法的本质在于允许我们对每个网络层计算有效误差,并由此推导出一个网络参数的学习规则,使得实际网络输出更加接近目标值[18]。我们以平方误差损失函数的多分类问题为例介绍反向传播算法的思路.考虑一个多分类问题的训练总误差,定义为输出端的期望输出值和实际输出值的差的平方[17]:211(,,,)2NnnnEwkbty其中,nt是第n个样本的类别标签真值,ny是第n个样本通过前向传播网络预测输出的类别标签.对于多分类问题,输出类别标签常用一维向量表示,即输入样本对应的类别标签维度为正数,输出类别标签的其他维为0或负数,这取决于选择的激活函数类型,当激活函数选为sigmoid,输出标签为0,当激活函数为tanh,输出标签为-1。反向传播算法主要基于梯度下降方法,网络参数首先被初始化为随机值,然后通过梯度下降法向训练误差减小的方向调整.接下来,我们以多个“卷积层-采样层”连接多个全连接层的卷积神经网络为例介绍反向传播算法。首先介绍网络第l层的灵敏度(Sensitivity)[17,18]:llEu其中,l描述了总误差E怎样随着净激活lu而变化.反向传播算法实际上通过所有网络层的灵敏度建立总误差对所有网络参数的偏导数,从而得到使得训练误差减小的方向。1.2.1卷积层为计算卷积层l的灵敏度,需要用下一层下采样层l+1的灵敏度表示卷积层l的灵敏度,然后计算总误差E对卷积层参数(卷积核参数k、偏置参数b)的偏导数.由于下采样层的灵敏度尺寸小于卷积层的灵敏度尺寸,因此需要将下采样层l+1的灵敏度上采样到卷积层l的灵敏度大小,然后将第l层净激活的激活函数偏导与从第l+1层的上采样得到的灵敏度逐项相乘.分别由式(1)和(2),通过链式求导可得第l层中第j个通道的灵敏度[17]:11[()()]jlllljjjljEfuupu其中,()up表示一个上采样操作,符号±表示每个元素相乘.若下采样因子为n,则()up将每个像素在水平和垂直方向上复制n次,于是就可以从l+1层的灵敏度上采样成卷积层l的灵敏度大小.函数()up可以用Kronecker乘积()1nnupxx来实现。然后,使用灵敏度对卷积层l中的参数计算偏导.对于总误差E对偏移量ljb的偏导,可以对卷积层l的灵敏度中所有节点进行求和来计算:,,()jluvluvjEb对于总误差关于卷积核参数的偏导,由式(1),使用链式求导时需要用所有与该卷积核相乘的特征图元素来求偏导:1,,,()()jjlluvuvluvijEpk其中,1,()jluvp是在计算ljx时,与lijk逐元素相乘的1ljx元素.1.2.2下采样层为计算下采样层l的灵敏度,需要用下一层卷积层l+1的灵敏度表示下采样层l的灵敏度,然后计算总误差E对下采样参数权重系数、偏置参数b的偏导数.为计算我们需要下采样层l的灵敏度,我们必须找到当前层的灵敏度与下一层的灵敏度的对应点,这样才能对灵敏度进行递推.另外,需要乘以输入特征图与输出特征图之间的连接权值,这个权值实际上就是卷积核的参数.分别由式(1)和(2),通过链式求导可得第l层第j个通道的灵敏度[17]:11()2(,180(),)jjlllljjfuconvrotkfull其中,对卷积核旋转180度使用卷积函数计算互相关(在Matlab中,可用conv2函数实现),对卷积边界进行补零处理.然后,总误差对偏移量b的偏导与前面卷积层的一样,只要对灵敏度中所有元素的灵敏度求和即可:,,()jluvluvjEb对于下采样权重,我们先定义下采样算子1()jlljddownx,然后可通过下面的公式计算总误差E对的偏导:,,()jjlluvluvjEd这里我们假定下采样层的下一层为卷积层,如果下一层为全连接层,也可以做类似的推导.全连接层l的灵敏度可通过下式计算:11()()llTllwfu输出层的神经元灵敏度可由下面的公式计算:()()LnnLytfu总误差对偏移项的偏导如下:lllllEEubub接下来可以对每个神经元运用灵敏度进行权值更新.对一个给定的全连接层l,权值更新方向可用该层的输入1lx和灵敏度l的内积来表示:1()llTlExw1.2.4网络参数更新过程卷积层参数可用下式更新:lijlijEkkllEbb下采样层参数可用下式更新:llEllEbb全连接层参数可用下式更新:llEww其中,对于每个网络参数都有一个特定的学习率.若学习率太小,则训练的速度慢;若学习率太大,则可导致系统发散.在实际问题中,如果总误差在学习过程中发散,那么将学习率调小;反之,如果学习速度过慢,那么将学习率调大.1.3常用的其他网络结构和方法1.3.1卷积层传统卷积神经网络的卷积层采用线性滤波器与非线性激活函数,一种改进的方法在卷积层使用多层感知机模型作为微型神经网络,通过在输入图像中滑动微型神经网络来得到特征图,该方法能够增加神经网络的表示能力,被称为Networkinnet-work[19].为了解决既能够保证网络的稀疏性,又能够利用稠密矩阵的高性能计算,Szegedy等[11]提出Inception网络.Inception网络的一层含有一个池化操作和三类卷积操作:1*1、3*3、5*5卷积。1.3.2池化池化(Pooling)是卷积神经网络中一个重要的操作,它能够使特征减少,同时保持特征的局部不变性.常用的池化操作有:空间金字塔池化(Spatialpyramidpooling,SPP)[10]、最大池化(Maxpooling)、平均池化(Meanpooling)、随机池化(Stochasticpooling)[20]等.1.3.3激活函数常用激活函数有:ReLU[8]、LeaklyReLU[21]、ParametricReLU、RandomizedReLU、ELU等.1.3.4损失函数损失函数的选择在卷积神经网络中起重要作用,代表性的损失函数有:平方误差损失、互熵损失(Crossentropyloss)、Hinge损失等.1.3.5优化方法和技巧卷积神经网络常用的优化方法包含随机梯度下降方法(Stochasticgradientdescent,SGD),常用的技巧有权值初始化[8]、权值衰减(Weightdecay)[18]、Batchnormalization[22]等.1.4卷积神经网络的优势卷积神经网络在下采样层可以保持一定局部平移不变形,在卷积层通过感受野和权值共享减少了神经网络需要训练的参数的个数.每个神经元只需要感受局部的图像区域,在更高层将这些感受不同局部区域的神经元综合起来就可以得到全局的信息.因此,可以减少网络连接的数目,即减少神经网络需积神经网络以其权值共享的特殊结构在图像理解领域中有着独特的优越性,通过权值共享降低了网络的复杂性.总之,卷积神经网络相比于一般神经网络在图像理解中有其特殊的优点:1)网络结构能较好适应图像的结构;2)同时进行特征提取和分类,使得特征提取有助于特征分类;3)权值共享可以减少网络的训练参数,使得神经网络结构变得更简单、适应性更强.要训练的权值参数的个数.由于同一特征通道上的神经元权值相同,所以网络可以并行学习,这也是卷积网络相对于神经元彼此相连网络的一大优势.

1 / 5
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功