绝对经典RBF神经网络

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

RBF网络特点只有一个隐层,且隐层神经元与输出层神经元的模型不同。隐层节点激活函数为径向基函数,输出层节点激活函数为线性函数。隐层节点激活函数的净输入是输入向量与节点中心的距离(范数)而非向量内积,且节点中心不可调。隐层节点参数确定后,输出权值可通过解线性方程组得到。隐层节点的非线性变换把线性不可分问题转化为线性可分问题。局部逼近网络(MLP是全局逼近网络),这意味着逼近一个输入输出映射时,在相同逼近精度要求下,RBF所需的时间要比MLP少。具有唯一最佳逼近的特性,无局部极小。合适的隐层节点数、节点中心和宽度不易确定。222exprr22exp11rr2/1221rr1.Gauss(高斯)函数:2.反演S型函数:3.拟多二次函数:σ称为基函数的扩展常数或宽度,σ越小,径向基函数的宽度越小,基函数就越有选择性。径向基函数(RBF)全局逼近和局部逼近全局逼近网络局部逼近网络当神经网络的一个或多个可调参数(权值和阈值)对任何一个输出都有影响,则称该神经网络为全局逼近网络。对网络输入空间的某个局部区域只有少数几个连接权影响网络的输出,则称该网络为局部逼近网络学习速度很慢,无法满足实时性要求的应用学习速度快,有可能满足有实时性要求的应用RBF网络的工作原理函数逼近:以任意精度逼近任一连续函数。一般函数都可表示成一组基函数的线性组合,RBF网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。分类:解决非线性可分问题。RBF网络用隐层单元先将非线性可分的输入空间设法变换到线性可分的特征空间(通常是高维空间),然后用输出层来进行线性划分,完成分类功能。RBF神经网络两种模型正规化网络RN广义网络GN通用逼近器模式分类基本思想:通过加入一个含有解的先验知识的约束来控制映射函数的光滑性,若输入一输出映射函数是光滑的,则重建问题的解是连续的,意味着相似的输入对应着相似的输出。基本思想:用径向基函数作为隐单元的“基”,构成隐含层空间。隐含层对输入向量进行变换,将低维空间的模式变换到高维空间内,使得在低维空间内的线性不可分问题在高维空间内线性可分。两种模型的比较隐节点=输入样本数隐节点<输入样本数所有输入样本设为径向基函数的中心径向基函数的中心由训练算法确定径向基函数取统一的扩展常数径向基函数的扩展常数不再统一由训练算法确定没有设置阈值输出函数的线性中包含阈值参数,用于补偿基函数在样本集上的平均值与目标值之平均值之间的差别。RNGN函数逼近问题(内插值)一般函数都可表示成一组基函数的线性组合,RBF网络相当于用隐层单元的输出构成一组基函数,然后用输出层来进行线性组合,以完成逼近功能。①给定样本数据②寻找函数,使其满足:)(iipFtQi11(CPG2(CPG)(QCPG1p2pQp1w2wQwPF},,{21QippppP},{21QittttT1.网络隐层使用Q个隐节点。2.把所有Q个样本输入分别作为Q个隐节点的中心。3.各基函数取相同的扩展常数。4.确定权值可解线性方程组:设第j个隐节点在第i个样本的输出为:可矩阵表示:,若R可逆,则解为根据Micchelli定理可得,如果隐节点激活函数采用径向基函数,且各不相同,则线性方程组有唯一解。Qi1iQjjijtppGw)(1)(jiijppGTWTW1Qppp,...,,21)()(1QjjijicpwpFRBF网络输出举例:RBF网络实现函数逼近1.问题的提出:假设如下的输入输出样本,输入向量为[-11]区间上等间隔的数组成的向量P,相应的期望值向量为T。P=-1:0.1:1;T=[-0.9602-0.5770-0.07290.37710.64050.66000.46090.1336-0.2013-0.4344-0.5000-0.3930-0.16470.09880.30720.39600.34490.1816-0.0312-0.2189-0.3201];%以输入向量为横坐标,期望值为纵坐标,绘制训练用样本的数据点。figure;plot(P,T,'+')title('训练样本')xlabel('输入矢量P')ylabel('目标矢量T')gridon%目的是找到一个函数能够满足这21个数据点的输入/输出关系,其中一个方法是通过构建径向基函数网络来进行曲线拟合2.网络设计:设计一个径向基函数网络,网络有两层,隐含层为径向基神经元,输出层为线性神经元。p=-3:0.1:3;a=radbas(p);figure;plot(p,a)title('径向基传递函数')xlabel('输入p')ylabel('输出a')gridon%每一层神经元的权值和阈值都与径向基函数的位置和宽度有关系,输出层的线性神经元将这些径向基函数的权值相加。如果隐含层神经元的数目足够,每一层的权值和阈值正确,那么径向基函数网络就完全能够精确的逼近任意函数。a2=radbas(p-1.5);a3=radbas(p+2);a4=a+a2*1+a3*0.5;figure;plot(p,a,'b-',p,a2,'b-',p,a3,'b-',p,a4,'m--');title('径向基传递函数之和')xlabel('输入p')ylabel('输出a')gridon%应用newb()函数可以快速构建一个径向基神经网络,并且网络自动根据输入向量和期望值进行调整,从而进行函数逼近,预先设定均方差精度为eg以及散布常数sc。eg=0.02;sc=1;net=newrb(P,T,eg,sc);3.网络测试:将网络输出和期望值随输入向量变化的曲线绘制在一张图上,就可以看出网络设计是否能够做到函数逼近。figure;plot(P,T,'+');xlabel('输入');X=-1:0.01:1;Y=sim(net,X);holdon;plot(X,Y);holdoff;legend('目标','输出')gridon分类问题低维空间:线性不可分高维空间:线性可分空间转换关于对单层感知器的讨论可知,若N维输入样本空间的样本模式是线性可分的,总存在一个用线性方程描述的超平面,使两类线性可分样本截然分开。若两类样本是非线性可分的,则不存在一个这样的分类超平面。但根据Cover定理,非线性可分问题可能通过非线性变换获得解决。Cover定理可以定性地表述为:将复杂的模式分类问题非线性地投射到高维空间将比投射到低维空间更可能是线性可分的Φ1(x)∑X2X1Φ2(x)w11w11Outputy举例:逻辑运算异或的分类X1X2X1X2000011101110XOR异或空间变换前22||||21exp),(ikiikXXXXX1X2000.13531010.36790.3679100.36790.36791110.1353x1基函数21||||1uxex22||||2uxexTu]1,1[1Tu]0,0[2x2x1x2空间变换后RBF学习算法RBF学习的三个参数:①基函数的中心②方差(扩展常数)③隐含层与输出层间的权值ijwiit当采用正归化RBF网络结构时,隐节点数即样本数,基函数的数据中心即为样本本身,参数设计只需考虑扩展常数和输出节点的权值。当采用广义RBF网络结构时,RBF网络的学习算法应该解决的问题包括:如何确定网络隐节点数,如何确定各径向基函数的数据中心及扩展常数,以及如何修正输出权值。两种方法中心的选取1.中心从样本输入中选取2.中心自组织选取常采用各种动态聚类算法对数据中心进行自组织选择,在学习过程中需对数据中心的位置进行动态调节。常用的方法是K-means聚类,其优点是能根据各聚类中心之间的距离确定各隐节点的扩展常数。由于RBF网的隐节点数对其泛化能力有极大的影响,所以寻找能确定聚类数目的合理方法,是聚类方法设计RBF网时需首先解决的问题。除聚类算法外,还有梯度训练方法、资源分配网络(RAN)等一般来说,样本密集的地方中心点可以适当多些,样本稀疏的地方中心点可以少些;若数据本身是均匀分布的,中心点也可以均匀分布。总之,选出的数据中心应具有代表性。径向基函数的扩展常数是根据数据中心的散布而确定的,为了避免每个径向基函数太尖或太平,一种选择方法是将所有径向基函数的扩展常数设为Id2max一.自组织中心选取法1989年,Moody和Darken提出了一种由两个阶段组成的混合学习过程的思路。两个步骤:①无监督的自组织学习阶段②有监督学习阶段其任务是用自组织聚类方法为隐层节点的径向基函数确定合适的数据中心,并根据各中心之间的距离确定隐节点的扩展常数。一般采用Duda和Hart1973年提出的k-means聚类算法。其任务是用有监督学习算法训练输出层权值,一般采用梯度法进行训练。在聚类确定数据中心的位置之前,需要先估计中心的个数(从而确定了隐节点数),一般需要通过试验来决定。由于聚类得到的数据中心不是样本数据本身,因此用表示第n次迭代时的中心。应用K-means聚类算法确定数据中心的过程如下。(1)初始化。选择个互不相同的向量作为初始聚类中心(2)计算输入空间各样本点与聚类中心点的欧式距离I)(nti)0(it),3,2,1(Ii)(ntXik),3,2,1(Ii),3,2,1(NkXI1.中心学习(3)相似匹配。令代表竞争获胜隐节点的下标,对每一个输入样本根据其与聚类中心的最小欧式距离确定其归类,即当时,被归为第类,从而将全部样本划分为个子集每个子集构成一个以聚类中心为典型代表的聚类域。ikX)(min)(ntXXiikik)(kXikXiI)(),(),(21nUnUnUI(4)更新各类的聚类中心。采用竞争学习规则进行调整将n值加1,转到第(2)步。重复上述过程直到。),()()()1(ntntXntntiikiiii其他)()1(ntntii2.确定扩展常数各聚类中心确定后,可根据各中心之间的距离确定对应径向基函数的扩展常数。令则扩展常数可取为pipittdminiid为重叠系数3.学习权值权值的学习可以用LMS学习算法注意:①LMS算法的输入为RBF网络隐含层的输出②RBF网络输出层的神经元只是对隐含层神经元的输出加权和。因此RBF网络的实际输出为其中用LMS方法求解用伪逆方法求解nWnGnYJjNknynYkj,2,1;,,2,1,nenXnWnW1DGWTNkdddD,,1为期望响应是矩阵的伪逆DGGTTGGGG1伪逆的求法kigG奇异矩阵或非方阵的矩阵不存在逆矩阵,若XAX=A,AXA=X则X称为A的伪逆阵。在matlab中用pinv(A)求伪逆2221expikikitXgIiNk,,2,1;,2,1ijwWJjIi,2,1;,,2,1二.有监督选取中心算法RBF中心以及网络的其他自由参数都是通过有监督的学习来确定,以单输出的RBF为例定义目标函数误差信号寻求网络的自由参数(与中心有关)使目标函数达到最小NkkeE1221N是训练样本的个数IiCikikkkkkitXGwdXYde11,,iiiwtEiC1.输出层权值NkCikkikkiintXGnenwnenenEnwnE1iwnEnwnwnwnwiiiii11Ii,,2,12.隐含层RBF中心11'2iikCikNkkiintXntXGnenwntnEintnEntntiii21Ii,,2,1

1 / 29
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功