神经网络与神经网络控制

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

1第5章神经网络与神经网络控制推荐课后阅读资料SimonHaykin.神经网络的综合基础(第2版).清华大学出版社,2001MartinT.Hagan.神经网络设计.机械工业出版社,200235.1概述5.1.1生物神经元模型5.1.2人工神经元模型5.1.3人工神经网络模型5.1.4神经网络的学习方法45.1.1生物神经元模型人脑大约包含1012个神经元,分成约1000种类型,每个神经元大约与102~104个其他神经元相连接,形成极为错综复杂而又灵活多变的神经网络。每个神经元虽然都十分简单,但是如此大量的神经元之间、如此复杂的连接却可以演化出丰富多彩的行为方式。同时,如此大量的神经元与外部之间的多种多样的连接方式也蕴含了变化莫测的反应方式。67从生物控制论的观点来看,神经元作为控制和信息处理的基本单元,具有下列一些重要的功能与特性:时空整合功能兴奋与抑制状态脉冲与电位转换神经纤维传导速度突触延时和不应期学习、遗忘和疲劳5.1.1生物神经元模型95.1.2人工神经元模型人工神经元是对生物神经元的一种模拟与简化。它是神经网络的基本处理单元。如图所示为一种简化的人工神经元结构。它是一个多输入、单输出的非线性元件。10i11其输入、输出关系可描述为其中,是从其他神经元传来的输入信号;表示从神经元j到神经元i的连接权值;为阈值;称为激发函数或作用函数。njijijixwI1)(iiIfy),,2,1(njxjijwi)(f5.1.2人工神经元模型12激发函数又称为变换函数,它决定神经元(节点)的输出。该输出取决于其输入之和大于或小于内部阈值。函数一般具有非线性特性。下图表示了几种常见的激发函数。1.阈值型函数(见图(a),(b))2.饱和型函数(见图(c))3.双曲函数(见图(d))4.S型函数(见(e))5.高斯函数(见图(f)))(fi)(f5.1.2人工神经元模型13神经元处理活性的理想模式155.1.3人工神经网络模型人工神经网络是以工程技术手段来模拟人脑神经元网络的结构与特征的系统。利用人工神经元可以构成各种不同拓扑结构的神经网络,它是生物神经网络的一种模拟和近似。就神经网络的主要连接型式而言,目前已有数十种不同的神经网络模型,其中前馈型网络和反馈型网络是两种典型的结构模型。16(1).前馈型神经网络前馈型神经网络,又称前向网络(FeedforwardNN)。如图所示,神经元分层排列,有输入层、隐层(亦称中间层,可有若干层)和输出层,每一层的神经元只接受前一层神经元的输入。17从学习的观点来看,前馈网络是一种强有力的学习系统,其结构简单而易于编程;从系统的观点看,前馈网络是一静态非线性映射,通过简单非线性处理单元的复合映射,可获得复杂的非线性处理能力。但从计算的观点看,缺乏丰富的动力学行为。大部分前馈网络都是学习网络,它们的分类能力和模式识别能力一般都强于反馈网络,典型的前馈网络有感知器网络、BP网络等。(1).前馈型神经网络1819(2).反馈型神经网络反馈型神经网络(FeedbackNN)的结构如图所示。如果总节点(神经元)数为N,那么每个节点有N个输入和一个输出,也就是说,所有节点都是一样的,它们之间都可相互连接。20反馈神经网络是一种反馈动力学系统,它需要工作一段时间才能达到稳定。Hopfield神经网络是反馈网络中最简单且应用广泛的模型,它具有联想记忆(Content一AddressibleMemory,CAM)的功能,同时Hopfield神经网络还可以用来解决快速寻优问题。(2).反馈型神经网络21225.1.4神经网络的学习方法学习方法是体现人工神经网络智能特性的主要标志,离开了学习算法,人工神经网络就失去了自适应、自组织和自学习的能力。目前神经网络的学习方法有多种,按有无教师来分类,可分为有教师学习(SupervisedLearning)、无教师学习(UnsupervisedLearning)和再励学习(ReinforcementLearning)等几大类。在有教师的学习方式中,网络的输出和期望的输出(即教师信号)进行比较,然后根据两者之间的差异调整网络的权值,最终使差异变小。在无教师的学习方式中,输入模式进入网络后,网络按照一预先设定的规则(如竞争规则)自动调整权值,使网络最终具有模式分类等功能。再励学习是介于上述两者之间的一种学习方式。5.1.4神经网络的学习方法2324神经网络中常用的几种基本学习方法(1).Hebb学习规则两个神经元同时处于激发状态时,它们之间的连接强度将得到加强,这一论述的数学描述被称为Hebb学习规则。Hebb学习规则是一种无教师的学习方法,它只根据神经元连接间的激活水平改变权值,因此这种方法又称为相关学习或并联学习。25(2).Delta(δ)学习规则δ规则可以误差函数达到最小值。但δ学习规则只适用于线性可分函数,无法用于多层网络。BP网络学习算法称为BP算法,是在δ规则基础上发展起来的,可在多网络上有效地学习。神经网络中常用的几种基本学习方法26(3).竞争式学习竞争式学习属于无教师学习方式。此种学习方式利用不同层间的神经元发生兴奋性联接,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经元产生抑制性联接。在这种联接机制中引入竞争机制的学习方式称为竞争式学习。它的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行竞争识别。神经网络中常用的几种基本学习方法275.2前向神经网络5.2.1感知器网络感知器是一个具有单层神经元的神经网络,并由线性阈值元件组成,是最简单的前向网络。它主要用于模式分类,单层的感知器网络结构如下图所示。2829感知器的一种学习算法:随机地给定一组连接权;输入一组样本和期望的输出(亦称之为教师信号);计算感知器实际输出;修正权值;选取另外一组样本,重复上述2)~4)的过程,直到权值对一切样本均稳定不变为止,学习过程结束。单层感知器--与运算y=f(v)21iiiuwxf(v)x1bx2w1w221iiivwxbx1x2d000010100111逻辑“与”真值表11=1×0.1+1×0.1=0.2=-0.4y=0b=-0.6=0.1=0.1111()0.7wwdyx误差e=d-y=1设学习率η为0.630315.2.2BP网络误差反向传播神经网络,简称BP网络(BackPropagation),是一种单向传播的多层前向网络。在模式识别、图像处理、系统辨识、函数拟合、优化计算、最优预测和自适应控制等领域有着较为广泛的应用。如图是BP网络的示意图。5.2前向神经网络3233误差反向传播的BP算法简称BP算法,其基本思想是最小二乘算法。它采用梯度搜索技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。5.2前向神经网络BP算法的学习过程由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转入反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使输出误差信号最小。5.2前向神经网络34激活函数必须处处可导一般都使用S型函数使用S型激发函数时BP网络输入与输出关系输入输出1122...nnnetxwxwxw1f()1enetynet5.2前向神经网络35输出的导数211f'()(1)1e(1e)-netnetnetyy根据S型激活函数的图形可知,对神经网络进行训练,应该将net的值尽量控制在收敛比较快的范围内5.2前向神经网络36BP网络的标准学习算法学习的过程:神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。学习的本质:对各连接权值的动态调整学习规则:权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。37学习的类型:有导师学习核心思想:将输出误差以某种形式通过隐层向输入层逐层反传学习的过程:信号的正向传播误差的反向传播将误差分摊给各层的所有单元---各层单元的误差信号修正各单元权值BP网络的标准学习算法38BP网络的标准学习算法-学习过程正向传播:输入样本--输入层--各隐层--输出层判断是否转入反向传播阶段:若输出层的实际输出与期望的输出(教师信号)不符误差反传误差以某种形式在各层表示--修正各层单元的权值网络输出的误差减少到可接受的程度进行到预先设定的学习次数为止39BP网络的标准学习算法输入层有n个神经元,隐含层有p个神经元,输出层有q个神经元变量定义输入向量;隐含层输入向量;隐含层输出向量;输出层输入向量;输出层输出向量;期望输出向量;12,,,nxxxx12,,,phihihihi12,,,phohohoho12,,,qyiyiyiyi12,,,qyoyoyoyo12,,,qdddod401234123y2y1输入层隐含层输出层w11w12w21w31w22w23w24w13w14w34w33w32w1y1w1y2w2y1w2y2w4y2w3y21()()nihihhihikwxkb()f(())hhhokhik1()()poohohhyikwhokb()f(())ooyokyikw4y1X1(k)X3(k)X2(k)1(()())()()oooNNhohohdkyokyokwwhokqohoho=1N+1Nihihi(d(k)w)f(hi(k))w=w+hx(k)BP网络的标准学习算法输入层与隐含层的连接权值:隐含层与输出层的连接权值:隐含层各神经元的阈值:输出层各神经元的阈值:样本数据个数:激发函数:误差函数:ihwf()howhb1,2,kmob211(()())2qoooedkyok411234123y2y1输入层隐含层输出层w11w12w21w31w22w23w24w13w14w34w33w32w1y1w1y2w2y1w2y2w4y2w3y21()()nihihhihikwxkb()f(())hhhokhik1()()poohohhyikwhokb()f(())ooyokyikw4y1X1(k)X3(k)X2(k)1(()())()()oooNNhohohdkyokyokwwhokqohoho=1N+1Nihihi(d(k)w)f(hi(k))w=w+hx(k)BP网络的标准学习算法第一步,网络初始化给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值ε和最大学习次数M。第二步,随机选取第κ个输入样本及对应期望输出12()(),(),,()nkxkxkxkx12()(),(),,()qkdkdkdkod1234123y2y1输入层隐含层输出层w11w12w21w31w22w23w24w13w14w34w33w32w1y1w1y2w2y1w2y2w4y2w3y21()()nihihhihikwxkb()f(())hhhokhik1()()poohohhyikwhokb()f(())ooyokyikw4y1X1(k)X3(k)X2(k)1(()())()()oooNNhohohdkyokyokwwhokqohoho=1N+1Nihihi(d(k)w)f(hi(k))w=w+hx(k)42BP网络的标准学习算法第三步,计算隐含层及输出层各神经元的输入和输出1()()1,2,,nhihihihikwxkbhp()f(())1,2,,hhhokhikhp1()()1,2,pohohohyikwhokboq()f(())1,2,ooyokyikoq4312

1 / 102
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功