第11章--PID神经网络

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

付冬梅信息工程学院自动化系2008-10-29第十章PID神经网络10.1绪论10.2PID神经元的计算方法10.3PID神经元网络10.4SPID网络的反传算法10.5PID网络初值权重的选取和等价系统第十章PID神经网络的讲述内容10.1绪论1)传统控制系统的局限性由于被控对象的复杂性、大规模和确定性、分布性,要实现自动控制,那么基于传统精确数学模型的控制理论就显现出极大的局限性。传统的控制理论虽然也有办法对付控制对象的不确定性和复杂性,如自适应控制和鲁棒控制。自适应控制是以自动调节控制器的参数,使其与被控对象和环境达到良好的“匹配”,以削弱不确定性的影响。从本质上说,自适应控制是通过估计系统某些重要参数,以补偿的方法克服系统参数在一定范围内的慢变化。鲁棒控制是在一定的外部干扰和内部参数变化作用下,以提高系统的灵敏度为宗旨来抵御不确定性的。根据这一思想和原则所导出的算法,其鲁棒的区域是很有限的。10.1绪论2)人工神经网络控制的系统的特点和弱点:一般神经网络的弱点,包括以下问题:⑴一般神经元网络的学习和训练时间很长。⑵由于神经网络结构确定往往要通过反复实验才可能确定,所以给控制器实际应用方面带来困难。⑶有的网络在学习时会陷入局部极小(BP),有的网络关键参数确定有困难(RBF)。⑷传统系统神经网络的结构、参数和机能,难以与控制系统所要求的响应快、超调小、无静差、静态指标相联系。⑸传统的多层前向神经网络的神经元仅具有静态输入输出特性,用它构成控制系统时必须附加其它动态部件。10.1绪论3)PID控制的特点及其和神经元网络的结合0()()()()tPIDdetutketkedkdt,,PIDkkk配合适应.可得到快速敏捷.平稳准确的调节效果.但其合理、快速、实时的确定是关键。PID在本质上是线性控制规律,具有传统控制理论的弱点——只适合于线性SISO系统,在复杂系统中控制效果不佳。10.1绪论神经元网络和PID控制结合的两种流行方法:被控对象神经网络ddtPkIkDk()yt()rt被控对象ddt1W2W3W()yt()rt()et缺点:结构复杂、不能避免神经网络自身的缺陷。缺点:a:仍是选择PID参数的方法。b:神经元起的作用相当于单层感知器,只具有线性分类能力.10.1绪论4)PID神经元网络(PIDNN)的特点和结构形式PIDNN的主要特点如下;PIDNN属于交层前向神经元网络;PIDNN参照PID控制规律构成,结构比较简单、规范。PIDNN的初值按PID控制规律的基本原则确定,加快了收敛速度,不易陷入极小点;更重要的是可以利用现有的PID控制的大量经验数据确定网络权重初值,使控制系统保持初始稳定,使系统的全局稳定成为可能。PIDNN可采用“无教师”的学习方式,根据控制效果进行在线自学习和调整,使系统具备较好的性能。PIDNN可同时适用于SISO以及MIMO控制系统。PIDNN的结构形式:10.1绪论PID()rt()yt()ut()rt()yt()utSPIDNN对象PIDPID1r2ynrny1unu1()rt1u2()rt2()ut2()yt1()ytMPIDNN多变量对象10.2PID神经元的计算方法①比例元的输入为11()()njijijnetkwxk1)比例元②比例元的状态函数()()jjuknetk③比例元的输出函数10.2PID神经元的计算方法2)积分元()[(),(1)](1)()jIijjjukgnetkukuknetk积分元的输入和输出函数与比例函数相同。3)微分元()[(),(1)]()(1)jDjjjjukgnetknetknetknetk微分元的输入和输出函数与比例函数相同。10.3PID神经元网络将PID和一般神经元网络融合起来的方法包括两个步骤:①将PID功能引入神经网络的神经元中,构成PID神经元(第二节完成);②按照PID神经元的控制规律的基本模式,用这些基本神经元构成新的神经元网络,并找到合理有效的计算与学习方法(下节完成)。10.3PID神经元网络1、SPIDNN的结构形式rv1net1net1u1x2net2u2x11w12w13w21w22w23wr1net1net1u1x2net2u2xr1net3net3u3x2net2u2x1w2w3wry10.3PID神经元网络2、SPIDNN的前向计算模型SPIDNN的前向算法根据网络的两个输入值,按网络当前权重值和各层状态函数和输出函数形成网络的输出。1)输入层SPIDNN的输入层有两个神经元,在构成控制系统可分别输入系统被调量的给定值和实际值。在任意采样时刻k,其输入:12()()()()netkrknetkyk(10.1)10.3PID神经元网络()()iiuknetk输入层神经元的状态为:(10.2)输入层神经元的输出为:1,()1()(),1()11,()1jiijjukxkukukuk(10.3)以上各式中i=1,2;j=1,2,3。10.3PID神经元网络2)隐含层隐含层是神经元网络中最重要的层次,SPIDNN的隐含层有三个神经元,分别为比例元、积分元和微分元,它们各自的输入总值均为:2'1()()jijiinetkxk(10.4)式中:j=1,2,3;为输入层至隐含层的连接权重值。ij比例元的状态为:)()('1'1knetku积分元的状态为:(10.5)'''222()(1)()ukuknetk微分元的状态为:'''333()()(1)uknetknetk(10.6)(10.7)隐含层各神经元的输出为10.3PID神经元网络'''''1,()1()(),1()11,()1jjjjjukxkukukuk(10.8)3)输出层SPIDNN的输出层结构比较简单,它只包含一个神经元,完成网络的总和输出功能,其总输入为:3''1()()jjjnetkxk(10.9)10.3PID神经元网络输出层神经元的输出为:1,()1()(),1()11,()1ukxkukukukSPIDNN的输出就等于输出层神经元的输出:)(k()()kxk输出层神经元的状态函数与比例元的状态函数相同:()()uknetk(10.10)(10.11)(10.12)10.4PID神经网络的反传算法反传算法即误差反向传播学习算法,它完成网络权重值的修改,完成学习和记忆的功能。SPIDNN的反传算法与传统多层前向神经元网络的反传算法类似。设训练输入矢量的集合为:12,,,,PRRRR其中某个训练输入矢量为:12(,)TPPPRrr(1),(2),(),pipipipirrrrlSPIDNN的实际输出矢量的集合为:12(,,,,)TpVvvv式中(1),(2),,()ppppvvvvll为采样点数。(10.13)(10.14)10.4PID神经网络的反传算法SPIDNN的理想输出矢量的集合为:''''12,,,,pVvvv式中''''(1),(2),,()ppppvvvvlSPIDNN训练和学习的目的是使网络实际输出和理想输出的对应时间序列的偏差平方均值为最小:2'11()()lkEvkvkl按梯度法调节SPIDNN权重值,经n0步训练和,SPIDNN各层权重值的迭代方程为:00(1)()EWnWnW(10.16)(10.17)(10.15)10.4PID神经网络的反传算法1)隐含层至输出层隐含层至输出层的权重值迭代公式为:''00'(1)()jjjjEwnwnw'2'1112[()()][()()]jjllkkEEvxunetwvxunetwvkvkvkvkvll式中1vxxx(10.18)(10.19)(注意到(10.16)式)(10.20)注意到(10.12)式,可求出:10.4PID神经网络的反传算法1unetnetnet注意到(10.11)式,可求出:1xuuu(10.21)注意到(10.10)式,可求出:(10.22)由式(10.8)和(10.9),可求出:)()('31''''kxkx(10.23)10.4PID神经网络的反传算法''2[()()]()jjEvkvkxkwl令''()2[()()]kvkvk(10.24)式可简化为:''11()()ljkjEkxkwl2)输出层至隐含层输入层至隐含层的权重值迭代公式为00(1)()ijijijijEwnwnw将式(10.20)至式(3.23)代回式(10.19),可得:(10.24)(10.25)(10.26)10.4PID神经网络的反传算法由误差反向传播关系,其中''''jjjijjjjijxunetEEvxunetwvxunetxunetw由式(10.21)至式(10.23)结果,可以得出:(10.27)11()lkEvxukvxunetl3''''1jjjjjjnetwxwxx由式(10.9),可求出:由式(10.8),可求出:''''1jjjjxuuu(10.28)(10.29)(10.30)10.4PID神经网络的反传算法如果和相等或相差很小时,上式的结果可能会趋于无穷大,计算机无法进行计算,因此要采用近似方法。'()jnetk'(1)jnetk对于神经元网络权重值的收敛,收敛方向是最重要的,收敛速度还可以通过其他因子调节。所以,可以用和的相对变化量的符号函数近似代替式(10.31),即采用'jnet'ju式(10.27)中的''''''''()(1)()(1)jjjjjjjjuuukuknetnetnetknetk(10.31)''''()(1)sgn()(1)jjjjukuknetknetk代替''jjunet10.4PID神经网络的反传算法由式(10.4),可求出'(())()jjijiijijnetxkwxkww将式(10.28)至式(10.32)代回式(10.27),可得''''''1()(1)1()sgn()()(1)ljjjikijjjukukEkwxkwlnetknetk令''''''()(1)()()sgn()(1)jjjjjukukkkwnetknetk则式(10.33)可简化为:11()()likijEkxkwl(10.35)(10.34)(10.33)(10.32)10.5PID网络初值权重的选取和等价系统1)神经元网络连接权重初值选取的重要性神经元网络连接权重初值的选取对于神经元网络的学习和收敛速度是很重要的,因为连接权重初值决定了网络学习的起始点和收敛的初始方向。恰当的选取连接权重初值,可使网络的学习和收敛速度加快,且能避免陷入局部最小,达到事半功倍的效果。目前对传统神经元网络连接权重初值的选取尚无固定的准则,一般只能取随机数,这将导致出现以下两个问题。10.5PID网络初值权重的选取和等价系统(1)连接权重初值取随机数,网络学习的起始点和收敛的初始方向将是随机的,要使收敛方向归于正确必须要经过反复的训练和学习,这是一般神经元网络收敛速度慢的原因之一。同时,对于采用反传算法的网络,随即的起点将导致收敛陷入局部最小点。(2)在神经元网络作为控制系统中的控制器时,网络连接权重初值的选取还关系着系统的稳定性。如果网络连接权重初值取随机数,按此初值工作的神经元网络控制器很难保证系统初始工作的稳定性。在实际控制过程中,如果此神经元网络控制系统初

1 / 33
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功