反馈型神经网络

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

(1)前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。(2)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。(3)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。(4)两者都有局部极小问题。一、网络结构单层全反馈型神经网络结构输入输出关系为:θ1θnθ2I1I2InY1Y2YnX1X2Xnw11w12w1nw21w22w2nwn1wn2wnn………………1()(),?1,2,njjijijjiYfxfwYIjn二、网络状态(1)轨迹经过一段时间t(t0)后不会再延伸,而永远停留在X(t0+t)状态,这时称网络收敛到一个稳定点或平衡点。在一个反馈网络中,可能存在有多个稳定点,根据不同的情况,这些稳定点可分为:①渐近稳定点Xe②不稳定的平衡点Xf③网络的伪稳定点(2)轨迹为环状,称为极限环。(3)如果X(t)的轨迹在某个确定的范围内变化,但既不重复又不能停下来,状态变化为无穷多个,而轨迹也不发散到无穷远,这种现象成为混沌(Chaos).(4)如果X(t)的轨迹随时间一直延伸到无穷远,此时状态发散,而系统的输出也发散。三、网络的设计要求(1)网络的稳定性(2)网络的稳定点(3)稳定点的吸引域美国加州理工学院物理学家J.J.Hopfield教授于1982年提出一种单层反馈神经网络,后来人们将这种反馈网络称作Hopfield网。Hopfield网络是单层对称全反馈网络,根据激活函数选取的不同,可分为离散型(DHNN)和连续性(CHNN)两种。DHNN:作用函数为hadlim,主要用于联想记忆。CHNN:作用函数为S型函数,主要用于优化计算。1、网络结构2、网络的工作方式3、网络的稳定性分析4、DHNN网络设计一、网络结构DHNN的结构是一个单层结构的全反馈网络,有n个节点,W是一个n×n的对称零对角权值矩阵,θ为n维阈值向量。DHNN网中的每个神经元都有相同的功能,其输出称为状态,用xj表示。所有神经元状态的集合就构成反馈网络的状态:X=[x1,x2,…,xn]T反馈网络的输入就是网络的状态初始值,表示为:X(0)=[x1(0),x2(0),…,xn(0)]Tx1x2…xi…xnT1T2…Ti…Tn10sgn10jjjjnetxnetnet()j=1,2,…,nDHNN网的转移函数常采用符号函数式中净输入为nijiijjTxwnet1)(j=1,2,…,n对于DHNN网,一般有wii=0,wij=wji。反馈网络稳定时每个神经元的状态都不再改变,此时的稳定状态就是网络的输出,表示为lim()ttX二、网络的工作方式(1)串行(异步)工作方式任一时刻t,只有某一个节点i(随机地或确定性地选择)变化,而其余n-1个节点的状态保持不变,即:(2)并行(同步)工作方式任一时刻t,所有的节点或部分节点改变状态,即:(1)sgn(())~(1)()iijjXtnettiXtXtjiitXwtXijnjjii))(sgn()1(1三、网络的稳定性分析(1)网络的状态稳定:若网络从一个初态X(t0)出发,经过一个有限时刻t,网络的状态不再发生变化,即:则称网络是稳定的,这时所有的节点输出不再变化,网络稳定在某一状态。如果网络是稳定的,它可以从任一初态收敛到一个稳态。0)()(00tttXtttX(a)(b)(c)有限环:若网络是不稳定的,由于DHNN网每个节点的状态只有1和-1两种情况,网络不可能出现无限发散的情况,而只可能出现限幅的自持振荡,这种网络称为有限环网络。混沌:如果网络状态的轨迹在某个确定的范围内变迁,但既不重复也不停止,状态变化为无穷多个,轨迹也不发散到无穷远,这种现象称为混沌。(a)(b)(c)(a)(b)(c)网络达到稳定时的状态X,称为网络的吸引子。如果把问题的解编码为网络的吸引子,从初态向吸引子演变的过程便是求解计算的过程。若把需记忆的样本信息存储于网络不同的吸引子,当输入含有部分记忆信息的样本时,网络的演变过程便是从部分信息寻找全部信息,即联想回忆的过程。定义:若网络的状态X满足X=f(net)=f(WX-T)则称X为网络的吸引子。(2)稳定性定理定理1:当网络工作在异步方式下,满足wij=wji,wii=0,i、j=1,2,…,n,则能量函数单调下降,且网络必定稳定。定理5.1证明:定义网络的能量函数为:令网络的能量改变量为ΔE,状态改变量为ΔX,有1111122nnnTTijijiiijiEwxxTxXWXXTEEt1Et)()1()(tttXXX将代入上式,并考虑到W为对称矩阵,有1212EEt111[()()][()()][()()][()()()]22()()()()()()[()]()()TTTTTTTTTEtttttttttttttttttTttXXWXXXXTXWXXTXWXXWXXTXWXXWX()[0,...,0,(),0,...,0]TjtxtX2121()()[()]()()()njijijjjjijjEtxtwxTxtwxtnett对于DHNN网络的任一个节点i,能量函数的变化可能有以下几种情况:因此,网络无论在什么条件下都能保证△E≤0,这样就保证了网络的稳定性和收敛性。1()1,()0,(1)1,0,02()1,()0,(1)1,2,03()1,()0,(1)1,2,04()1,()0,(1)1,0,0jjjjjjjjjjjjjjjjXtnettXtXEXtnettXtXEXtnettXtXEXtnettXtXE(1)sgn(())jjXtnett()()()jjEtxtnett由于网络中各节点的状态只能取1或–1,能量函数E(t)作为网络状态的函数是有下界的,因此网络能量函数最终将收敛于一个常数,此时ΔE(t)=0。综上所述,当网络工作方式和权矩阵均满足定理1的条件时,网络最终将收敛到一个吸引子。定理2:当网络工作在异步方式下,满足wij=wji,i、j=1,2,…,n,则能量函数单调下降,且网络必定稳定。定理3:当网络工作在并行方式下,满足wij=wji,则网络或者收敛于一个稳定点,或者收敛于极限环为2的一个周期解。证明:在并行工作方式时,其能量函数可以用下式表示:11(1)()(()(1))2211(1)()[(1)()]22ijijiiiijiTTEwXtXtTXtXtXtWXtTXtXt;;nnnnXRWRIR11(1)()[(1)()]2211()(1)[()(1)]2211[()][(1)(1)][(1)(1)]221[()][(1)(1)]21[()][(1)(1)]2TTTTTTTTTEXtWXtTXtXtXtWXtTXtXtXtWXtXtTXtXtXtWTXtXtNETtXtXt0(1)(1)(1)(1)2(1)1,(1)12(1)1,(1)1iiiiiiiiXtXtXtXtXtXtXtXt由于在NET(t)中的每个分量NETi(t)与在X(t+1)中每个分量Xi(t+1)同号,因而成立。所以△E≤0。现在考虑在稳定点的情况,即△E=0的情况:若X(t)=X(t+1)=X(t-1),则△E=0,且网络达到稳定。若X(t)≠X(t+1)=X(t-1),则△E=0,且网络到达周期为2的极限环。证毕。[()][(1)(1)]0THtXtXti推论:(1)如果W为一个正定矩阵,Ti=0、对所有的i成立,则:网络必定达到稳定收敛。(2)如果W为一个负定矩阵,Ti=0、对所有的i成立,则:网络周期振荡,极限环为2。(1)()(1)sgn(())()XtXtXtWXtXt(1)sgn(())()(1)()(1)XtWXtXtXtXtXt以上分析表明,在网络从初态向稳态演变的过程中,网络的能量始终向减小的方向演变,当能量最终稳定于一个常数时,该常数对应于网络能量的极小状态,称该极小状态为网络的能量井,能量井对应于网络的吸引子。性质1:若X是网络的一个吸引子,且阈值T=0,在sgn(0)处,xj(t+1)=xj(t),则-X也一定是该网络的吸引子。证明:∵X是吸引子,即X=f(WX),从而有f[W(-X)]=f[-WX]=-f[WX]=-X∴-X也是该网络的吸引子。性质2:若Xa是网络的一个吸引子,则与Xa的海明距离dH(Xa,Xb)=1的Xb一定不是吸引子。证明:不妨设x1a≠x1b,xja=xjb,j=2,3,…,n。∵w11=0,由吸引子定义,有)()(2112111nibiiniaiiaTxwfTxwfx由假设条件知,x1a≠x1b,故∴-Xb不是该网络的吸引子。)(211b1nibiiTxwfx能使网络稳定在同一吸引子的所有初态的集合,称为该吸引子的吸引域。定义2若Xa是吸引子,对于异步方式,若存在一个调整次序,使网络可以从状态X演变到Xa,则称X弱吸引到Xa;若对于任意调整次序,网络都可以从状态X演变到Xa,则称X强吸引到Xa。定义3若对某些X,有X弱吸引到吸引子Xa,则称这些X的集合为Xa的弱吸引域;若对某些X,有X强吸引到吸引子Xa,则称这些X的集合为Xa的强吸引域。例.1设有3节点DHNN网,用无向图表示如下,权值与阈值均已标在图中,试计算网络演变过程的状态。x1-0.1-0.50.2x20.00.60.0x3解:设各节点状态取值为1或0,3节点DHNN网络应有23=8种状态。不妨将X=(x1,x2,x3),T=(0,0,0)T作为网络初态,按1→2→3的次序更新状态。第1步:更新x1,x1=sgn[(-0.5)0+0.20-(-0.1)]=sgn(0.1)=1其它节点状态不变,网络状态由(0,0,0)T变成(1,0,0)T。如果先更新x2或x3,网络状态将仍为(0,0,0)T,因此初态保持不变的概率为2/3,而变为(1,0,0)T的概率为1/3。第2步:此时网络状态为(1,0,0)T,更新x2后,得x2=sgn[(-0.5)1+0.60-0]=sgn(-0.5)=0其它节点状态不变,网络状态仍为(1,0,0)T。如果本步先更新x1或x3,网络相应状态将为(1,0,0)T和(1,0,1)T,因此本状态保持不变的概率为2/3,而变为(1,0,1)T的概率为1/3。第3步:此时网络状态为(1,0,0)T,更新x3得x3=sgn[0.21+0.60-0]=sgn(0.2)=1同理可算出其它状态之间的演变历程和状态转移概率。从这个例子,可以看出两个显著的特征:(1)状态(011)是一个满足前面定义的稳定状态。(2)从任意初始状态开始,网络经过有限次状态更新后,都将到达该稳定状态。1/31101/31/31/31/30100002/3001x1-0.11/31/31002/31/3-0.50.21/31/30.62/31/3x20.00.0x31011/3(a)1112/31/30113/3(b)DHNN网络状态演变示意图HNN的联想记忆所谓联想可以理解为从一种事物联系到与其相关的事物的过程.日常生活中,从一种事物出发

1 / 96
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功