(1)前馈型神经网络只表达输入输出之间的映射关系,实现非线性映射;反馈型神经网络考虑输入输出之间在时间上的延迟,需要用动态方程来描述,反馈型神经网络是一个非线性动力学系统。(2)前馈型神经网络的学习训练主要采用BP算法,计算过程和收敛速度比较慢;反馈型神经网络的学习主要采用Hebb规则,一般情况下计算的收敛速度很快,并且它与电子电路有明显的对应关系,使得网络易于用硬件实现。(3)前馈型神经网络学习训练的目的是快速收敛,一般用误差函数来判定其收敛程度;反馈型神经网络的学习目的是快速寻找到稳定点,一般用能量函数来判别是否趋于稳定点。(4)两者都有局部极小问题。一、网络结构单层全反馈型神经网络结构输入输出关系为:θ1θnθ2I1I2InY1Y2YnX1X2Xnw11w12w1nw21w22w2nwn1wn2wnn………………1()(),?1,2,njjijijjiYfxfwYIjn二、网络状态(1)轨迹经过一段时间t(t0)后不会再延伸,而永远停留在X(t0+t)状态,这时称网络收敛到一个稳定点或平衡点。在一个反馈网络中,可能存在有多个稳定点,根据不同的情况,这些稳定点可分为:①渐近稳定点Xe②不稳定的平衡点Xf③网络的伪稳定点(2)轨迹为环状,称为极限环。(3)如果X(t)的轨迹在某个确定的范围内变化,但既不重复又不能停下来,状态变化为无穷多个,而轨迹也不发散到无穷远,这种现象成为混沌(Chaos).(4)如果X(t)的轨迹随时间一直延伸到无穷远,此时状态发散,而系统的输出也发散。三、网络的设计要求(1)网络的稳定性(2)网络的稳定点(3)稳定点的吸引域美国加州理工学院物理学家J.J.Hopfield教授于1982年提出一种单层反馈神经网络,后来人们将这种反馈网络称作Hopfield网。Hopfield网络是单层对称全反馈网络,根据激活函数选取的不同,可分为离散型(DHNN)和连续性(CHNN)两种。DHNN:作用函数为hadlim,主要用于联想记忆。CHNN:作用函数为S型函数,主要用于优化计算。1、网络结构2、网络的工作方式3、网络的稳定性分析4、DHNN网络设计一、网络结构DHNN的结构是一个单层结构的全反馈网络,有n个节点,W是一个n×n的对称零对角权值矩阵,θ为n维阈值向量。DHNN网中的每个神经元都有相同的功能,其输出称为状态,用xj表示。所有神经元状态的集合就构成反馈网络的状态:X=[x1,x2,…,xn]T反馈网络的输入就是网络的状态初始值,表示为:X(0)=[x1(0),x2(0),…,xn(0)]Tx1x2…xi…xnT1T2…Ti…Tn10sgn10jjjjnetxnetnet()j=1,2,…,nDHNN网的转移函数常采用符号函数式中净输入为nijiijjTxwnet1)(j=1,2,…,n对于DHNN网,一般有wii=0,wij=wji。反馈网络稳定时每个神经元的状态都不再改变,此时的稳定状态就是网络的输出,表示为lim()ttX二、网络的工作方式(1)串行(异步)工作方式任一时刻t,只有某一个节点i(随机地或确定性地选择)变化,而其余n-1个节点的状态保持不变,即:(2)并行(同步)工作方式任一时刻t,所有的节点或部分节点改变状态,即:(1)sgn(())~(1)()iijjXtnettiXtXtjiitXwtXijnjjii))(sgn()1(1三、网络的稳定性分析(1)网络的状态稳定:若网络从一个初态X(t0)出发,经过一个有限时刻t,网络的状态不再发生变化,即:则称网络是稳定的,这时所有的节点输出不再变化,网络稳定在某一状态。如果网络是稳定的,它可以从任一初态收敛到一个稳态。0)()(00tttXtttX(a)(b)(c)有限环:若网络是不稳定的,由于DHNN网每个节点的状态只有1和-1两种情况,网络不可能出现无限发散的情况,而只可能出现限幅的自持振荡,这种网络称为有限环网络。混沌:如果网络状态的轨迹在某个确定的范围内变迁,但既不重复也不停止,状态变化为无穷多个,轨迹也不发散到无穷远,这种现象称为混沌。(a)(b)(c)(a)(b)(c)网络达到稳定时的状态X,称为网络的吸引子。如果把问题的解编码为网络的吸引子,从初态向吸引子演变的过程便是求解计算的过程。若把需记忆的样本信息存储于网络不同的吸引子,当输入含有部分记忆信息的样本时,网络的演变过程便是从部分信息寻找全部信息,即联想回忆的过程。定义:若网络的状态X满足X=f(net)=f(WX-T)则称X为网络的吸引子。(2)稳定性定理定理1:当网络工作在异步方式下,满足wij=wji,wii=0,i、j=1,2,…,n,则能量函数单调下降,且网络必定稳定。定理5.1证明:定义网络的能量函数为:令网络的能量改变量为ΔE,状态改变量为ΔX,有1111122nnnTTijijiiijiEwxxTxXWXXTEEt1Et)()1()(tttXXX将代入上式,并考虑到W为对称矩阵,有1212EEt111[()()][()()][()()][()()()]22()()()()()()[()]()()TTTTTTTTTEtttttttttttttttttTttXXWXXXXTXWXXTXWXXWXXTXWXXWX()[0,...,0,(),0,...,0]TjtxtX2121()()[()]()()()njijijjjjijjEtxtwxTxtwxtnett对于DHNN网络的任一个节点i,能量函数的变化可能有以下几种情况:因此,网络无论在什么条件下都能保证△E≤0,这样就保证了网络的稳定性和收敛性。1()1,()0,(1)1,0,02()1,()0,(1)1,2,03()1,()0,(1)1,2,04()1,()0,(1)1,0,0jjjjjjjjjjjjjjjjXtnettXtXEXtnettXtXEXtnettXtXEXtnettXtXE(1)sgn(())jjXtnett()()()jjEtxtnett由于网络中各节点的状态只能取1或–1,能量函数E(t)作为网络状态的函数是有下界的,因此网络能量函数最终将收敛于一个常数,此时ΔE(t)=0。综上所述,当网络工作方式和权矩阵均满足定理1的条件时,网络最终将收敛到一个吸引子。定理2:当网络工作在异步方式下,满足wij=wji,i、j=1,2,…,n,则能量函数单调下降,且网络必定稳定。定理3:当网络工作在并行方式下,满足wij=wji,则网络或者收敛于一个稳定点,或者收敛于极限环为2的一个周期解。证明:在并行工作方式时,其能量函数可以用下式表示:11(1)()(()(1))2211(1)()[(1)()]22ijijiiiijiTTEwXtXtTXtXtXtWXtTXtXt;;nnnnXRWRIR11(1)()[(1)()]2211()(1)[()(1)]2211[()][(1)(1)][(1)(1)]221[()][(1)(1)]21[()][(1)(1)]2TTTTTTTTTEXtWXtTXtXtXtWXtTXtXtXtWXtXtTXtXtXtWTXtXtNETtXtXt0(1)(1)(1)(1)2(1)1,(1)12(1)1,(1)1iiiiiiiiXtXtXtXtXtXtXtXt由于在NET(t)中的每个分量NETi(t)与在X(t+1)中每个分量Xi(t+1)同号,因而成立。所以△E≤0。现在考虑在稳定点的情况,即△E=0的情况:若X(t)=X(t+1)=X(t-1),则△E=0,且网络达到稳定。若X(t)≠X(t+1)=X(t-1),则△E=0,且网络到达周期为2的极限环。证毕。[()][(1)(1)]0THtXtXti推论:(1)如果W为一个正定矩阵,Ti=0、对所有的i成立,则:网络必定达到稳定收敛。(2)如果W为一个负定矩阵,Ti=0、对所有的i成立,则:网络周期振荡,极限环为2。(1)()(1)sgn(())()XtXtXtWXtXt(1)sgn(())()(1)()(1)XtWXtXtXtXtXt以上分析表明,在网络从初态向稳态演变的过程中,网络的能量始终向减小的方向演变,当能量最终稳定于一个常数时,该常数对应于网络能量的极小状态,称该极小状态为网络的能量井,能量井对应于网络的吸引子。性质1:若X是网络的一个吸引子,且阈值T=0,在sgn(0)处,xj(t+1)=xj(t),则-X也一定是该网络的吸引子。证明:∵X是吸引子,即X=f(WX),从而有f[W(-X)]=f[-WX]=-f[WX]=-X∴-X也是该网络的吸引子。性质2:若Xa是网络的一个吸引子,则与Xa的海明距离dH(Xa,Xb)=1的Xb一定不是吸引子。证明:不妨设x1a≠x1b,xja=xjb,j=2,3,…,n。∵w11=0,由吸引子定义,有)()(2112111nibiiniaiiaTxwfTxwfx由假设条件知,x1a≠x1b,故∴-Xb不是该网络的吸引子。)(211b1nibiiTxwfx能使网络稳定在同一吸引子的所有初态的集合,称为该吸引子的吸引域。定义2若Xa是吸引子,对于异步方式,若存在一个调整次序,使网络可以从状态X演变到Xa,则称X弱吸引到Xa;若对于任意调整次序,网络都可以从状态X演变到Xa,则称X强吸引到Xa。定义3若对某些X,有X弱吸引到吸引子Xa,则称这些X的集合为Xa的弱吸引域;若对某些X,有X强吸引到吸引子Xa,则称这些X的集合为Xa的强吸引域。例.1设有3节点DHNN网,用无向图表示如下,权值与阈值均已标在图中,试计算网络演变过程的状态。x1-0.1-0.50.2x20.00.60.0x3解:设各节点状态取值为1或0,3节点DHNN网络应有23=8种状态。不妨将X=(x1,x2,x3),T=(0,0,0)T作为网络初态,按1→2→3的次序更新状态。第1步:更新x1,x1=sgn[(-0.5)0+0.20-(-0.1)]=sgn(0.1)=1其它节点状态不变,网络状态由(0,0,0)T变成(1,0,0)T。如果先更新x2或x3,网络状态将仍为(0,0,0)T,因此初态保持不变的概率为2/3,而变为(1,0,0)T的概率为1/3。第2步:此时网络状态为(1,0,0)T,更新x2后,得x2=sgn[(-0.5)1+0.60-0]=sgn(-0.5)=0其它节点状态不变,网络状态仍为(1,0,0)T。如果本步先更新x1或x3,网络相应状态将为(1,0,0)T和(1,0,1)T,因此本状态保持不变的概率为2/3,而变为(1,0,1)T的概率为1/3。第3步:此时网络状态为(1,0,0)T,更新x3得x3=sgn[0.21+0.60-0]=sgn(0.2)=1同理可算出其它状态之间的演变历程和状态转移概率。从这个例子,可以看出两个显著的特征:(1)状态(011)是一个满足前面定义的稳定状态。(2)从任意初始状态开始,网络经过有限次状态更新后,都将到达该稳定状态。1/31101/31/31/31/30100002/3001x1-0.11/31/31002/31/3-0.50.21/31/30.62/31/3x20.00.0x31011/3(a)1112/31/30113/3(b)DHNN网络状态演变示意图HNN的联想记忆所谓联想可以理解为从一种事物联系到与其相关的事物的过程.日常生活中,从一种事物出发