8.1人工神经网络发展概况人工神经网络(ArtificialNeuralNetworks,ANN):简称神经网络。模拟人脑神经细胞的工作特点:与目前按串行安排程序指令的计算机结构截然不同。*单元间的广泛连接;*并行分布式的信息存贮与处理;*自适应的学习能力等。优点:(1)较强的容错性;(2)很强的自适应学习能力;(3)可将识别和若干预处理融为一体进行;(4)并行工作方式;(5)对信息采用分布式记忆,具有鲁棒性。四个发展阶段:第一阶段:启蒙期,始于1943年。形式神经元的数学模型提出。第二阶段:低潮期,始于1969年。《感知器》(Perceptions)一书出版,指出局限性。第三阶段:复兴期,从1982年到1986年。Hopfield的两篇论文提出新的神经网络模型;《并行分布处理》出版,提出反向传播算法。第四个阶段:1987年至今,趋于平稳。回顾性综述文章“神经网络与人工智能”。8.2神经网络基本概念8.2.1生物神经元1.生物神经元的结构来自其它神经元轴突的神经末梢细胞体轴突细胞核树突神经末梢突触细胞体、树突、轴突和突触。2.生物神经元的工作机制兴奋和抑制两种状态。抑制状态的神经元由树突和细胞体接收传来的兴奋电位不应期产生输出脉冲输入兴奋总量超过阈值神经元被激发进入兴奋状态由突触传递给其它神经元8.2.2人工神经元及神经网络人工神经元:生物神经元的简化模拟。人工神经元间的互连:信息传递路径轴突-突触-树突的简化;连接的权值:两个互连的神经元之间相互作用的强弱。x1x2xnw1w2wn┇∑fy┇图8.2人工神经元模型接收的信息(其它神经元的输出)互连强度作比较的阈值n维输入向量X输出输出函数神经元的动作:niiixwnet1)(netfy),(Rwxii输出函数f:也称作用函数,非线性。01ynetθ(a)01ynet(b)ynet(c)01阈值型S型伪线性型f为阈值型函数时:niiixwy1sgn1nw设,点积形式:)sgn(TXWyT11],,,[nnWT1]1,,,[nxxX式中,8.2.3神经网络的学习学习:同一个训练集的样本输入输出模式反复作用于网络,网络按照一定的训练规则自动调节神经元之间的连接强度或拓扑结构,使实际输出满足期望的要求或者趋于稳定。实质:1.Hebb学习规则典型的权值修正方法:Hebb学习规则、误差修正学习如果神经网络中某一神经元与另一直接与其相连的神经元同时处于兴奋状态,那么这两个神经元之间的连接强度应该加强。神经网络的最重要特征之一。┇x2xiiyix1jwijw2j┇w1j┇┇wnjyj┇xn)]()([)()1(tytytwtwijijijwij(t+1):修正一次后的某一权值;η:学习因子,表示学习速率的比例常数;yj(t),yi(t):分别表示t时刻第j个和第i个神经元的状态(输出)。由有:)()(txtyii)]()([)()1(txtytwtwijijij神经元间的连接2.δ学习规则(3)更新权值,阈值可视为输入恒为(-1)的一个权值;(1)选择一组初始权值wij(1);(2)计算某一输入模式对应的实际输出与期望输出的误差;)()]([)()1(txtydtwtwijjijij式中,(4)返回(2),直到对所有训练模式网络输出均能满足要求。dj,yj(t):第j个神经元的期望输出与实际输出;xi(t):第j个神经元的第i个输入。神经网络的学习体现在:η:学习因子;权值变化;网络结构变化。8.2.4神经网络的结构分类分层结构有明显层次,信息流向由输入层到输出层。——前馈网络没有明显层次,任意两个神经元之间可达,具有输出单元到隐层单元或输入单元的反馈连接。——反馈网络相互连接结构8.3前馈神经网络8.3.1感知器感知器(Perceptron):F.Rosenblatt于1957年提出。x1x2xn…yMy1………感知器结构示意图*双层(输入层、输出层);*两层单元之间为全互连;*连接权值可调。结构特点:*输出层神经元个数等于类别数(两类问题时输出层为一个神经元)。设输入模式向量,,共M类。T21],,,[nxxxX输出层第j个神经元对应第j个模式类,θj:第j个神经元的阈值;wij:输入模式第i个分量与输出层第j个神经元间的连接权。令。取jnjw)1(T)1(21],,,[jnjjjWT21]1,,,,[nxxxX)()(T11XWjniiijjfxwfy有)(1jniiijjxwfy输出为┇x2xiyix1jwijw2j┇w1j┇┇wnjyj输出单元对所有输入数值加权求和,经阈值型输出函数产生一组输出模式。M类问题判决规则(神经元的输出函数)为)(TXWjjfyjjXX若,1若,1Mj1*正确判决的关键:输出层每个神经元必须有一组合适的权值。*感知器采用监督学习算法得到权值;*权值更新方法:δ学习规则。算法描述第一步:设置初始权值wij(1),w(n+1)j(1)为第j个神经元的阈值。第二步:输入新的模式向量。第三步:计算神经元的实际输出。设第k次输入的模式向量为Xk,与第j个神经元相连的权向量为T)1(21],,,[)(jnjjjW第j个神经元的实际输出为])([)(TkjjkfkyXWMj1第四步:修正权值。kjjjjkydkkXWW)]([)()1(dj:第j个神经元的期望输出。jkjkjdXX,1,1Mj1第五步:转到第二步。当全部学习样本都能正确分类时,学习过程结束。经验证明,当η随k的增加而减小时,算法一定收敛。8.3.2BP网络BP网络:采用BP算法(Back-PropagationTrainingAlgorithm)的多层感知器。误差反向传播算法认识最清楚、应用最广泛。性能优势:识别、分类1.多层感知器针对感知器学习算法的局限性:模式类必须线性可分。…yMy1…x1x2xn…………输入层第一隐层第二隐层输出层中间层为一层或多层处理单元;前馈网络;结构:只允许一层连接权可调。2.BP算法两个阶段正向传播阶段:逐层状态更新反向传播阶段:误差BP算法的学习过程设:某层任一神经元j的输入为netj,输出为yj;相邻低一层中任一神经元i的输出为yi。…yMy1…x1x2xn…………jiiiijjywnet)(jjnetfywij:神经元i与j之间的连接权;f(∙):神经元的输出函数。)(jjnetfy0)(11hjjneteS型输出函数:θj:神经元阈值;h0:修改输出函数形状的参数。0.510yjnetjθj设:输出层中第k个神经元的实际输出为yk,输入为netk;与输出层相邻的隐层中任一神经元j的输出为yj。jjjkkywnet)(kknetfy对输入模式Xp,若输出层中第k个神经元的期望输出为dpk,实际输出为ypk。输出层的输出方差:kpkpkpydE2)(21若输入N个模式,网络的系统均方差为:pkpkpkydNE2)(21ppEN1当输入Xp时,wjk的修正增量:jkpjkpwEwΔjkkkpjkpwnetnetEwE其中,jjjkkywnet由式得到:pjpjjjkjkjkkyy令,可得kppknetE输出单元的误差:输出单元的修正增量:)1()(pkpkpkpkpkyyydpjpkjkpy对于与输出层相邻的隐层中的神经元j和该隐层前低一层中的神经元i:kjkpkpjpjpjwyy)1(pjpjijpywΔ输出层中神经元输出的误差反向传播到前面各层,对各层之间的权值进行修正。BP算法步骤:第一步:对权值和神经元阈值初始化:(0,1)上分布的随机数。第二步:输入样本,指定输出层各神经元的希望输出值。jjjdXX,1,1Mj,,2,1第三步:依次计算每层神经元的实际输出,直到输出层。第四步:从输出层开始修正每个权值,直到第一隐层。ijijijytwtw)()1(10若j是输出层神经元,则:))(1(jjjjjydyy若j是隐层神经元,则:kjkkjjjwyy)1(第五步:转到第二步,循环至权值稳定为止。改进的权值修正:)]1()([)()1(twtwytwtwijijijijij——收敛快、权值平滑变化α:平滑因子,0α1。BP算法存在问题:*存在局部极小值问题;*算法收敛速度慢;*隐层单元数目的选取无一般指导原则;*新加入的学习样本影响已学完样本的学习结果。结束