神经网络理论基础人工神经网络是近年来得到迅速发展的一个前沿课题。神经网络由于其大规模并行处理、容错性、自组织和自适应能力和联想功能强等特点,已成为解决很多问题的有力工具。本节首先对神经网络作简单介绍,然后介绍几种常用的神经网络,包括感知器(前向神经网络)、BPN(反向传播神经网络)和Hopfield网络。1生物神经元2人工神经网络发展简史3人工神经网络结构4神经网络基本学习算法内容安排1人工神经网络发展简史最早的研究可以追溯到20世纪40年代。1943年,心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型。这一模型一般被简称M-P神经网络模型,至今仍在应用,可以说,人工神经网络的研究时代,就由此开始了。1949年,心理学家Hebb提出神经系统的学习规则,为神经网络的学习算法奠定了基础。现在,这个规则被称为Hebb规则,许多人工神经网络的学习还遵循这一规则。1957年,F.Rosenblatt提出“感知器”(Perceptron)模型,第一次把神经网络的研究从纯理论的探讨付诸工程实践,掀起了人工神经网络研究的第一次高潮。20世纪60年代以后,数字计算机的发展达到全盛时期,人们误以为数字计算机可以解决人工智能、专家系统、模式识别问题,而放松了对“感知器”的研究。于是,从20世纪60年代末期起,人工神经网络的研究进入了低潮。1982年,美国加州工学院物理学家Hopfield提出了离散的神经网络模型,标志着神经网络的研究又进入了一个新高潮。1984年,Hopfield又提出连续神经网络模型,开拓了计算机应用神经网络的新途径。1986年,Rumelhart和Meclelland提出多层网络的误差反传(backpropagation)学习算法,简称BP算法。BP算法是目前最为重要、应用最广的人工神经网络算法之一。自20世纪80年代中期以来,世界上许多国家掀起了神经网络的研究热潮,可以说神经网络已成为国际上的一个研究热点。2生物神经元生物神经元突触信息处理信息传递功能与特点一、生物神经元神经元是大脑处理信息的基本单元人脑约由101l-1012个神经元组成,其中,每个神经元约与104-105个神经元通过突触联接,形成极为错纵复杂而且又灵活多变的神经网络神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成生物神经元网络结构•树突是树状的神经纤维接收网络,它将电信号传送到细胞体•细胞体对这些输入信号进行整合并进行阈值处理•轴突是单根长纤维,它把细胞体的输出信号导向其他神经元•一个神经细胞的轴突和另一个神经细胞树突的结合点称为突触神经元的排列和突触的强度(由复杂的化学过程决定)确立了神经网络的功能。生物学研究表明一些神经结构是与生俱来的,而其他部分则是在学习的过程中形成的。在学习的过程中,可能会产生一些新的连接,也可能会使以前的一些连接消失。这个过程在生命早期最为显著。二、突触的信息处理生物神经元传递信息的过程为多输入、单输出;神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近;当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质;突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。三、信息传递功能与特点具有时空整合能力不可逆性,脉冲只从突触前传到突触后,不逆向传递神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1—150m/s之间信息传递时延和不应期,一般为0.3~lms可塑性,突触传递信息的强度是可变的,即具有学习功能存在学习、遗忘或疲劳(饱和)效应对应突触传递作用增强、减弱和饱和2、生物神经系统的六个基本特征:1)神经元及其联接;2)神经元之间的联接强度决定信号传递的强弱;3)神经元之间的联接强度是可以随训练改变的;4)信号可以是起刺激作用的,也可以是起抑制作用的;5)一个神经元接受的信号的累积效果决定该神经元的状态;6)每个神经元可以有一个“阈值”。3人工神经网络结构人工神经网络人工神经元模型常见的神经元激发函数人工神经网络典型结构1.人工神经网络(ArtificialNeuralNetwork-ANN)常常简称为神经网络(NN),是以计算机网络系统模拟生物神经网络的智能计算系统,是对人脑或自然神经网络的若干基本特性的抽象和模拟。一、人工神经网络直观理解神经网络是一个并行和分布式的信息处理网络结构它一般由大量神经元组成每个神经元只有一个输出,可以连接到很多其他的神经元每个神经元输入有多个连接通道,每个连接通道对应于一个连接权系数2.人工神经网络的基本特征(1)结构特征—并行处理、分步式存储与容错性(2)能力特征—自学习、自组织与自适应性自适应性是指一个系统能改变自身的性能以适应环境变化的能力。神经网络的自学习是指当外界环境发生变化时,经过一段时间的训练或感知,神经网络能通过自动调整网络结构参数,使得对于结定输入能产生期望的输出,训练是神经网络学刁的途径,因此经常将学习与训练两个词混用。神经系统能在外部刺激下按一定规则调整神经元之间的突触连接,逐渐构建起神经网络,这一构建过程称为网络的自组织(或称重构)。联想记忆非线性映射许多系统的输入与输出之间存在复杂的非线性关系,设计合理的神经网络通过对系统输入输出样本对进行自动学习,能够以任意精度逼近任意复杂的非线性映射。神经网络的这一优良性能使其可以作为多维非线性函数的通用数学模型分类与识别对输入样本的分类实际上是在样本空间找出符合分类要求的分割区域,每个区域内的样本属于一类。客观世界中许多事物在样本空间上的区域分割曲面是十分复杂的,神经网络可以很好地解决对非线性曲面的逼近,因此具有很好的分类与识别能力优化计算知识处理3.神经网络的基本功能1943,神经生理学家McCulloch和数学家Pitts基于早期神经元学说,归纳总结了生物神经元的基本特性,建立了具有逻辑演算功能的神经元模型以及这些人工神经元互联形成的人工神经网络,即所谓的McCulloch-Pitts模型。McCulloch-Pitts模型(MP模型)是世界上第一个神经计算模型,即人工神经系统。二、人工神经元模型MP模型:称为作用函数或激发函数MP模型作用函数求和操作1()()niijijijyfxfwuijnjjiiuwx1MP模型f(x)是作用函数(ActivationFunction),也称激发函数。MP神经元模型中的作用函数为单位阶跃函数:其表达式为:0,00,1)(xxxf激发函数的基本作用–控制输入对输出的激活作用–对输入、输出进行函数转换–将可能无限域的输入变换成指定的有限范围内的输出可知当神经元i的输入信号加权和超过阈值时,输出为“1”,即“兴奋”状态;反之输出为“0”,是“抑制”状态。MP模型例、实现逻辑函数“与门”(ANDgate)运算。1—真,0—假三、常见的神经元激发函数MP神经元模型是人工神经元模型的基础,也是神经网络理论的基础。在神经元模型中,作用函数除了单位阶跃函数之外,还有其它形式。不同的作用函数,可构成不同的神经元模型。1、对称型Sigmoid函数xxeexf11)(0,11)(xxeexf或2、非对称型Sigmoid函数xexf11)(或0,11)(xexf3、对称型阶跃函数函数0,10,1)(xxxf采用阶跃作用函数的神经元,称为阈值逻辑单元。4、线性函数(1)线性作用函数:输出等于输入,即xxfy)((2)饱和线性作用函数110010)(xxxxxfy(3)对称饱和线性作用函数111111)(xxxxxfy5、高斯函数)(22)(xexf反映出高斯函数的宽度众所周知,神经网络强大的计算功能是通过神经元的互连而达到的。根据神经元的拓扑结构形式不同,神经网络可分成以下两大类:四、人工神经网络的典型结构目前,神经网络模型的种类比较多,已有近40余种神经网络模型,其中典型的有BP网络、Hopfield网络、CMAC小脑模型、ART自适应共振理论和Blotzman机网络等1、层次型神经网络(1)前向神经网络神经元分层排列,顺序连接。由输入层施加输入信息,通过中间各层,加权后传递到输出层后输出。每层的神经元只接受前一层神经元的输入,各神经元之间不存在反馈。感知器(Perceptron)、BP神经网络和径向基函数(RBF-RedialBasisFunction)神经网络都属于这种类型。(2)层内有互联的前向神经网络在前向神经网络中有的在同一层中的各神经元相互有连接,通过层内神经元的相互结合,可以实现同一层内神经元之间的横向抑制或兴奋机制,这样可以限制每层内能同时动作的神经元数,或者把每层内的神经元分为若干组,让每组作为一个整体来动作。(3)有反馈的前向神经网络在层次网络结构中,只在输出层到输入层存在反馈,即每一个输入节点都有可能接受来自外部的输入和来自输出神经元的反馈。这种模式可用来存储某种模式序列,如神经认知机即属于此类,也可以用于动态时间序列过程的神经网络建模。2、互联型神经网络在互连网络模型中,任意两个神经元之间都可能有相互连接的关系。其中,有的神经元之间是双向的,有的是单向的。Hopfield网络、Boltzman机网络属于这一类。在无反馈的前向网络中,信号一旦通过某个神经元,过程就结束了。而在互连网络中,信号要在神经元之间反复往返传递,神经网络处在一种不断改变状态的动态之中。从某个初始状态开始,经过若干次的变化,才会到达某种平衡状态,根据神经网络的结构和神经元的特性,还有可能进入周期振荡或其它如浑沌等平衡状态。二、神经网络的学习规则联想式学习—Hebb学习规则误差纠正式学习——Delta(δ)学习规则3神经网络的基本学习方式和学习规则一、神经网络的学习方式有监督(误差校正)学习方式无监督学习方式人工神经网络连接权的确定通常有两种方法根据具体要求,直接计算,如Hopfield网络作优化计算通过学习得到的。大多数人工神经网络都采用这种方法学习是改变各神经元连接权值的有效方法,也是体现人工神经网络智能特性最主要的标志。离开了学习,神经网络就失去了诱人的自适应、自组织能力学习方法是人工神经网络研究中的核心问题1、有监督学习方式特点:不能保证得到全局最优解要求大量训练样本,收敛速度慢对样本地表示次序变化比较敏感神经网络根据实际输出与期望输出的偏差,按照一定的准则调整各神经元连接的权系数,见下图。期望输出又称为导师信号,是评价学习的标准,故这种学习方式又称为有导师学习。一、神经网络的学习方式无导师信号提供给网络,神经网络仅仅根据其输入调整连接权系数和阈值,此时,网络的学习评价标准隐含于内部。其结构见下图。这种学习方式主要完成聚类操作。2、无监督学习方式一、神经网络的学习方式DonallHebb根据生理学中的条件反射机理,于1949年提出的神经元连接强度变化的规则:如果两个神经元同时兴奋(即同时被激活),则它们之间的突触连接加强为学习速率,oi、oj为神经元i和j的输出1、联想式学习—Hebb学习规则ijijwooHebb学习规则是人工神经网络学习的基本规则,几乎所有神经网络的学习规则都可以看作Hebb学习规则的变形二、神经网络的学习规则2、纠错式学习—Delta(δ)学习规则二、神经网络的学习规则首先我们考虑一个简单的情况:设某神经网络的输出层中只有一个神经元i,给该神经网络加上输入,这样就产生了输出yi(n),称该输出为实际输出。对于所加上的输入,我们期望该神经网络的输出为d(n),称为期望输出或目标输出(样本对里面包含输入和期望输出)。实际输出与期望输出之间存在着误差,用e