神经网络的智能控制系统摘要:介绍了神经网络的基本概念,论述了人工神经网络的产生与发展,以及人工神经网络在控制系统中的应用现状,分析了人工神经网络的特点和监视控制系统的原理,并阐述了几种基于神经网络的控制系统,最后展望了基于神经网络控制的发展方向。关键词:人工神经网络;控制系统;监视控制系统;智能控制;1引言基于神经网络的控制(NCC).神经网络控制是一门崭新的智能信息处理学科,研究非程序的、适应性的、大脑风格的信息处理的本质和能力。它的发展对人工智能、计算机科学、信息科学、非线性科学、认识科学、自动控制、微电子、模式识别、脑神经科学等产生了重要影响。人工神经网络是一门发展十分迅速的交叉学科,它是由大量处理单元组成的非线性大规模自适应动力系统,具有学习能力、记忆能力、计算能力以及智能处理能力,并在不同程度和层次上模仿人脑神经系统的信息处理、存储及检索功能。同时,人工神经网络具有非线性、非局域性、非定常性、非凸性等特点,因此在智能控制、模式识别、计算机视觉、自适应滤波和信号处理、非线性优化、自动目标识别、连续语音识别、声纳信号的处理、知识处理、智能传感技术与机器人、生物医学工程等方面都有了长足的发展。神经网络控制是一种基本上不依赖于模型的控制方法,它适合于具有不确定性或高度非线性的控制对象,并具有较强的自适应和自学习功能,因此是智能控制的一个重要分支领域。人工神经网络利用物理器件来模拟生物神经网络的某些结构和功能,具有并行和分布式的信息处理网络结构,该结构一般由几个神经元组成,每一个神经元有一个单一的输出,但可通过连接的很多其它神经元,获得有多个连接通道的输入,每个连接通道对应一个连接权系数。2人工神经网络的产生与发展早在1943年,美国神经生物学家W.S.McCul-loch就与数学家W.Pitts合作,采用数理模型的方法研究脑细胞的动作和结构,以及生物神经元的一些基本生理特征,提出第一个神经计算模型,即神经元的阈值元件模型(MP模型),并指出:即使是最简单的神经网络,从原则上讲也可以进行任意算术或逻辑函数的计算。1949年,D.O.Hebb提出了改变神经元连接强度的Hebb规则,其正确性30年后才得到证实,至今仍在各种神经网络模型中起着重要的作用。1957年F.Rosenblatt提出并设计制作了著名的感知器(Perceptron),从而掀起第一次研究神经网络的热潮。1960年B.Windrow和M.E.Hoff提出自适应线性单元(Adaline)网络,这与当时占主导地位的以顺序离散符号推理为基本特征的AI途径完全不同,因而引起人们的兴趣,同时也引起符号主义与连接主义的争论。1969年M.Minsky和S.Papert编写了影响很大的《Perceptron》一书。在肯定感知器的研究价值的同时,指出感知器的局限性,在数学上证明了感知器不能解决XOR等线性不可分问题。20世纪80年代以来,人工神经网络进入一个高速发展的阶段,Prigogine因提出非平衡系统的自组织理论(耗散结构理论)而获得诺贝尔奖;近年来广泛研究的浑沌动力学和奇异吸引子理论,则揭示了系统的复杂行为。1982年美国加州工学院物理学家J.J.Hopfield提出著名的Hopfield模型,有力地推动了神经网络的研究。Hopfield通过引入“计算能量函数”的概念,给出网络稳定性判据。1984年Hopfield提出网络模型实现的电子电路,为神经网络的工程实现指明了方向。1985年Hinton和Sejnowski将模拟退火算法引入到神经网络中,提出Boltzmann机模型,为神经网络优化计算提供了一个有效方法。D.E.Rumelhart和J.L.McClelland等人提出的PDP(并行分布处理理论),致力于认知微观结构的探索;1986年提出了多层网络的反向传播学习算法(BP算法),把学习结果反馈到中间层次的隐单元,改变它们的联系矩阵,从而达到预期的学习目的,迄今为止仍是应用最广泛的神经网络。进入20世纪90年代以来,神经网络的研究已进入相对平稳的发展时期,许多理论得到了进一步的证实、补充与发展。同时神经网络的应用研究得以广泛开展,应用的领域也不断扩大。神经网络理论的应用已经渗透到各个领域,并在智能控制、模式识别、计算机视觉、自适应滤波和信号处理、非线性优化、自动目标识别、连续语音识别、声纳信号的处理、知识处理、传感技术与机器人、生物医学工程等方面,都取得很大的进展。3人工神经网络的基本概念和基本原理人工神经网络(ArtificialNeuralNetworks,简写为ANNs)也简称神经网络(NNs)或称作连接模型(ConnectionistModel),它是一种模范动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入-输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程称为“训练”。人工神经网络首先要以一定的学习准则进行学习,然后才能工作。现以人工神经网络对手写“A”、“B”两个字母的识别为例进行说明,规定当“A”输入网络时,应该输出“1”,而当输入为“B”时,输出为“0”。所以网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,应使得网络减少下次犯同样错误的可能性。首先,给网络的各连接权值赋予(0,1)区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。在此情况下,网络输出为“1”和“0”的概率各为50%,也就是说是完全随机的。这时如果输出为“1”(结果正确),则使连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。如果输出为“0”(即结果错误),则把网络连接权值朝着减小综合输入加权值的方向调整,其目的在于使网络下次再遇到“A”模式输入时,减小犯同样错误的可能性。如此操作调整,当给网络轮番输入若干个手写字母“A”、“B”后,经过网络按以上学习方法进行若干次学习后,网络判断的正确率将大大提高。这说明网络对这两个模式的学习已经获得了成功,它已将这两个模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模式时,能够作出迅速、准确的判断和识别。一般说来,网络中所含的神经元个数越多,则它能记忆、识别的模式也就越多。“人脑是如何工作的?”“人类能否制作模拟人脑的人工神经元?”多少年以来,人们从医学、生物学、生理学、哲学、信息学、计算机科学、认知学、组织协同学等各个角度企图认识并解答上述问题。在寻找上述问题答案的研究过程中,近年来逐渐形成了一个新兴的多学科交叉技术领域,称之为“神经网络”。神经网络的研究涉及众多学科领域,这些领域互相结合、相互渗透并相互推动。不同领域的科学家又从各自学科的兴趣与特色出发,提出不同的问题,从不同的角度进行研究。心理学家和认知科学家研究神经网络的目的在于探索人脑加工、储存和搜索信息的机制,弄清人脑功能的机理,建立人类认知过程的微结构理论。生物学、医学、脑科学专家试图通过神经网络的研究推动脑科学向定量、精确和理论化体系发展,同时也寄希望于临床医学的新突破;信息处理和计算机科学家研究这一问题的目的在于寻求新的途径以解决目前不能解决或解决起来有极大困难的大量问题,构造更加逼近人脑功能的新一代计算机。人工神经网络是由大量的简单基本元件——神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。人工神经网络反映了人脑功能的若干基本特性,但并非生物系统的逼真描述,只是某种模仿、简化和抽象。与数字计算机比较,人工神经网络在构成原理和功能特点等方面更加接近人脑,它不是按给定的程序一步一步地执行运算,而是能够自身适应环境、总结规律、完成某种运算、识别或过程控制。人工神经元的研究起源于脑神经元学说。19世纪末,在生物、生理学领域,Waldeger等人创建了神经元学说。人们认识到复杂的神经系统是由数目繁多的神经元组合而成。大脑皮层包括有100亿个以上的神经元,每立方毫米约有数万个,它们互相联结形成神经网络,通过感觉器官和神经接受来自身体内外的各种信息,传递至中枢神经系统内,经过对信息的分析和综合,再通过运动神经发出控制信息,以此来实现机体与内外环境的联系,协调全身的各种机能活动。神经元也和其他类型的细胞一样,包括有细胞膜、细胞质和细胞核。但是神经细胞的形态比较特殊,具有许多突起,因此又分为细胞体、轴突和树突三部分。细胞体内有细胞核,突起的作用是传递信息。树突是作为引入输入信号的突起,而轴突是作为输出端的突起,它只有一个。树突是细胞体的延伸部分,它由细胞体发出后逐渐变细,全长各部位都可与其他神经元的轴突末梢相互联系,形成所谓“突触”。在突触处两神经元并未连通,它只是发生信息传递功能的结合部,联系界面之间间隙约为(15~50)×10米。突触可分为兴奋性与抑制性两种类型,它相应于神经元之间耦合的极性。每个神经元的突触数目正常,最高可达10个。各神经元之间的连接强度和极性有所不同,并且都可调整、基于这一特性,人脑具有存储信息的功能。利用大量神经元相互联接组成人工神经网络可显示出人的大脑的某些特征。下面通过人工神经网络与通用的计算机工作特点来对比一下:若从速度的角度出发,人脑神经元之间传递信息的速度要远低于计算机,前者为毫秒量级,而后者的频率往往可达几百兆赫。但是,由于人脑是一个大规模并行与串行组合处理系统,因而,在许多问题上可以作出快速判断、决策和处理,其速度则远高于串行结构的普通计算机。人工神经网络的基本结构模仿人脑,具有并行处理特征,可以大大提高工作速度。人脑存贮信息的特点为利用突触效能的变化来调整存贮内容,也即信息存贮在神经元之间连接强度的分布上,存贮区与计算机区合为一体。虽然人脑每日有大量神经细胞死亡(平均每小时约一千个),但不影响大脑的正常思维活动。普通计算机是具有相互独立的存贮器和运算器,知识存贮与数据运算互不相关,只有通过人编出的程序使之沟通,这种沟通不能超越程序编制者的预想。元器件的局部损坏及程序中的微小错误都可能引起严重的失常。人类大脑有很强的自适应与自组织特性,后天的学习与训练可以开发许多各具特色的活动功能。如盲人的听觉和触觉非常灵敏;聋哑人善于运用手势;训练有素的运动员可以表现出非凡的运动技巧等等。普通计算机的功能取决于程序中给出的知识和能力。显然,对于智能活动要通过总结编制程序将十分困难。人工神经网络也具有初步的自适应与自组织能力。在学习或训练过程中改变突触权重值,以适应周围环境的要求。同一网络因学习方式及内容不同可具有不同的功能。人工神经网络是一个具有学习能力的系统,可以发展知识,以致超过设计者原有的知识水平。通常,它的学习训练方式可分为两种,一种是有监督或称有导师的学习,这时利用给定的样本标准进行分类或模仿;另一种是无监督学习或称无为导师学习,这时,只规定学习方式或某些规则,则具体的学习内容随系统所处环境(即输入信号情况)而异,系统可以自动发现环境特征和规律性,具有更近似人脑的功能。4人工神经网络的特点人工神经网络是生物神经网络的一种模拟和近似,主要从两个方面进行模拟:一个是结构和实现机理方面,它涉及到生物学、生理学、心理学、物理及化学等许多基础学科。由于生物神经网络的结构和机理非常复杂,现在从这方面模拟还仅在尝试[1];另一个是功能方面,即尽量使人工神经网络具有生物神经网络的某些功能特性,如学习、识别、控制等。目前应用的神经网络均是对功能方面的模拟。神经网络有以下一些特点。(1)具有自适应功能:主要是根据所提供的数据,通过学习和训练,找出和输出之间的内在联系,从而求得问题的解答,而不是依靠对问题的经验知识和规则,因而具有良好的自适应性。(2)具有泛化功能:能够处理那些不经训练过的数据,而获得相应于这些数据的合适的解答;也能处理那些有噪声或