科技学院智能控制结课报告(2012--2013年度第1学期)课程名称:智能控制院系:动力工程系班级:自动化09k1学号:091912010120学生姓名:隋晓东成绩:2012年12月一、引言神经网络控制是20世纪80年代末期发展起来的自动控制领域的前沿学科之一。它是智能控制的一个新的分支,为解决复杂的非线性、不确定、不确知系统的控制问题开辟了新途径。神经网络控制是(人工)神经网络理论与控制理论相结合的产物,是发展中的学科。它汇集了包括数学、生物学、神经生理学、脑科学、遗传学、人工智能、计算机科学、自动控制等学科的理论、技术、方法及研究成果。在控制领域,将具有学习能力的控制系统称为学习控制系统,属于智能控制系统。神经控制是有学习能力的,属于学习控制,是智能控制的一个分支。神经控制发展至今,虽仅有十余年的历史,已有了多种控制结构。如神经预测控制、神经逆系统控制等。神经网络控制是一种基本上不依赖于模型的控制方法,它适合于具有不确定性或高度非线性的控制对象,并具有较强的自适应和自学习功能,因此是智能控制的一个重要分支领域。人工神经网络利用物理器件来模拟生物神经网络的某些结构和功能,具有并行和分布式的信息处理网络结构,该结构一般由几个神经元组成,每一个神经元有一个单一的输出,但可通过连接的很多其它神经元,获得有多个连接通道的输入,每个连接通道对应一个连接权系数。二、人工神经网络的历史沿革人工神经网络的研究是从19世纪末期开始的,其发展历史经历了以下四个时期。1.启蒙时期启蒙时期开始于1980年美国著名心理学家W.James关于人脑结构与功能的研究,结束于1969年Minsky和Papert发表的《感知器》(Perceptron)一书。早在1943年,美国神经生物学家W.S.McCul-loch和数学家W.Pitts合作,采用数理模型的方法研究脑细胞的动作和结构,以及生物神经元的一些基本生理特征,提出了第一个神经计算模型,即神经元的阈值元件模型(M-P模型),并指出:即使是最简单的神经网络,从原则上讲也可以进行任意算术或逻辑函数的计算。该模型把神经细胞的动作描述为:神经元的活动表现为兴奋或抑制的二值变化;任何兴奋性突触有输入激励后,使神经元兴奋与神经元先前的动作状态无关;任何抑制性突触有输入激励后,使神经元抑制;突触的值不随时间改变;突触从感知输入到传送出一个输出脉冲的延迟时间是0.5ms。可见,M-P模型是用逻辑的数学工具研究客观世界的事件在形式神经网络中的表述。现在来看M-P模型尽管过于简单,而且其观点也并非完全正确,但是其理论有一定的贡献。因此,M-P模型被认为开创了神经科学理论研究的新时代。1949年,心理学家D.O.Hebb提出了神经元之间突触联系连接强度可变的假设,并据此提出神经元的学习规则——Hebb规则,其正确性30年后才得到证实,至今仍在各种神经网络模型中起着重要的作用,为神经网络的学习算法奠定了基础。1957年,计算机学家FrankRosenblatt提出了一种具有三层网络特性的神经网络结构,称为“感知器”(Perceptron),从而掀起第一次研究神经网络的热潮。它是由阈值性神经元组成,试图模拟动物和人脑的感知学习能力,Rosenblatt认为信息被包含在相互连接或联合之中,而不是反映在拓扑结构的表示法中;另外,对于如何存储影响认知和行为的信息问题,他认为,存储的信息在神经网络系统内开始形成新的连接或传递链路后,新的刺激将会通过这些新建立的链路自动地激活适当的响应部分,而不是要求任何识别或坚定他们的过程。1960年B.Windrow和M.E.Hoff提出自适应线性单元(Adaline)网络,它是连续取值的线性网络,主要用于自适应信号处理和自适应控制。这与当时占主导地位的以顺序离散符号推理为基本特征的AI途径完全不同,因而引起人们的兴趣,同时也引起符号主义与连接主义的争论。2.低潮期人工智能的创始人之一M.Minsky和S.Papert经过数年研究,对以感知器为代表的网络系统的功能及其局限性从数学上做了深入的研究,于1969年出版了很有影响的《Perceptron》一书,该书在肯定感知器的研究价值的同时,指出感知器的局限性,在数学上证明了感知器不能解决XOR等线性不可分问题,提出了感知器不可能实现复杂的逻辑函数,这对当时的人工神经网络研究产生了极大的负面影响,从而使神经网络研究处于低潮时期。引起低潮的更重要的原因是:20世纪70年代以来集成电路和微电子技术的迅猛发展,使传统的冯·诺伊曼型计算机进入发展的全盛时期,因此暂时掩盖了发展新型计算机和寻求新的神经网络的必要性和迫切性。但是在此时期,波士顿大学的S.Grossberg教授和赫尔辛基大学的Kohonen教授,仍致力于神经网络的研究,分别提出了自适应共振理论(AdaptiveResonanceTheory)和自组织特征映射模型(SOM)。以上开创性的研究成果和工作虽然未能引起当时人们的普遍重视,但其科学价值却不可磨灭,它们为神经网络的进一步发展奠定了基础。3.复兴时期20世纪80年代以来,人工神经网络进入一个高速发展的阶段,Prigogine因提出非平衡系统的自组织理论(耗散结构理论)而获得诺贝尔奖;近年来广泛研究的浑沌动力学和奇异吸引子理论,则揭示了系统的复杂行为。由于以逻辑推理为基础的人工智能理论和冯·诺伊曼型计算机在处理诸如视觉、听觉、联想记忆等智能信息处理问题上受到挫折,促使人们怀疑当前的冯·诺伊曼型计算机是否能解决智能问题,同时也促使人们探索更接近人脑的计算模型,于是又形成了对神经网络研究的热潮。1982年,美国加州理工学院的物理学家JohnJ.Hopfield博士发表了一篇对神经网络研究的复苏起了重要作用的文章,他总结与吸取前人对神经网络研究的成果与经验,把网络的各种结构和各种算法概括起来,塑造出一种新颖的强有力的网络模型,称为Hopfield网络,有力地推动了神经网络的研究。Hopfield通过引入“计算能量函数”的概念,给出网络稳定性判据。从而有力地推动了神经网络的研究与发展。1984年Hopfield提出网络模型实现的电子电路,为神经网络的工程实现指明了方向。1985年Hinton和Sejnowski将模拟退火算法引入到神经网络中,提出Boltzmann机模型,为神经网络优化计算提供了一个有效方法。D.E.Rumelhart和J.L.McClelland等人提出的PDP(并行分布处理理论),致力于认知微观结构的探索;1986年,Rumelhart及LeCun等学者提出了多层感知器的反向传播学习算法(BP算法),把学习结果反馈到中间层次的隐单元,改变它们的联系矩阵,从而达到预期的学习目的,克服了当初阻碍感知器模型继续发展的重要障碍,迄今为止仍是应用最广泛的神经网络。这一时期,大量而深入的开拓性工作大大发展了神经网络的模型和学习算法,增强了对神经网络特性的进一步认识,使人们对模仿脑信息处理的智能计算机的研究重新充满了希望。4.新时期1987年6月,首届国际神经网络学术会议在美国加州圣地亚哥召开,这标志着世界范围内掀起了神经网络开发研究的热潮。在这次会上成立了国际神经网络学会(INNS),并于1988年在美国波士顿召开了年会,会议讨论的议题涉及到生物、电子、计算机、物理、控制、信号处理及人工智能等各个领域。自1988年起,国际神经网络学会和国际电气工程师与电子工程师学会(IEEE)联合召开了每年一次的国际学术会议。这次会议后不久,美国波士顿大学的StephenGrossberg教授、芬兰赫尔辛基技术大学的TeuvoKohonen教授及日本东京大学的甘利俊一教授,主持创办了世界第一份神经网络杂志《NeuralNetwork》。随后,IEEE也成立了神经网络协会并于1990年3月开始出版神经网络会刊,各种学术期刊的神经网络特刊也层出不穷。从1987年以来,神经网络的理论、应用、实现及开发工具均以令人振奋的速度快速发展。神经网络理论已成为涉及神经生理科学、认知科学、数理科学、心理学、信息科学、计算机科学、微电子学、光学、生物电子学等多学科交叉、综合的前沿学科。神经网络的应用已渗透到模式识别、图像处理、非线性优化、语音处理、自然语言理解、自动目标识别、机器人专家系统等各个领域,并取得了令人瞩目的成果。进入20世纪90年代以来,神经网络的研究已进入相对平稳的发展时期,许多理论得到了进一步的证实、补充与发展。同时神经网络的应用研究得以广泛开展,应用的领域也不断扩大。神经网络理论的应用已经渗透到各个领域,并在智能控制、模式识别、计算机视觉、自适应滤波和信号处理、非线性优化、自动目标识别、连续语音识别、声纳信号的处理、知识处理、传感技术与机器人、生物医学工程等方面,都取得很大的进展。三、人工神经网络的定义与特点人工神经网络(ARTIFICIALNEURALNETWORK,简称ANN)是目前国际上一门发展迅速的前沿交叉学科。为了模拟大脑的基本特性,在现代神经科学研究的基础上,人们提出来人工神经网络的模型。人工神经网络是在对人脑组织结构和运行机智的认识理解基础之上模拟其结构和智能行为的一种工程系统。人工神经网络的定义不是统一的,T.Koholen对人工神经网络的定义:“人工神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。”人工神经网络是生物神经网络的一种模拟和近似,主要从两个方面进行模拟:一个是结构和实现机理方面,它涉及到生物学、生理学、心理学、物理及化学等许多基础学科。由于生物神经网络的结构和机理非常复杂,现在从这方面模拟还仅在尝试;另一个是功能方面,即尽量使人工神经网络具有生物神经网络的某些功能特性,如学习、识别、控制等。目前应用的神经网络均是对功能方面的模拟。神经网络有以下一些特点:1.具有自适应功能主要是根据所提供的数据,通过学习和训练,找出和输出之间的内在联系,从而求得问题的解答,而不是依靠对问题的经验知识和规则,因而具有良好的自适应性。2.具有泛化功能能够处理那些不经训练过的数据,而获得相应于这些数据的合适的解答;也能处理那些有噪声或不完全的数据,从而显示了很好的容错能力。3.非线性映射功能现实的问题非常复杂,各因素间互相影响,呈现出复杂的非线性关系,神经元网络为处理这些问题提供了有用的工具。4.高度并行处理信息此特点使用硬件实现的神经网络的处理速度远远高于普通计算机。5.高度的并行性人工神经网络是由许多相同的简单处理单元并联组合而成,大量简单处理单元的并行活动,使其处理信息的能力大大提高。6.高度的非线性全局作用人工神经网络的每个神经元接受大量其他神经元的输入,并通过并行网络产生输出,影响其他神经元。网络之间的这种相互制约和影响,实现了从输入状态到输出状态空间的非线性映射。从全局的观点来看,网络整体性能不是网络局部性能的简单叠加,而是表现出某种集体性行为。7.良好的容错性和联想记忆功能人工神经网络通过自身的网络结构能够实现对信息的记忆,所记忆的信息以分布式存储在神经元之间的权值中,使得网络具有良好的容错性,并能进行聚类分析、特征提取、模式复原等模式信息处理工作,又宜于做模式分类、模式联想等模式识别工作。人工神经网络可以通过训练和学习来获得网络的权值和结构,呈现出很强的自学能力和对环境的自适应能力,便于现有计算机技术虚拟实现。四、人工神经网络在控制系统中的应用神经网络控制的研究始于20世纪60年代。1960年,Widrow和Hoff首先将神经网络运用于控制系统。Kilmer和McCulloch提出了KMB神经网络模型,并在“阿波罗”登月计划中的应用取得良好的效果。1964年,widrow等用神经网络对小车倒立摆系统控制取得成功。神经网络控制可以分为监视控制、逆控制、神经适应控制、实用反向传播控制和适应评价控制等。在智能控制系统中,最重要的是和知识基有关的推理机型,以及随环境变化的适应能力。一般而言,推理是以符号为元素执行的,而客观世界中的信号是数值,为了理解过程的状态,需要实施