基于神经网络模型的自适应控制系统设计及仿真

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

1第一章前言1.1课题的意义:本毕业设计旨在学习并比较各种自适应控制算法,掌握matlab语言,利用simulink对自适应控制系统模型进行仿真分析。自适应控制是人们要求越来越高的控制性能和针对被控系统的高度复杂化,高度不确定性的情况下产生的,是人工智能渗入到应用科技领域的必然结果。并在常规控制理论的基础上得到进一步的发展和提高。进入21世纪以来,智能控制技术和远程监测技术继续飞速发展,逐渐被应用到电力、交通和物流等领域。从卫星智能控制,到智能家居机器人;从公共场所的无线报警系统,到家用煤气、自来水等数据的采集。可以说,智能控制技术和远程监测技术己经渗透到了人们日常生活之中,节约了大量的人力和物力,给人们的日常生活带来了极大的便利。目前,自适应控制的研究以认知科学、心理学、社会学、系统学、语言学和哲学为基础,有效的把数字技术、远程通信、计算机网络、数据库、计算机图形学、语音与听觉、机器人学、过程控制等技术有机的结合,提供了解决复杂问题的有效手段。自适应控制是在人们在追求高控制性能、高度复杂化和高度不确定性的被控系统情况下产生的,是人工智能渗入到应用科技领域的必然结果,并在常规控制理论的基础上得到进一步的发展和提高。主要研究对象从单输入、单输出的常系数线性系统,发展为多输入、多输出的复杂控制系统。自适应控制理论的产生为解决复杂系统控制问题开辟了新的途径,成为当下控制领域的研究和发展热点。1.2国内外研究概况及发展趋势:1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人可称为人工神经网络研究的先驱。1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。虽然,冯·诺依曼的名字是与普通计算机2联系在一起的,但他也是人工神经网络研究的先驱之一。50年代末,F·Rosenblatt设计制作了“感知机”,它是一种多层的神经网络。这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别、专家系统等方面的一切问题,使感知机的工作得不到重视;其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异感这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。60年代末期,人工神经网络的研究进入了低潮。另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。后来,在此基础上发展了非线性多层自适应网络。当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型。随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。这一背景预示,向人工神经网络寻求出路的时机已经成熟。美国的物理学家Hopfield于1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。人们重新认识到神经网络的威力以及付诸应用的现实性。随即,一大批学者和研究人员围绕着Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。1985年,Ackley,Hinton,andSejnowski将模拟退火算法应用到神经网络训练中,提出了Boltzmann机,该算法具有逃离极值的优点,但是训练时间需要很长。1986年,Rumelhart,Hinton,andWilliams提出了多层前馈神经网络的学习算法,即BP算法。它从证明的角度推导算法的正确性,是学习算法有理论依据。从学习算法角度上看,是一个很大的进步。1988年,BroomheadandLowe第一次提出了径向基网络:RBF网络。31.3设计要求1、设计要求1)首先完成简单控制系统模块的仿真分析;2)提出自适应控制系统设计的方法;3)建立基于神经网络的自适应控制系统的仿真模型;4)利用simulink对基于神经网络的自适应控制系统模型进行仿真;5)从仿真结果分析基于神经网络模型的自适应控制算法的性能。2、原始资料1)MATLAB语言;2)控制系统设计的基础理论;3)Simulink中控制系统模块的应用;4)翻译相关课题英文资料。4第二章神经网络2.1神经网络简介人工神经网络(artificialneuralnetwork,ANN)是模仿生物神经网络功能的一种经验模型。生物神经元受到传入的刺激,其反应又从输出端传到相联的其它神经元,输入和输出之间的变换关系一般是非线性的。神经网络是由若干简单(通常是自适应的)元件及其层次组织,以大规模并行连接方式构造而成的网络,按照生物神经网络类似的方式处理输入的信息。模仿生物神经网络而建立的人工神经网络,对输入信号有功能强大的反应和处理能力[9]。神经网络是由大量的处理单元(神经元)互相连接而成的网络。为了模拟大脑的基本特性,在神经科学研究的基础上,提出了神经网络的模型。但是,实际上神经网络并没有完全反映大脑的功能,只是对生物神经网络进行了某种抽象、简化和模拟[8]。神经网络的信息处理通过神经元的互相作用来实现,知识与信息的存储表现为网络元件互相分布式的物理联系。神经网络的学习和识别取决于各种神经元连接权系数的动态演化过程。若干神经元连接成网络,其中的一个神经元可以接受多个输入信号,按照一定的规则转换为输出信号。由于神经网络中神经元间复杂的连接关系和各神经元传递信号的非线性方式,输入和输出信号间可以构建出各种各样的关系,因此可以用来作为黑箱模型,表达那些用机理模型还无法精确描述、但输入和输出之间确实有客观的、确定性的或模糊性的规律。因此,人工神经网络作为经验模型的一种,在化工生产、研究和开发中得到了越来越多的用途。2.2神经网络结构与学习规则2.2.1人工神经元模型图3-1表示出了作为人工神经网络(artificialneuralnetwork,以下简称NN)的基本单元的神经元模型,它有三个基本要素:5图3-1人工神经网络模型(i)一组连接(对应于生物神经元的突触),连接强度由各连接上的权值表示,权值为正表示激活,为负表示抑制。(ii)一个求和单元,用于求取各输入信号的加权和(线性组合)。(iii)一个非线性激活函数,起非线性映射作用并将神经元输出幅度限制在一定范围内(一般限制在)1,0(或)1,1(之间)。此外还有一个阈值k(或偏置kkb)。以上作用可分别以数学式表达出来:pjjkjkxwu1,kkkuv,)(kkvy式中pxxx,,,21为输入信号,kpkk为神经元k之权值,ku为线性组合结果,k为阈值,)(为激活函数,ky为神经元k的输出。若把输入的维数增加一维,则可把阈值k包括进去。例如pjjkjkxwv0,)(kkuy此处增加了一个新的连接,其输入为10x(或1),权值为kkw0(或kb),如图3-2所示。图3-2复杂人工神经网络模型6激活函数)(可以有以下几种:(i)阈值函数0,00,1)(vvv即阶梯函数。这时相应的输出ky为0,00,1kkkvvy其中pjkjkjkxwv1,常称此种神经元为PM模型。(ii)分段线性函数1,011),1(211,1)(vvvvv它类似于一个放大系数为1的非线性放大器,当工作于线性区时它是一个线性组合器,放大系数趋于无穷大时变成一个阈值单元。(iii)sigmoid函数最常用的函数形式为)exp(11)(vv参数0可控制其斜率。另一种常用的是双曲正切函数)exp(1)exp(12tanh)(vvvv这类函数具有平滑和渐近性,并保持单调性。Matlab中的激活(传递)函数如下表所示:表2-1传递函数函数名功能purelin线性传递函数hardlim硬限幅传递函数hardlims对称硬限幅传递函数satlin饱和线性传递函数7satlins对称饱和线性传递函数logsig对数S形传递函数tansig正切S形传递函数radbas径向基传递函数compet竞争层传递函数各个函数的定义及使用方法,可以参看Matlab的帮助(如在Matlab命令窗口运行helptansig,可以看到tantig的使用方法,及tansig的定义为112)(2vev)。2.2.2网络结构及工作方式除单元特性外,网络的拓扑结构也是NN的一个重要特性。从连接方式看NN主要有两种。(i)前馈型网络各神经元接受前一层的输入,并输出给下一层,没有反馈。结点分为两类,即输入单元和计算单元,每一计算单元可有任意个输入,但只有一个输出(它可耦合到任意多个其它结点作为其输入)。通常前馈网络可分为不同的层,第i层的输入只与第1i层输出相连,输入和输出结点与外界相连,而其它中间层则称为隐层。(ii)反馈型网络所有结点都是计算单元,同时也可接受输入,并向外界输出。NN的工作过程主要分为两个阶段:第一个阶段是学习期,此时各计算单元状态不变,各连线上的权值可通过学习来修改;第二阶段是工作期,此时各连接权固定,计算单元状态变化,以达到某种稳定状态。从作用效果看,前馈网络主要是函数映射,可用于模式识别和函数逼近。反馈网络按对能量函数的极小点的利用来分类有两种:第一类是能量函数的所有极小点都起作用,这一类主要用作各种联想存储器;第二类只利用全局极小点,它主要用于求解最优化问题。2.2.3神经网络的学习方式学习是神经网络的主要特征之一。学习规则就是修正神经元之间连接强度或加权系数的算法,使获得的知识结构适应周围环境的变化。在学习过程中,执行学习规则,8修正加权系数。神经网络的学习方式主要分为有导师(指导式)学习、无导师(自学式)学习和再励学习(强化学习)三种:(l)有导师学习:就是在学习的过程中,有一个期望的网络输出,学习算法根据给定输入的神经网络实际输出与期望输出之间的误差来调整神经元的连接强度,即权值。因此学习需要有导师来提供期望输出信号。(2)无导师学习:就是在学习过程中不需要有期望输出,因而不存在直接的误差信息。网络学习需要建立一个间接的评价函数,每个处理单元能够自适应连接权值,以对网络的某种行为趋向作出评价。(3)再励学习:这种学习介于上述两种情况之间,外部环境对系统输出结果只给出评价(奖或罚)而不是给出正确答案,学习系统经过强化那些受奖励的行为来改善自身性能。2.2.4神经网络的学习规则神经网络通常采用的网络学习规则包括以下三种:(l)误差纠正学习规则令kyn是输入kxn时神经元k在n时刻的实际输出,kdn表示应有的输出(可由训练样本给出),则误差信号可写为:kkkendnyn误差纠正学习的最终目的是使某一基于ken的目标函数达到要求,以使网络中每一输出单元的实际输出在某种统计意义上逼近应有输出。一旦选定了目标函数形式,误差纠正学习就变成了一个典型的最优化问题,最常用的

1 / 43
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功