神经网络控制

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

《神经网络控制》试卷学号:姓名:成绩:一、(20分)试论述人工神经网络的特点及发展概况二、(20分)试给出实现图1所示模式分类的感知器网络结构和参数,其中,¡O¡表示1,¡¡¡表示0X1X21-1-11图1模式分类问题三、(20分)试选择一种神经网络(要求网络参数全学习)实现如下的二维非线性映射)cos()sin(),(2121xxxxf其中,1,11x,1,12x四、(20分)试利用Hopfield神经网络方法求解图3所示的五阶TSP问题,要求给出问题求解的算法及源程序或电路模型。CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.2ABCED31453245155323311441图2五阶TSP问题模型五、(20分)用三层网络解决字母T与L的识别问题,为简单计,每个字母用3¡3的二维二值图表示,令黑方格为1,白方格为0,每个字母有4个样本,包括字母正常位置及旋转90¡,180¡和270¡的图像(如图2),希望输入不同位置下的T时网络输出为l,输入L时为0,可选网络结构为9¡3¡1。用BP算法求出权系数和阈值。建议:隐层变换函数为:112)()(xexfy;输出层变换函数为:)(11)(xexfy图3T和L二维二值图六、(20分)试论述神经网络辨识的基本方法或神经网络控制的典型结构CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.3一、解答:人工神经网络是由大量的神经处理单元广泛地互联而形成的复杂网络,它是从微观结构和功能上对人脑的简化、抽象和模拟。1.神经网络具有如下的特点:1)大规模并行处理信息。在每一层内的处理单元都是同时操作的,即神经网络的计算功能分布在多个处理单元。在大规模的神经网络系统中,有许多能同时进行运算的处理单元,信息处理是在大量处理单元中并行而又有层次地进行,运算速度快。另外神经网络系统并不是执行一串单独的指令,神经网络系统中的所有单元都是一起协同解决某一问题,这是一种集团运算的能力,所以信息的处理能力是由整个神经网络系统所决定。2)知识的分布存储。在神经网络中,知识不是存储在特定的存储单元中,而是分布在整个系统中,要存储多个知识就需要很多连接。在神经网络中要获得存储的知识则采用¡联想¡的办法,这类似人类和动物的联想记忆。当一个神经网络输入一个激励时,它要在已存储的知识中寻找与该输入匹配最好的存储知识为其解。人工神经网络根据联想善于正确识别图形。3)容错性。人工神经网络具有很强的容错性。它可以从不完善的数据和图形进行学习和做出决定。由于知识存在整个系统中,而不是在一个存储单元中,一定比例的结点不参与运算,对整个系统的性能不会产生重大影响。所以,在神经网络中承受硬件损坏的能力比一般计算机强得多。一般计算机中,这种容错能力是很差的,如果去掉其任一个部件,都会导致机器的瘫痪。4)自学习和自组织能力。学习和适应体现在状态变化过程中神经网络系统内部结构相连接方式的改变,如Hebb学习规则,假设了两个处理单元若同时兴奋则引起它们之间连接强度的变化,这种变化最终会导致在外界输入作用下网络系统内部有的信息通路增强,有的信息通路变弱甚至阻断,客观上造成网络系统内部结构和状态的变化。神经网络的学习能力,使它在一定程度中类似于大脑的学习功能。5)非线性映射功能。在实际的控制系统中,所碰到的问题大多是高度非线性的,靠常规的控制方法无法解决,人工神经网络的优越性在这里得到了体现。CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.42.人工神经网络的发展状况:第一阶段¡启蒙时期神经网络理论研究的奠基阶段。1943年,神经生物学家MeCulloch和数学家Pitts合作,提出了第一个人工神经元模型,并在此基础上抽象出神经元的阈值模型(MP模型)。Hebb于1949年提出连接权值强化的Hebb法则,表明神经元之间突触的联系强度可变,而可变性是学习和记忆的基础。1958年Rosenblatt在原有MP模型的基础上增加了学习机制。他提出的感知器模型,首次把神经网络理论付诸工程实现。第二阶段¡低潮时期1969年,Minsky和Papert出版了轰动一时《Perceptrons》一书,指出简单的线性感知器的功能是有限的,它无法解决线性不可分的两类样本的分类问题。这一论断给当时人工神经元网络的研究带来沉重打击。处于低潮的另外一个原因是,20世纪70年代以来,集成电路和微电子技术的迅猛发展,使传统的VonNeumann计算机进入全盛时期,基于逻辑符号处理方法的人工智能得到了迅速发展并取得显著成绩,它们的问题和局限性尚未暴露,因此暂时掩盖了寻求新的神经网络的必要性和迫切性。第三阶段¡复兴时期1982年,美国国家科学院的刊物上发表了著名的Hopfield模型的理论。Hopfield构造出Laypunov函数,并证明了在Tij=Tji情况下,网络在平衡点附近的稳定性,还将这种模型用电子电路来实现,提出了动力方程和学习方程,还对网络算法提供了重要公式和参数,使人工神经网络的构造和学习有了理论指导神经网络理论研究很快便迎来了第二次高潮。1983年,Kirkpatrick等人认识到模拟退火算法可用于NP完全组合优化问题,通过求解这种模拟高温物体退火过程来找寻全局最优解的方法。1984年,Hinton与年轻学者Sejnowski等合作提出了大规模并行网络学习机,并明确提出了隐层单元的概念。这种学习机后来被称为Boltzmann机。1986年,由Rumelhart和McCkekkand主编的《ParallelDistributedProcessing:Ex-plorationintheMicrostructuresofCognition》中,对BP算法进行了详尽CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.5的分析,解决了长期以来没有权值调整有效算法的难题,从实践上证实了人工神经网络有很强的运算能力。在神经网络的物理实现方面,Mead和Conway、Mahowald等人,研制一种动物神经系统的电子电路模拟,他们以人的视网膜中锥体细胞的方式来连接一块VLSI芯片。Wunsch在1990OSA年会上提出一种光电ART,它的主要计算强度由光学硬件完成,以光学方法来实现神经网络。随着人们发现人脑中存在着混沌现象,一些科学家进而又提出了混沌神经网络理论。1991年Aibara等人在前人推导和实验的基础上,给出一个混沌神经元模型。CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.6二、解答:根据题意可知,在图示上添加三条直线L1(红)、L2(绿)和L3(蓝)即可把所有点分为5部分,并且表示0和1的点不在同一部分。如图4所示:P16P15L2P14P13P11P10P8P7P6P5P4P3P2P1L3L1X1X21-1-11P9P12图4第一层线性分割图各神经元输入输出变换关系为:2()()(1)1()()()()10()001,2,31,2qqqiijjijjqqqiiiqiSwxSxfSSiq具体的做法如下:(1)设计连接权系数(1)11w,(1)12w,和阈值11,使得L1的方程为:(1)(0)(1)(0)111112210wxwx,直线L1上方的点输出为1,直线下方的点输出为0.给出其中一种可能的权值和阈值,11111121=-1=1=-0.5()(),,。(2)设计连接权系数(1)21w,(1)22w,和阈值12,使得L2的方程为:(1)(0)(1)(0)121122220wxwx,直线L2左方的点输出为0,直线右方的点输出为1,给出其中一种可能的权值和阈值,11121222=1=0=-0.5()(),,。CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.7(3)设计设计连接权系数(1)31w,(1)32w,和阈值13,使得L3的方程为:(1)(0)(1)(0)131132230wxwx,直线L3上方的点输出为1,直线下方的点输出为0,给出其中一种可能的权值和阈值,11131323=1=1=0.5()(),,那么图4中的点在L1、L2、L3规则下的坐标应该表示为:P1、P2、P3的坐标为(1,1,1),用S1表示;P4、P5的坐标为(0,1,1),用S2表示;P6、P7的坐标为(0,1,0)用S3表示;P8、P9、P10、P11、P12的坐标为(1,0,0)用S4表示;P13,P14,P15,P16的坐标为(1,1,0)用Z表示。然后,在平面规则下将上述点在三位直角坐标系下表示如图5所示:现在只要设计连接权系数(2)1w、(2)2w和(2)3w。得出平面方程(2)(1)(2)(1)(2)(1)(2)1122330wxwxwx,该平面即可将Z与14~SS划分,从而将¡与○区分开来。X1S3(0,1,0)Z(1,1,0)A(0.5,1,0)S4(1,0,0)S1(1,1,1)S2(0,1,1)B(1,0.5,0)C(1,1,0.5)X2X3图5第二层感知器网络模式类划分从图5看出,可取三点A(0.5,1,0),B(1,0.5,0),C(1,1,0.5)组成该平面,解得平面方123302xxx,所以取(2)1w=1,(2)2w=1,(2)3w=-1,(2)32。将113(~)SPP、245(~)SPP、367(~)SPP、4812(~)SPP、51316(~)ZPP对应的输出是0、0、0、0、1。“○”表示1,¡¡¡表示0,因此可以将他们正确分类。CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.8(0)2x(1)11w(1)21w(1)31w(1)12w(1)22w(1)32w(1)1x(1)2x(1)3x1112132(2)x(2)1w(2)2w(2)3w(0)1x图6感知器网络综上所述,本题双层感知器网络如图6所示。其中各神经元的参数如下:)1(11w=-1,)1(12w=1,)1(1=-0.5,)1(21w=1,)1(22w=0,)1(2=-0.5,)1(31w=1,)1(32w=1,)1(3=0.5,(2)1w=1,(2)2w=1,(2)3w=-1,(2)32CreatedwithnovaPDFPrinter().Pleaseregistertoremovethismessage.9三、解答:用模糊神经网络逼近如下二维非线性函数:12sin()cos()yxx,其中12[1,1],[1,1]xx模糊神经网络实现方法:1.先确定模糊神经网络的结构图(1)第一层是输入层,输入变量的维数n=2,因此,第一层结点数为N1=2;(2)第二层每个结点代表一个语言变量值,用于计算各输入分量属于各语言变量值模糊集合的隶属度函数。将输入量x1和x2均分为8个模糊等级,它们对应于8个模糊语言名称,即m1=m2=8,则第二层结点数为N2=8¡2=16;(3)第三层的每个结点代表一条模糊规则,用来匹配模糊规则的前件,计算出每条规则的适用度,该层的结点数为N3=8¡8=64;(4)第四层的结点数与第三层相同,即N4=8¡8=64;(

1 / 25
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功