第一章概述人工智能是那些与人的思维相关的活动,诸如决策、问题求解和学习等的自动化(Bellman,1978);人工智能是一种计算机能够思维,使机器具有智力的激动人心的新尝试(Haugeland,1985);人工智能是那些使知觉、推理和行为成为可能的计算的研究(Winston,1992);人工智能是关于人造物的智能行为,而智能行为包括知觉、推理、学习、交流的行为(Nilsson,1998)。像人一样思考的系统、像人一样行动的系统、理性地思考、行动的系统(StuartRussell,2003)。1.1人工智能定义1.2人工智能的研究途径与研究领域专家系统(ExpertSystems)人工神经网络(ArtificialNeuralNetworks)模糊逻辑(FuzzyLogic)进化算法(如:遗传算法GeneticAlgorithm,粒子群SwarmParticle,禁忌搜索TabuSearch,模拟退火算法SimulatedAnnealing,)多智能体系统(Multi-agentsystem)心理模拟,符号推演生理模拟,神经计算行为模拟,控制进化群体模拟,仿生计算1.3人工智能在电力系统的应用领域机组启停UnitCommitment维护计划Maintenancescheduling负荷预测LoadForecasting发电控制与保护Generationcontrolandprotection潮流优化OptimalPowerFlowAnalysis电力系统安全分析SecurityAnalysis电力系统稳定分析StabilityAnalysis无功优化分配Vardispatchandplanning控制优化Optimizationofself-adaptivecontrol继电保护Relayingprotection经济调度Economicdispatch变电所运行控制Substationswitchingandcontrol系统恢复供电Systemreconfigurationandrestoration电力质量控制PowerqualityControl系统设计优化SystemDesignOptimization电力规划planningforelectricPower电气设备故障诊断Faultdiagnosisforelectricfacilities1.3人工智能在电力系统的应用领域第二章神经网络及其在电力系统中的应用人工神经网络是集脑科学、神经心理学和信息科学等多学科的交叉研究领域,是近年来高科技领域的一个研究热点。它的研究目标是通过研究人脑的组成机理和思维方式,探索人类智能的奥秘,进而通过模拟人脑的结构和工作模式,使机器具有类似人类的智能。它已在模式识别、机器学习、专家系统等多个方面得到应用,成为人工智能研究中的活跃领域。本章将简要介绍神经网络基本的概念、模型以及学习算法以及应用实例。2.1神经网络的基本概念及组成特性神经元及其突触是神经网络的基本器件。因此,模拟生物神经网络应首先模拟生物神经元。在人工神经网络中,神经元常被称为“处理单元”。有时从网络的观点出发常把它称为“节点”。人工神经元是对生物神经元的一种形式化描述。神经元主要由三部分构成:(1)细胞体;(2)轴突;(3)树突2.2人工神经网络的特性高度的并行性ANN是由许多相同的简单处理单元并联组合而成,虽然每个单元的功能简单,但大量简单处理单元的并行活动,使其对信息的处理能力与效果惊人。高度的非线性全局作用ANN每个神经元接受大量其它神经元的输入,并通过并行网络产生输出,影响其他神经元。网络之间的这种互相制约和互相影响,实现了从输入状态到输出状态空间的非线性映射。从全局的观点来看,网络整体性能不是网络局部性能的简单迭加,而表现出某种集体性的行为。良好的容错性与联想记忆功能ANN通过自身的网络结构能够实现对信息的记忆。而所记忆的信息是存储在神经元之间的权值中。从单个权值中看不出所储存的信息内容,因而是分布式的存储方式。这使得网络具有良好的容错性,并能进行聚类分析、特征提取、缺损模式复原等模式信息处理工作;又宜于模式分类、模式联想等识别工作。十分强的自适应、自学习功能ANN可以通过训练和学习来获得网络的权值与结构,呈现出很强的学习能力和对环境的自适应能力。2.3人工神经网络的学习方法监督学习(有教师学习)如图所示,这种学习方式需要外界存在一个“教师”,他可对给定一组输入提供应有的输出结果,这组已知的输入-输出数据称为训练样本集,学习系统(神经网络)可根据已知输出与实际输出之间的差值(误差信号)来调节系统参数非监督学习(无教师学习)环境教师学习系统输入期望输出实际输出误差信号2.3人工神经网络的分类前向网络中,各神经元节点接受前一层的输出信号,并将本层的输出作为下一层的输入,其特点是信号的流向是从输入流向输出。在ANN的实际应用中,80%~90%的ANN模型是采用BP网络或它的变化形式,它也是前向网络的核心部分、体现了ANN精华的部分。前向神经网络2.3人工神经网络的分类反馈神经网络…………输出输入反馈网络中,输出信号通过与输入连接而返回到输入端,从而形成一个回路。在前向网络中,有单层感知器、自适应线性网络和BP网络。在反馈网络中,有离散型和连续型霍普菲尔德网络。2.4BP神经网络2.4.1BP神经网络概述BP网络神经网络是目前应用最为广泛和成功的神经网络之一。它是在1986年由Rumelhant和McClelland提出的一种多层网络的“逆推”学习算法。其基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传入,经隐层逐层处理后传向输出层。若输出层的实际输出与期望输出不符,则转向误差的反向传播阶段。误差的反向传播是将输出误差以某种形式通过隐层向输入逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这种信号正向传播与误差反向传播的各层权值调整过程是周而复始地进行。权值不断调整的过程,也就是网络的学习训练过程。此过程一直进行到网络输出的误差减少到可以接受的程度,或进行到预先设定的学习次数为止。2.4.2BP神经网络应用领域函数逼近:用输入矢量和相应的输出矢量训练—个网络逼近一个函数;模式识别:用一个特定的输出矢量将它与输入矢量联系起来;分类:把输入矢量以所定义的合适方式进行分类;数据压缩:减少输出矢量维数以便于传输或存储。2.4BP神经网络2.4.3BP网络模型与结构BP网络具有一层或多层隐含层,其主要差别也表现在激活函数上BP网络的激活函数必须是处处可微的,BP网络经常使用的是S型的对数或正切激话函数和线性函数W1B1F1W2B2F2PA1ikjs1xrA2s1x1s2x1s2xs1s1xqs2xqrxq112.4BP神经网络2.4.4BP神经网路的几种常见激活函数阀值型A-101fA-101-bf不带偏差的阀值型激活函数带偏差的阀值型激活函数0001bPWbPWbPWfA2.4BP神经网络2.4.4BP神经网路的几种常见激活函数线形型不带偏差的线性激活函数带偏差的线形型激活函数2.4BP神经网络A-101fA-101f-bbPWbPWfA2.4.4BP神经网路的几种常见激活函数bnef112.4BP神经网络A-101fA-101f对数S型激活函数双曲正切S型激活函数对数S型函数关系为:双曲正切S型函数关系:bnbneef2211Sigmoid型2.4.5BP网络学习2.4BP神经网络BP算法的学习目的是对网络的连接权值进行调整,使得调整后的网络对任一输入都能得到所期望的输出。学习过程由正向传播和反向传播组成。正向传播用于对前向网络进行计算,即对某一输入信息,经过网络计算后求出它的输出结果。反向传播用于逐层传递误差,修改神经元间的连接权值,以使网络对输入信息经过计算后所得到的输出能达到期望的误差要求。2.4.5BP网络学习ia12.4BP神经网络设输入为P,输人有r个,隐含层内有s1个神经元,激话函数为F1,输出层内有个s2神经元,对应的激活函数为F2,输出为A,目标矢量力T。kjiia2隐含层输出层输入层jPijWkiW2.4.5BP网络学习2.4BP神经网络1、信息的正向传递(1)隐含层中第i个神经元的输出为:rjijijibpwfa111111,,2,1si(2)输出层第k个神经元的输出为1121222sikikikbawfa2,,2,1sk(3)定义误差函数为:221221,skkkatBWE2.4.5BP网络学习ikiikkkikkkikiaafatwaaEwEw112222222'2.4BP神经网络1、误差反向传播(1)输出层的权值变化:对从第i个输入到第k个输出的权值有:'2fekki其中::学习速率,过大容易震荡,过小调整过慢;:训练样本对目标输出;:神经网络实际输出;:输出层神经元传递函数的导数;ktka2'2fkkkate2ke:误差;2.4.5BP网络学习2.4BP神经网络1、误差反向传播'2)2(fatkkkikikkkikkkikifatbaaEbEb'2222222(2)输出层的阀值变化:其中:!注意:输出层的权值变化与输出层的阈值变化的差别2.4.5BP网络学习jijjkiskkkijiikkijijppfwfatwaaaaEwEw''2112221112211'1feiij212skkikiiwe2.4BP神经网络1、误差反向传播(3)隐含层的权值变化:对从第j个输入到第i个输出的权值有:其中:(4)隐含层的阈值变化:ijib12.4.6BP网络的限制与不足及改进2.4BP神经网络1不足需要较长的训练时间对于一些复杂的问题,BP算法可能要进行几小时甚至更长的时间的训练。这主要是由于学习速率太小所造成的。可采用变化的学习速率或自适应的学习速率加以改进。完全不能训练这主要表现在网络出现的麻痹现象上。在网络的训练过程中,当其权值调得过大,可能使得所有的或大部分神经元的加权总和偏大,这使得激活函数的输入工作在S型转移函数的饱和区,从而导致其导数非常小,从而使得对网络权值的调节过程几乎停顿下来。通常为了避免这种现象的发生,一是选取较小的初始权值,二是采用较小的学习速率,但这又增加了训练时间。2.4.6BP网络的限制与不足及改进2.4BP神经网络1不足局部极小值BP算法可以使网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。这是因为BP算法采用的是梯度下降法,训练是从某一起始点沿误差函数的斜面逐渐达到误差的最小值。对于复杂的网络,其误差函数为多维空间曲面,就像一个碗,其碗底是最小值点。但是这个碗的表面是凹凸不平的,因而在对其训练过程中,可能陷入某一小谷区,而这一小谷区产生的是一个局部极小值。由此点向各方向变化均使误差增加,以致于使训练无法逃出这一局部极小值。2.4.6BP网络的限制与不足及改进1212tWaatWkiikiki2.4BP神经网络1改进增加动量项标准BP算法在调整权值时,只按t时刻误差的梯度下降方向调整,而没有考虑t时刻以前的梯度方向。为了提高训练速度,可以在权值调整公式中加一动量项,其中a为动量系数:动量项反映了以前积累的调整经验。当误差梯度出现局部极小时,虽然但,使其跳出局部极小区域,加快迭代收敛速度。目前,大多数BP算法中都增加了动量项,以至于有动量项的BP算法成为一种新的标准算法。012tWki02kiW2.4.6BP网络的限制与不足及改进2.4BP神经网络1改