附录A对于N个不同的训练样本,jjxy,jx是1n维输入向量,jy是1m维输出向量,具有D个隐层节点和无限可微激活函数gx的SLFN结构可以以零误差逼近这N组样本,即存在βi,i和ib,使0jjyr,也可写成如下形式:1,1,,DTijijigbjNiβxy(A1)式中:i为1n维向量,表示输入层与隐含层的神经元的连接权值;i为1m维向量,表示隐含层与输出层神经元的连接权值;ib为隐含层神经元的阀值;jr为网络的输出;g为激活函数,可以是“sig”,“rbf”,“sin”等多种形式。这N个方程可写成矩阵形式:HR(A2)111111DNDTTDTTNDNDgbgbgbgbxxHxx(A3)1DmTTDand1NmTTDrrRELM全局最优输出权值可写为:*HR(A4)OS-ELM主要包括2个步骤。1)初始化阶段给定网络初始的隐含层节点数,初始训练样本,激活函数,随机产生输入层和隐含层之间连接权值和阀值初始化网络,求得初始隐含层输出矩阵H0和输出权值向量0。2)在线序贯学习阶段当第t+1批次样本数据到来,t+1次隐含层输出矩阵和输出权值向量可根据下式更新:11111(1)(1)1111(1)(1)1tttDDNDTtTtDtTtTtNDNgbgbgbgbxxHxx(A5)11111TTtttttttQHRH(A6)式中:11111TttttttTtttQHHQQQIHQH;1000()TQHH;1tN表示第t+1批次样本的个数;1tX=[(1)1tx,(1)2tx,...,1(1)ttNx],表示第t+1批次样本的输入向量。整个流程详见图A1,首先通过标准ELM建立初始网络,随后根据最新批次的样本数据不断更新参数H和,更新网络,直到所有数据学习完毕。开始准备一定数量的训练样本,给定隐层神经元数量D随机生成和b初始化网络:通过(3)和(4)计算得到和H00标准ELM读取新一批次数据更新网络:通过(5)和(6)更新H和所有数据更新完毕?结束YesNo图A1OS-ELM流程图Fig.A1FlowchartofOS-ELM附录BB1误差评估概念1)残差样本对于BN个误差评估训练样本,1,2,...,jjByjNx,假定预测残差jjjyrx是一个随机变量,其中jrx表示原始网络隐函数,jy为对应的实测值,方差为22jVarjjxx,其总体分布F未知。为了消除模型系统误差的影响,将预测残差中心化:11BNjjkkBN,1,2...,BjN(B1)上述12,,...BN即构成误差总体分布F的一个观测。2)Bootstrap训练样本从12,,...BN中有放回地进行BN次随机抽样,记第j次抽到样本为*j(*12{,,...}BjN),由此构造一组Bootstrap训练样本*,1,2,...,jjByjNx,其中*jy定义为:**jjjyrx(B2)理论上*j可以近似逼近j,神经网络隐函数*r可以近似逼近r,即Bootstrap输出*r可以有效模拟实际的网络输出jy。进一步,为考虑输入jx对残差j的影响采取如下方式:产生一组N(0,1)随机变量12,,...,NB来模拟输入向量对残差的影响,最终的Bootstrap训练样本输出可以写成:**jjjjyrx(B3)3)Bootstrap置信区间给定任意测试样本输入x,如图5(b)所示得到M组预测输出*krx(1,...,kM)。记1,...,MZZ为Bootstrap伪输出*krx由小到大的排序,在给定的置信水平下Bootstrap置信区间为[1MZ,2MZ]。本文对比研究中使用的两种Bootstrap置信区间计算法如下。1)PB法:1M='[]2M,2M='[(1)]2M,'1。2)BCPB法:①记*11MkkrrMxx,计算Bootstrap伪输出分布中不大于rx的概率,即*0rPPrrxx;②计算111000'0'1122,2,2LUZPPZZPZZ(其中,1为标准正态分布的累积函数);③最终的BCPB置信区间的上下限12,LUMMPMMP。基于Bootstrap法的多ELM误差评估步骤总结如下。步骤1:生成残差样本。对BN个训练样本,1,2,...,jjByjNx,执行以下计算:①给定第j个输入jx,通过原始预测网络OS-ELM计算()jrx;②计算误差()jjjrxy;③计算残差11NBjjkkNB。步骤2:生成Bootstrap训练样本。在12,,...NB进行NB次有放回随机抽样,根据式(12)生成新的Bootstrap伪样本输出*jy,1,2...,BjN。步骤3:根据步骤2中新产生的训练样本*,1,2,...,jjByjNx训练得到新的ELM结构,重复步骤2直到完成M个ELM误差评估网络。步骤4:评估Bootstrap置信区间。对测试样本输入x,根据步骤3结果计算*krx(1,2...kM);将生成的M个输出按升序排序,计算置信区间[1MZ,2MZ]。在实际使用过程中,对于算法有如下说明:①M取值不宜过大或过小,为兼顾评估计算时间及足够伪样本数量,本文选取M=5000;②在应用Bootstrap进行ANN预测误差评估过程中,多个ANN学习过程独立并占用主要的CPU计算时间,ELM的快速学习特性以及独立ANN的天然并行性,有助于使上述评估方法实用化。附录C表C1给出了一个批次(24个预测点)的平均置信区间宽度比较,其中正态分布估计法是将风电预测误差近似看作正态分布并评估其置信区间。从表中可以看到,2种Bootstrap置信区间宽度比正态分布法要短,说明其估计精度相对较高。除此之外,BCPB法与普通百分位数Bootstrap法相比也能得到较短的置信区间宽度。表C1不同置信度下PIW比较TableC1PIWcomparisonunderdifferentconfidencelevelsPIW(MW)80%90%95%春夏秋冬春夏秋冬春夏秋冬正态分布估计法18.1615.4616.7116.0220.1816.2718.5517.7221.3117.0919.6618.74百分位数Bootstrap法17.1713.7016.5315.4818.1214.1417.4616.2418.8915.1318.5816.83BCPB法17.0513.1215.9815.7418.0413.2516.3216.5619.2715.0118.2617.12附录D将一天144点按9种不同的更新周期平均分成不同的批次:1点(10min)、3点(30min)、6点(1h)、12点(2h)、24点(4h)、36点(6h)、48点(8h)、72点(12h)和144点(1d)每批次。选取2010年5月全月的数据来测试不同更新周期长度对模型预测精度的影响。总体RMSE如图D1所示。图D1不同滚动周期下的误差比较Fig.D1Errorcomparisonamongdifferenttimescale由图可见,滚动周期在1~4h时模型的预测效果较好,随着每一批次数据量增大(滚动周期增大),预测精度呈下降趋势,这也意味着对于相同的数据量,OS-ELM网络更新的频率也越低,网络无法实时跟踪最新的样本特性;但是每一批次数据量也不是越小越好,考虑到SCADA系统的可靠性以及天气波动剧烈的情况,可能会造成神经网络结构稳定性下降,对精度产生负面影响。在本文中,综合考虑超短期预测未来0~4h功率的需求以及维持神经元结构稳定性,选择每4h更新一次网络,即每24点为一个批次。附录E为了测试隐层节点数对模型精度的影响,本文选取了不同月份的6组数据进行测试,每组数据由连续7d的数据组成,数据每4h更新一次,为了尽量消除随机因素的影响,每种隐层节点个数的结果均计算50次取平均,得到在本文结构下的最优隐层节点个数范围大约为80~100。其中一组的结果如图E1所示。050100150200250789101112隐含层神经元个数RMSE(%)测试集预测精度图E1隐含层节点数对ELM性能影响Fig.E1InfluenceofhiddenlayernodesonELM