系统辨识大作业报告

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

系统辨识大作业报告班级13202-4学号2013260318姓名亓子龙报告日期2013.12.03一、辨识方法1.最小二乘法及其递推方法(1)最小二乘法:构造Φ阵,利用公式1ˆ()TTΦΦΦy计算;(2)递推最小二乘法:取前20个数据,利用基本最小二乘法给出ˆNθ和NP的初值0ˆθ和0P,然后利用公式:1111ˆˆˆ()TNNNNNNyθθKψθ11111(1)TNNNNNNKPψψPψ111TNNNNNPPKψP迭代计算。2.辅助变量法及其递推方法(1)辅助变量法:首先利用基本最小二乘估计ˆLSθ作为计算ˆy的初值,利用计算结果构造Z阵,依据公式1ˆ()TTVθZΦZy迭代计算直至ˆVθ收敛。(2)递推辅助变量法:前50个数据利用递推最小二乘估计ˆNθ和NP初值0ˆθ和0P,然后依据递推公式进行迭代计算:1111ˆˆˆ()TNNNNNNyθθKψθ11111(1)TNNNNNNKPzψPz111TNNNNNPPKψP3.广义最小二乘法及其递推方法(1)广义最小二乘法:使用()uk和()yk按基本最小二乘求出估计值ˆθ,计算残差ˆey-Φθ用残差()ek代替()k并计算f的估值ˆf,ˆf的计算公式为1ˆ[()]()TTfΩΩΩe。利用ˆf进行数据滤波,再按最小二乘法重新估计ˆθ,重复这些步骤直至ˆθ收敛。(2)递推广义最小二乘法:前20个数据利用基本最小二乘求得递推的初值,然后按以下公式计算ˆf,(2)1111ˆˆˆ()TNNNNNNeffKf(2)(2)(2)11111(1)TNNNNNNKPP(2)(2)(2)(2)111TNNNNNPPKP根据所得结果对新的观测值进行数据滤波,然后进行ˆθ的递推,递推公式如下:(1)1111ˆˆˆ()TNNNNNNyθθKθ(1)(1)(1)11111(1)TNNNNNNKPP(1)(1)(1)(1)111TNNNNNPPKP4.夏氏偏差修正法、夏氏改良法及递推夏氏法(1)夏氏偏差修正法:首先计算1ˆ()TTLSθΦΦΦy并作为ˆθ的初值,然后计算残差ˆey-Φθ并构造矩阵Ω,同时计算矩阵1()TTΓΦΦΦ和1()TTMIΦΦΦΦ。其次由Ω计算1ˆfDΩMy和ˆˆBθΓΩf,其中TD=ΩMΩ。利用公式ˆˆˆLSBθθθ获得ˆθ的估计值,循环迭代直到ˆBθ基本保持不变。(2)夏氏改良法:基本同夏氏偏差修正法,只是ˆf的计算变为1ˆ()fΩΩΩe,减小了计算量。(3)夏氏递推算法:利用基本最小二乘获得递推初值ˆ和NP,递推公式如下:1111ˆˆˆ()TNNNNNNyrψ11111(1)TNNNNNNrPψψPψ111TNNNNNPPrψP5.增广矩阵法利用基本最小二乘构造ψ阵,进而计算递推初值NP和1ˆNθ。构造向量1ˆˆˆ[(1)()()()(1)()]TNynNyNunNuNnNNψ其中1ˆˆˆ()()TNNnNynNψθ,然后根据递推方程递推计算ˆθ:1111ˆˆˆ()TNNNNNNyθθKψθ11111ˆˆˆ(1)TNNNNNNKPψψPψ111ˆTNNNNNPPKψP6.极大似然法(1)选定初值0ˆ[]Tiiiabc,ia、ib由LS方法获得,ic可任意指定;(2)计算残差ˆ()()()kkkeyy及指标211()2knNknekJ;(3)计算梯度J及海赛(Hassian)矩阵22J;(4)计算ˆ的新估值02211022ˆˆˆ()JJ;(5)返回第(2)步直到J收敛。7.辨识结果及噪声特性()k分析对于数据uy1.txt,辨识结果如表1:表1uy1辨识结果辨识结果辨识方法1a2a1b2b1f2f基本最小二乘1.48550.78690.48370.1982递推最小二乘1.48550.78690.48370.1982辅助变量法1.49640.75880.48780.1910递推辅助变量法1.53530.83320.48730.2156广义最小二乘法1.50220.79980.48440.2034递推广义最小二乘法1.42570.26460.41290.1062夏氏修正法1.48860.79730.48220.2022夏氏改良法1.48860.79730.48220.2022夏氏递推法1.48250.79450.47970.2018增广矩阵法1.48360.78640.48280.1991-0.00060.0074极大似然法1.46300.78610.47930.19560.23820.3530对于数据uy2.txt,辨识结果如表2:表2uy2辨识结果辨识结果辨识方法1a2a1b2b1f2f基本最小二乘1.11130.49630.37910.1879递推最小二乘1.11130.49630.37910.1879辅助变量法1.38750.80360.36490.3289递推辅助变量法1.39650.70720.38020.2970广义最小二乘法1.23820.58840.37770.2368递推广义最小二乘法1.67000.90220.17310.0060夏氏修正法1.38340.71460.38840.2873夏氏改良法1.38340.71460.38840.2873夏氏递推法1.35740.69540.39980.2719增广矩阵法1.16740.55790.38620.21330.08340.0353极大似然法1.81960.97110.38880.44781.14790.0574对于数据uy3.txt,辨识结果如表3:表3uy3辨识结果辨识结果辨识方法1a2a1b2b1f2f基本最小二乘1.11580.48010.42540.1245递推最小二乘1.11580.48010.42540.1245辅助变量法4.34872.56280.53471.1997递推辅助变量法1.61720.86870.43250.3138广义最小二乘法1.27630.61170.42570.1898递推广义最小二乘法1.48920.61730.05710.5818夏氏修正法1.46280.77490.47110.2252夏氏改良法1.46280.77490.47110.2252夏氏递推法1.30880.62960.46420.1864增广矩阵法1.25640.61390.44810.16990.19980.1012极大似然法1.65590.97700.41750.38791.06620.4991三组数据输入值都一样,输出值不同。对上面表1-表3的辨识结果进行分析,可以看出,uy1的噪声近似为白噪声,因为其他辨识方法的辨识结果和最小二乘法的结果很接近。而uy2和uy3的噪声是有色噪声,其他辨识方法的结果和最小二乘法的结果出入较大。二、辨识方法比较分析1.分析比较各种方法估计的精度1)最小二乘法是成批处理观测数据,即离线辨识,在输入为白噪声的情况下其辨识精度是最高的,但是在有色噪声的情况下偏差比较大,且估计的均方差随噪声均方差的增大而增大。2)递推最小二乘法是在线辨识。理论上讲,其辨识精度应等于采用离线辨识的最小二乘法,但是由于在递推被辨识参数的初值中,P的取值相当大时,递推最小二乘法的结果很接近于最小二乘法的结果。其基本思想可以概括成:新的估计值=旧的估计值+修整项。它是一种实时控制算法。3)辅助变量法在输入为有色噪声的情况下能克服上述两种方法的有偏估计缺点。但本题前一部分的输入是白噪声,因而辅助变量法的辨识精度差于上述两种方法。在输入为有色噪声的情况下,辨识结果较好。在计算时需构造辅助变量矩阵。4)广义最小二乘法:如果输入是有色噪声,则广义最小二乘法能克服估计的有偏性。但是广义最小二乘法是一种迭代方法,且收敛速度比较慢。在系统的噪声较大时,最小二乘法的指标J可能是多峰的,因此该算法未必收敛于真实参数,本题中,广义最小二乘法在白噪声情况下,其辨识的效果略差于最小二乘法和递推最小二乘法,尔在有色噪声情况下,其辨识的效果好于那两种方法。实际估计效果较好,工程上广泛应用。缺点是计算量大。5)夏氏法也是为了克服输入为有色噪声而导致辨识的有偏性而提出的,改善广义最小二乘法的计算速度,提高计算效率。它还可以应用到多输入多输出系统。对于本题,它的优缺点基本同广义最小二乘法,其辨识结果同广义最小二乘法差不多。6)增广矩阵法:它是无偏估计,收敛性好,系统参数与噪声参数同时辨识。由于考虑了系统噪声的影响,采用递推方法,其精度和收敛性比递推最小二乘法有提高。7)极大似然法以观测值的出现概率最大作为标准,为离线辨识方法,在输入为白噪声的情况下,结果的精度与最小二乘法不相上下。在输入为有色噪声的情况下,精度比最小二乘法能好。2.分析其计算量1)最小二乘法:算法最简单,但是当输入输出数据量较大时,会出现维数较高的矩阵求逆和相乘。所以数据量越大计算量将明显增加。2)递推最小二乘法:递推最小二乘法在每一次迭代过程中都不需要矩阵求逆,只需要做矩阵或向量乘法,故每次迭代过程中,递推最小二乘法的计算量很小。3)辅助变量法:每一次迭代都需要求辅助模型的输出变量,并由此构造求辅助变量矩阵Z,做一次(2n+1)*(2n+1)的矩阵求逆,故计算量是最小二乘法的计算量整数倍。4)广义最小二乘法:每一次迭代都需要利用上一次估计出的被辨识参数来求出残差,利用残差来构造(2n+1)*(2n+1)的残差阵,然后求得新的输入和输出序列,再一次利用最小二乘法重新估计被辨识参数,故每次迭代都需要利用两次最小二乘法,另外还要作数据滤波,故计算量远远大过辅助变量法。5)夏氏法:每一次迭代过程中求残差矩阵,不需要数据的反复滤波,故计算量远小于广义最小二乘法,但明显大于辅助变量法的计算量。6)增广矩阵法:增广矩阵法的估计参数中增加了噪声的模型参数,故相应的矩阵及向量都比递推最小二乘法大,计算量也比递推最小二乘法大的多。7)极大似然法:极大似然法的计算量较大,但其参数估计量具有良好的渐进性质。3.分析噪声方差的影响由各种辨识方法可以看出,当噪声的方差增大时,估计的偏差明显增大,各项估计值得均方差也稍有增大。当噪声的方差为0,即系统输入输出数据不含噪声时,估计结果就是系统参数的真值。4.比较白噪声和有色噪声对辨识的影响噪声为白噪声时比噪声为有色噪声所引起的误差要小,且当噪声为白噪声时,最小二乘法估计具有无偏性和一致性。三、系统模型阶次的辨识1.用三种方法确定系统的阶次并辨识(1)按残差方差定阶:利用基本最小二乘法估计各阶次时的1ˆ()TTΦΦΦy,按公式11ˆˆˆ()()()()()ekazykbzuk求得残差ˆ()ek,然后计算21ˆ()nNnknJek。对某一系统,当1,2,3n时,nJ随着n的增大而减小。假定系统为0n阶,则在01n时出现最后一次陡峭的下降,从而判定系统阶次。(2)确定阶的Akaike信息准则:这个准则给出了一个定量的判断标准,它不要求建模人员主观的判断“陡峭的下降”。在一组可供选择的随机模型中,AIC最小的那个模型是一个可取的模型。白噪声情况下的AIC定阶公式为2ˆln2()eabAICNnn;有色噪声情况下的AIC定阶公式为2ˆˆˆˆln2()eabcAICNnnn。(3)按残差白色定阶:计算残差的估值的自相关函数,检查其白色性,即可判断模型的阶次。残差的自相关函数为11ˆˆˆ()()(1)nNknRiekekN211ˆˆ(0)()nNknRekN将ˆ()Ri规格化可得ˆ()ˆ()ˆ(0)RiriR。(1)按残差方差和F检验法定阶12345678910200

1 / 30
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功