化工过程模拟与分析(第八章经验建模方法)

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

第八章经验建模方法内容简介1.经验建模方法的应用场合2.神经网络3.支持向量机4.经验建模的缺陷8.1经验建模的应用场合机理建模的不足1.建模难度大,需要全面准确地理论支撑;2.某些机理方程非常复杂,难以用现有的数学理论求解;3.机理分析总是基于很多简化和假设之上;化工领域中机理建模的难处化工领域中,由于研究对象包括了复杂多样的原子间相互作用,而人们对这一领域的认识还相当欠缺,更难以直接用解析式表达和求解,所以要从机理出发推算和把握如此复杂的体系和过程,在可预见的将来尚难办到。原油精馏过程干点把100毫升油品样本放在一个带有支管的小烧瓶里,插上温度机进行加热蒸馏,支管经过冷凝外套后插到另一个有刻度的容器内。当油蒸汽冷凝出第一滴油时温度计所指示的温度,叫做初馏点;当初馏物的体积达到10毫升时的温度,叫做10%点;依次可以得到20%点、30%点等等蒸出最后一滴油时的温度,叫做干点。实例常压塔塔顶汽油干点软测量问题为更好控制原油精馏装置,必须及时获得精馏出的油品的干点值(无法在线测量),该值受下列因素影响:常压塔塔底蒸汽量,回流比,一线蒸汽量,塔顶温度,塔顶压力,蒸汽温度,常压塔总进料,进料温度,一线采出量,回流温度且难以开发干点与上述影响因素之间的机理模型,必须采用经验建模方法获得其影响因素与干点之间的经验模型,即建立:干点=f(塔底蒸汽量,回流比,….,回流温度)函数经验建模的作用凭籍解析方程求解极为困难得体系,可以通过实验获取数据,并建立经验模型加以认识,或提供线索,以便用较小的工作量和较少的盲目性解决在化工领域中的各种实际问题。经验模型的分类1、当因变量为离散变量时,模型可称为模式分类模型;药物活性识别、物料等级评定、化工领域中的流体的流型识别和故障诊断等问题。2、当因变量为连续变量时,模型可称为函数回归模型。药物的结构-活性关系建模、化工过程建模和软测量等问题。经验建模问题的一般表述(基于经验风险)。的函数参数寻找满足为待确定函数参数,考虑某一函数集合给定一观测样本,min,,,,...,2,1,,1niiiiinixfyxfyxα经验建模方法分类线性方法线性回归、主成份回归、偏最小二乘回归非线性方法多项式回归、投影寻踪、神经网络、支持向量机8.2神经网络(Artificialneuralnetworks,ANN)常用ANN包含递归神经网络、Hopfield网络和误差反传神经网络(Errorbackpropgationneuralnetworks,常简称BP网络)等。BP网络结构输入层至隐层连接权隐层至输出层连接权输入输出输入层输出层隐蔽层bjTja1a2anω1jω2jωnj)(jijiTaf隐层单个神经元网络示意图单输出BP网络的函数表达式niyii,...,2,1,,x设观测样本为:隐层活化函数为Logistic函数:zzeezf11)(输出层活化函数为线性函数,则单输出BP网络函数为:HjbwhyeehbwxzOHjhojjzzjhjmiihiijjj,...,,2,1ˆ1111ih输入层至隐层ho隐层至输出层b神经元的阈值H隐层神经元数目BP网络的训练目标函数niiiyf12)),((minwxw神经网络的训练算法基于梯度下降共轭梯度法LM算法ohohihbwbww,,,BP网络应用步骤1、数据预处理将训练样本输入和输出归一化至[-1,1]区间或均值为0标准差为1;2、网络结构选择输入(出)层神经元数为样本输入(出)向量维数,隐层神经元数在满足拟合精度前提下越少越好,可通过交叉验证选择网络结构;3、训练算法选择对于过程建模问题,LM算法比较合适;4、用网络预测Matlab神经网络工具箱应用设有n个训练样本数据,样本输入为m维,样本输出为1维;构造m×n维样本输入矩阵P,P的每列表示一个样本输入;构造1×n维样本输出矩阵T,T的每列表示一个样本输出;P=[5.82795.15514.32915.79815.29824.23503.33952.25957.60376.4053];T=[1.04531.89913.91663.40422.3055];利用newff函数构造神经网络;net=newff([0,10;0,10],[51],{'tansig''purelin'});确定网络训练参数并训练网络;net=train(net,P,T);模拟:Y=sim(net,P);实例基于神经网络的汽油干点软测量训练样本(100):X,Y;预测样本(30):Xp,Yp。%将输入输出归一化为均值0,标准差1[Xn,Xm,Xs]=prestd(X);[Yn,Ym,Ys]=prestd(Y);%构造神经网络net=newff(minmax(X),[7,1],{'tansig','purelin'});%训练神经网络[net]=train(net,Xn,Yn);%神经网络模拟训练样本输出Ys=sim(net,Xn);Ys1=poststd(Ys,Ym,Ys);%训练输出反归一化%神经网络模拟预测样本输出Xpn=trastd(Xp,Xm,Xs);%预测样本输入归一化Yps=sim(net,Xpn);Yps1=poststd(Yps,Ym,Ys);%预测输出反归一化神经网络模拟结果神经网络缺点1.隐层神经元数目难以确定,太多则拟合精度好而预测精度差,太少则拟合精度差,预测精度也不一定高;2.训练易陷入局部极小点。经验风险最小化(Empiricalriskminimization,ERM)原则仅仅最小化训练样本上的风险,而不考虑预测风险。niiiyf12)),((minwxw经验风险8.3支持向量机(Supportvectormachine)如何衡量学习机器的预测能力?实际风险经验风险BP网络以经验风险代替实际风险是其隐层神经元数难以确定的根本原因。y因变量x自变量f(x,a)学习机器函数P(x,y)联合分布函数xi,yi训练样本l训练样本容量实际风险与经验风险的关系h非负正整数,学习机器的VC维,衡量学习机器的“容量”。η上述不等式不成立的概率。显然,l/h越大则经验风险与实际风险相差越大。只有线性函数才可计算VC维结构风险最小化(Structuralriskminimization)原则线性支持向量机的训练问题1),min(2pRhTwwVC维上界R为包含所有样本的超球体的半径;p为输入变量空间维数。惩罚因子灵敏度松弛因子核函数(Kernelfunction)技术对于非线性问题,SVM首先将输入向量映射入高维的重建核Hilbert空间(ReproducingkernelHilbertspace,RKHS),随后在RKHS中建立线性SVM。RKHS特点RKHS中2个向量的内积可通过核函数直接在原空间中计算,即:),()()(jijTikxxxx最常用核函数jTijikxxxx),(线性函数}||||exp{),(22jijikxxxx径向基函数最小二乘支持向量机(Leastsquaressupportvectormachines)nieybtseebiiiTniiTi,...,2,1-)(..221),,(min12x训练问题001yα11IKbT),(,jikjiKxx训练问题的求解niiibky1),(xxLSSVM函数I为单位矩阵1为元素全为1的列向量LSSVM应用步骤1.样本数据归一化至[-1,1]或均值为0,标准差为1;2.选择合适的超参数:惩罚因子值、核函数参数值;3.训练;LSSVM源程序1、LSSVM训练function[alpha,b,iA]=lssvm(X,Y,sig,gam)K=kernelMat(X,X,sig);n=size(X,1);ones_n=ones(n,1);A=K+eye(n)/gam;iA=inv(A);u=iA*Y;v=iA*ones_n;b=ones_n'*u/(ones_n'*v);alpha=u-v*b;2、核函数矩阵的计算function[K]=kernelMat(X,X0,sig)mX=size(X,1);mX0=size(X0,1);K=zeros(mX,mX0);mOnes=ones(mX0,1);fori=1:mXtmp=(X0-mOnes*X(i,:)).^2;tmp=tmp/sig^2;tmp=sum(tmp,2)';K(i,:)=exp(-tmp);%径向基核函数end3、LSSVM模拟函数function[y]=sim_lssvm(x,X0,sig,alpha,b)n=size(x,1);k=kernelMat(x,X0,sig);y=[k,ones(n,1)]*[alpha;b];

1 / 26
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功