第九章 SPSS的线性回归分析

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

第九章SPSS回归分析本章内容•9.1回归分析概述•9.2线性回归分析•9.3回归方程的统计检验•9.4多元回归分析中的其他问题•9.5线性回归分析的基本操作•9.6线性回归分析的应用举例•9.7曲线估计9.1回归分析概述1.线性回归分析的内容(1)能否找到一个线性组合来说明一组自变量和因变量的关系(2)如果能的话,这种关系的强度有多大,也就是利用自变量的线性组合来预测因变量的能力有多强(3)整体解释能力是否具有统计上的显著性意义(4)在整体解释能力显著的情况下,哪些自变量有显著意义2.回归分析的一般步骤(1)确定回归方程中的解释变量(自变量)和被解释变量(因变量)(2)确定回归模型-选用合适的数学模型概括回归线(3)确定回归方程-根据样本数据及确定的回归模型,在一定的统计拟合准则下估计模型的参数,得到确定的回归方程。(4)对回归方程进行各种检验-基于样本得到的回归方程是否真实地反映了总体间的统计关系?回归方程能否用于预测?(5)利用回归方程进行预测9.2.1线性回归模型1.一元线性回归模型的数学模型其中:x为自变量;y为因变量;为截距,即常量;为回归系数,表明自变量对因变量的影响程度xy10019.2线性回归分析X的变化引起的y的线性变化部分:其他随机因素引起的y的变化部分:x10用最小二乘法求解方程中的两个参数,得到:21)())((ˆxxyyxxiiixby0ˆ多元线性回归模型2.多元线性回归方程:(1)β1、β2、…βp为偏回归系数。(2)β1表示在其他自变量保持不变的情况下,自变量x1变动一个单位所引起的因变量y的平均变动ppxxxy221109.3.1回归方程的拟合优度检验回归直线与各观测点的接近程度称为回归方程的拟合优度,也就是样本观测值聚集在回归线周围的紧密程度。1.离差平方和的分解建立直线回归方程可知:y的观测值的总变动可由来反映,称为总变差。引起总变差的原因有两个:(1)由于x的取值不同,使得与x有线性关系的y值不同;(2)随机因素的影响。2)(yy9.3线性回归方程的统计检验bxayˆxyy)(0yy)ˆ(0yy)ˆ(yy总离差平方和可分解为222yyyyyy(1)总平方和(SST)=剩余平方和(SSE)+回归平方和(SSR)(2)SST:反映因变量的n个观察值与其均值的总离差。(3)SSR:由x和y的直线回归关系引起的,可以由回归直线做出解释;(4)SSE:除了x对y的线性影响之外的随机因素所引起的Y的变动,是回归直线所不能解释的。2.可决系数(判定系数、决定系数)(1)可决系数:回归平方和在总平方和中所占的比例(2)用来衡量X与Y的关系密切程度以及回归直线的代表性好坏。(3)对于一元线性回归方程:22222211yyyyyyyyRSSTSSESSTSSESSTSSTSSRR(4)对于多元线性回归方程多元线性回归分析中,引起判定系数增加的原因有两个:①方程中的解释变量个数增多②方程中引入了对被解释变量有重要影响的解释变量③如果某个自变量引入方程后对因变量的线性解释有重要贡献,那么必然会使误差平方和显著减小,并使平均的误差平方和也显著减小,从而使调整的判定系数提高④如果某个自变量对因变量的线性解释不明显,那么将其引入只会使SSE减少,但不会使平均的SSE减少,因此,多元线性回归分析中,调整的判定系数比判定系数更能准确的反映回归方程的拟合优度)1/()1/(1122nSSTpnSSERSSTSSER(1)回归方程的显著性检验是要检验被解释变量与所有的解释变量之间的线性关系是否显著。(2)对于一元线性回归方程,检验统计量为:①平均的SSA/平均的SSE,反映了回归方程所能解释的变差与不能解释的变差的比例。②SPSS自动计算F统计量值和p值,根据p值与显著性水平的大小进行判断。),(21~)2/()ˆ(1/)ˆ()2/(1/22nFnyyyynSSESSRF9.3.2回归方程的显著性检验(方差分析F检验)(3)对于多元线性回归方程,检验统计量为①也即:②回归方程的拟合优度越高—回归方程的显著性检验也会越显著③回归方程的显著性检验越显著—回归方程的拟合优度越高④回归方程的拟合优度检验仅是一种刻画性描述,不涉及假设检验中:提出原假设、选择检验统计量、计算检验统计量的值、决策等内容,而回归方程的显著性检验均涉及这些内容。),(1p~)1/()ˆ(/)ˆ()1/(/22pnFpnyypyypnSSEpSSRF)1()1(22pnRpRF9.3.3回归系数的显著性检验(t检验)(1)回归系数的显著性检验是要检验回归方程中被解释变量与每一个解释变量之间的线性关系是否显著。(2)对于一元线性回归方程,检验统计量为:①为回归方程的标准误差,是SSE的均方根,反映了回归方程无法解释y变动的程度。②SPSS自动计算t值和p值,根据p值进行决策。③一元线性回归中,回归方程显著性检验和回归系数显著性检验的作用相同,可相互替代,且回归方程显著性检验的F统计量等于回归系数显著性检验t统计量的平方2)ˆ(ˆ)2(~)(ˆˆ1212nyySntxxtniiiynii其中,ˆ2tF(3)对于多元线性回归方程,检验统计量为:1)ˆ(ˆ)1(~)(ˆˆ1221pnyySpntxxtniiiynjiijii其中,①SPSS自动计算统计量的值和相应的p值,可根据p值进行决策②多元线性回归中,回归方程显著性检验和回归系数显著性检验的作用不相同:(a)回归方程显著性检验—检验所有偏回归系数是否同时为零。即使偏回归系数不同时为零,并不能保证方程中不存在解释力较差的自变量。(b)回归系数显著性检验对每个偏回归系数是否为零逐一进行检验(c)两种检验不能相互替代。it(1)残差是指由回归方程计算得到的预测值与实际样本值之间的差距,定义为:(2)对于线性回归分析来讲,如果方程能够较好的反映被解释变量的特征和规律性,那么残差序列中应不包含明显的规律性和趋势性。(3)残差分析包括以下内容:①残差是否服从均值为零的正态分布;②残差是否为等方差的正态分布;③残差序列是否独立;④借助残差探测样本中的异常值。)...(ˆ22110ppiiiixxxyyye9.3.4残差分析9.3.4.1残差均值为零的正态性检验(1)通过绘制残差图进行分析(2)残差图是一种散点图:横轴为解释变量,纵轴为残差。(3)如果残差均值为零,残差图的点应该在纵坐标为0的中心带状区域中随机散落,(P290图9-1)9.3.4.2残差独立性检验1.残差序列独立性指:残差序列前期和后期数值之间不存在相关关系,即:2.方法(1)绘制残差序列散点图:时间为横轴,残差为纵轴,若残差随时间推移呈有规律变化,则存在相关性。(2)计算残差的自相关系数:)(0),cov(jiji]1,1[ˆ,ˆ2212221nttnttnttteeee(3)DW检验①DW检验用来检验残差的自相关。检验统计量为:②DW=2,表示无自相关,③DW=4,表示完全负自相关④DW=0,表示完全正自相关⑤DW在0-2之间说明存在正自相关,⑥DW在2-4之间说明存在负的自相关。⑦一般情况下,DW值在1.5-2.5之间即可说明无自相关现象)1(2)(22221nttnttteeeDW(4)残差序列存在自相关可能表明:①回归方程没有充分说明被解释变量的变化规律,遗漏了一些重要的解释变量②变量存在取值滞后性③回归模型选择不合适9.3.4.3异方差分析1.残差分析的方差不随解释变量或被解释变量取值的变化而变化,否则,存在异方差。2.异方差的后果(1)参数的最小二乘估计不再是最小方差、无偏、有效估计(2)导致回归系数显著性检验的t值偏高,进而容易拒绝原假设,使无用变量保留下来,增大模型的预测偏差。3.异方差的检验(1)绘制散点图横轴解释变量,纵轴残差,若残差随解释变量的增加呈增加(减少)趋势,则存在异方差。(2)等级相关分析①对残差序列取绝对值—计算残差和解释变量的秩—计算Spearman等级相关系数。②若等级相关分析检验统计量的p值给定的显著性水平,则拒绝原假设,解释变量与残差存在相关关系,出现了异方差。4.异方差的处理(1)对解释变量实施方差稳定变换,再进行回归方程参数的估计。①残差与预测值的平方根成比例变化—对解释变量作开方处理②残差与预测值成比例变化—对解释变量取对数③残差与预测值的平方成比例变化—对解释变量求倒数(2)利用加权最小二乘法估计回归方程参数9.3.4.4.探测样本中的异常值1.异常值:远离均值的样本数据点,对回归方程参数估计有较大影响。2.被解释变量中异常值的探测方法(1)标准化残差对残差进行标准化,根据准则,的绝对值大于3的为异常值(2)学生化残差计算学生化残差,绝对值大于3对应的观察值为异常值。3ˆiieZRE个样本的杠杆值第ihheSREiiiiii,1ˆiZREiSER(3)剔除残差①计算第i个样本残差时,用剔除该样本后剩余的(n-1)个样本拟合方程,并计算第i个样本的预测值和相应的残差,此残差称为剔除残差。②剔除学生化残差的绝对值大于3对应的观察值为异常值。3.解释变量中异常值的探测方法(1)杠杆值(2)库克距离值。则对应的观察值为异常倍或大于,3211,)()(11122hhnphnhxxxxnhiiniiiniiiii为异常值。即可认为对应的观察值大于解释变量的个数,1,)1()1(222iiiiiiiDphhpeD(3)标准化回归系数的变化和标准化预测值的变化①在剔除第i个样本后,观察标准化回归系数的前后变化,如果标准化回归系数变化的绝对值大于,则可认为第i个样本可能是异常值。②观察预测值的前后变化,如果标准化预测值变化的绝对值大于,则可认为第i个样本可能是异常值。n2np29.4多元回归中的其他问题9.4.1解释变量的筛选问题1.引入多少个解释变量?①太少—不能很好解释因变量的变化②太多—自变量间可能存在多重共线性2.筛选策略(1)向前筛选(Forward)策略①解释变量不断进入回归方程的过程。②首先选择与被解释变量具有最高线性相关系数的变量进入方程,并进行回归方程的各种检验;③在剩余的变量中寻找与被解释变量偏相关系数最高且通过检验的变量进入回归方程,并对新建立的回归方程进行各种检验;④这个过程一直重复,直到再也没有可进入方程的变量为止。(2)向后筛选(Backward)策略①变量不断剔除出回归方程的过程。②首先把所有变量全部引入回归方程,并对回归方程进行各种检验;③在回归系数显著性检验不显著的一个或多个变量中,剔除t检验值最小的变量,并重新建立回归方程和进行各种检验④如果新建回归方程中所有变量的回归系数检验都显著,则回归方程建立结束;否则按上述方法再一次剔除最不显著的变量,直到再也没有可剔除的变量为止。(3)逐步筛选(Stepwise)策略①在向前筛选策略的基础上结合向后筛选策略:向前策略中,变量一旦进入方程将不再被剔除,随着变量的不断引入,会由于变量间的多重共线性,使得已经引入的变量不再显著。②在每个变量进入方程后再次判断是否存在应该剔除出方程的变量。③逐步筛选策略在引入变量的每一个阶段都提供了再剔除不显著变量的机会。1.多重共线性是指解释变量之间存在线性相关关系的现象。2.测度多重共线性一般有以下方式(1)容忍度①是第i个解释变量与方程中其他解释变量间的复相关系数的平方,表示解释变量之间的线性相关程度。②容忍度的取值范围在0-1之间,越接近0表示多重共线性越强,越接近1表示多重共线性越弱。(2)方差膨胀因子VIF①方差膨胀因子是容忍度的倒数。②VIF越大多重共线性越强,当VIF大于等于1

1 / 63
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功