一元线性回归案例

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

8.5一元线性回归案例一、教学内容与教学对象分析学生将在必修课程学习统计的基础上,通过对典型案例的讨论,了解和使用一些常用的统计方法,进一步体会运用统计方法解决实际问题的基本思想,认识统计方法在决策中的作用。二、学习目标1、知识与技能通过本节的学习,了解回归分析的基本思想,会对两个变量进行回归分析,明确建立回归模型的基本步骤,并对具体问题进行回归分析,解决实际应用问题。2、过程与方法本节的学习,应该让学生通过实际问题去理解回归分析的必要性,明确回归分析的基本思想,从散点图中点的分布上我们发现直接求回归直线方程存在明显的不足,从中引导学生去发现解决问题的新思路—进行回归分析,进而介绍残差分析的方法和利用R的平方来表示解释变量对于预报变量变化的贡献率,从中选择较为合理的回归方程,最后是建立回归模型基本步骤。3、情感、态度与价值观通过本节课的学习,首先让显示了解回归分析的必要性和回归分析的基本思想,明确回归分析的基本方法和基本步骤,培养我们利用整体的观点和互相联系的观点,来分析问题,进一步加强数学的应用意识,培养学生学好数学、用好数学的信心。加强与现实生活的联系,以科学的态度评价两个变量的相关系。教学中适当地增加学生合作与交流的机会,多从实际生活中找出例子,使学生在学习的同时。体会与他人合作的重要性,理解处理问题的方法与结论的联系,形成实事求是的严谨的治学态度和锲而不舍的求学精神。培养学生运用所学知识,解决实际问题的能力。三、教学重点、难点教学重点:熟练掌握回归分析的步骤;各相关指数、建立回归模型的步骤;通过探究使学生体会有些非线性模型通过变换可以转化为线性回归模型,了解在解决实际问题的过程中寻找更好的模型的方法。教学难点:求回归系数a,b;相关指数的计算、残差分析;了解常用函数的图象特点,选择不同的模型建模,并通过比较相关指数对不同的模型进行比较。四、教学策略:教学方法:诱思探究教学法学习方法:自主探究、观察发现、合作交流、归纳总结。教学手段:多媒体辅助教学五、教学过程:(一)、复习引入:回归分析是对具有相关关系的两个变量进行统计分析的一种常用方法。(二)、新课:探究:对于一组具有线性相关关系的数据:(11,xy),(22,xy),…,(,nnxy),我们知道其回归方程的截距和斜率的最小二乘估计公式分别为:aybx(1)121()()()niiiniixxyybxx(2)其中1111,nniiiixxyynn,(,xy)成为样本点的中心.注:回归直线过样本中心.你能推导出这两个计算公式吗?从我们已经学过的知识知道,截距a和斜率b分别是使21(,)()niiiQybxa取到最小值时,的值.由于21(,)[()()]niiiQyxyxyx221{[()]2[()][()][()]}niiiiiyxyxyxyxyxyx2211[()]2[()]()[()]nniiiiiiyxyxyxyxyxnyx注意到1[()]()niiiyxyxyx1()[()]niiiyxyxyx11()[()]nniiiiyxyxnyx()[()]0yxnynxnyx.221(,)[()]()niiiQyxyxnyx2222111()2()()()()nnniiiiiiixxxxyyyynyx2222211221111()()[()()]()()[]()()()nniiiinniiiinniiiiiixxyyxxyynyxxxyyxxxx在上式中,后两项和,无关,而前两项为非负数,因此要使Q取得最小值,当且仅当前两项的值均为0,即有1221niiiniixynxyyxxnx,.这正是我们所要推导的公式.下面我们从另一个角度来推导的公式.人教A版选修2-2P37习题1.4A组第4题:用测量工具测量某物体的长度,由于工具的精度以及测量技术的原因,测得n个数据12,,,naaa.证明:用这个数据的平均值11niixan表示这个物体的长度,能使这n个数据的方差211()()niifxxan最小.思考:这个结果说明了什么?通过这个问题,你能说明最小二乘法的基本原理吗?证明:由于211()()niifxxan,所以'12()()niifxxan,令'()0fx,得11niixan。可以得到,11niixan是函数()fx的极小值点,也是最小值点.这个结果说明,用n个数据的平均值11niian表示这个物体的长度是合理的,这就是最小二乘法的基本原理.由最小二乘法的基本原理即得定理设xR,12nxxxxn,则2222222121211[()()()][()()()]nnxxxxxxxxxxxxsnn(*)当且仅当12nxxxxxn时取等号.(*)式说明,12nxxxxn是任何一个实数x与12,,,nxxx的差的平方的平均数中最小的数.从而说明了方差具有最小性,也即定义标准差的合理性.下面借助(*)式求2222211)()()(abxyabxyabxyQnn的最小值.1122()()()nnybxybxybxn1212nnyyyxxxbybxnn,由(*)式知,2221122[()][()][()]nnQaybxaybxaybx2221122[()()][()()][()()]nnybxybxybxybxybxybx2221122[()()][()()][()()]nnxxbyyxxbyyxxbyy222111()2()()()nnniiiiiiixxbxxyybyy222211221111()()[()()]()[]()()()nniiiinniiiinniiiiiixxyyxxyyxxbyyxxxx222211221111()()[()()]()[]()()()nniiiinniiiinniiiiiixxyyxxyyxxbyyxxxx221211[()()]()()niiniiniiixxyyyyxx22211121()()[()()]()nnniiiiiiiniixxyyxxyyxx当且仅当aybx,且1122211()()()nniiiiiinniiiixxyyxynxybxxxnx时,Q达到最小值22211121()()[()()]()nnniiiiiiiniixxyyxxyyxx.由此得到,.,xbyaxnxyxnyxxxyyxxbniiniiiniiniii2121121)())((其中b是回归直线的斜率,a是截距.借助||||||||||||ababab和配方法,我们给出了人教A版必修3的第二章统计第三节变量间的相关关系中回归直线方程ybxa的一个合理的解释.1、回归分析的基本步骤:(1)画出两个变量的散点图.(2)求回归直线方程.(3)用回归直线方程进行预报.下面我们通过案例,进一步学习回归分析的基本思想及其应用.2、举例:例1.从某大学中随机选取8名女大学生,其身高和体重数据如表编号12345678身高/cm165165157170175165155170体重/kg4857505464614359求根据女大学生的身高预报体重的回归方程,并预报一名身高为172cm的女大学生的体重.解:由于问题中要求根据身高预报体重,因此选取身高为自变量x,体重为因变量y.作散点图(图3.1一1)从图3.1一1中可以看出,样本点呈条状分布,身高和体重有比较好的线性相关关系,因此可以用线性回归方程来近似刻画它们之间的关系.根据探究中的公式(1)和(2),可以得到ˆˆ0.849,85.712ba.于是得到回归方程084985.712yx.因此,对于身高172cm的女大学生,由回归方程可以预报其体重为084917285.71260.316y(kg).ˆ0.849b是斜率的估计值,说明身高x每增加1个单位时,体重y就增加0.849位,这表明体重与身高具有正的线性相关关系.如何描述它们之间线性相关关系的强弱?在必修3中,我们介绍了用相关系数;来衡量两个变量之间线性相关关系的方法.本相关系数的具体计算公式为12211()()niiinniiiixxyyrxxyy当r0时,表明两个变量正相关;当r0时,表明两个变量负相关.r的绝对值越接近1,表明两个变量的线性相关性越强;r的绝对值接近于0时,表明两个变量之间几乎不存在线性相关关系.通常,当r的绝对值大于0.75时认为两个变量有很强的线性相关关系.在本例中,可以计算出r=0.798.这表明体重与身高有很强的线性相关关系,从而也表明我们建立的回归模型是有意义的.显然,身高172cm的女大学生的体重不一定是60.316kg,但一般可以认为她的体重接近于60.316kg.图3.1一2中的样本点和回归直线的相互位置说明了这一点.由于所有的样本点不共线,而只是散布在某一条直线的附近,所以身高和体重的关系可用下面的线性回归模型来表示:ybxae,(3)这里a和b为模型的未知参数,e是y与ybxa之间的误差.通常e为随机变量,称为随机误差,它的均值E(e)=0,方差D(e)=2()De>0.这样线性回归模型的完整表达式为:2,()0,().ybxaeEeDe(4)在线性回归模型(4)中,随机误差e的方差护越小,通过回归直线ybxa(5)预报真实值y的精度越高.随机误差是引起预报值y与真实值y之间的误差的原因之一,大小取决于随机误差的方差.另一方面,由于公式(1)和(2)中a和b为截距和斜率的估计值,它们与真实值a和b之间也存在误差,这种误差是引起预报值y与真实值y之间误差的另一个原因.思考:产生随机误差项e的原因是什么?一个人的体重值除了受身高的影响外,还受许多其他因素的影响.例如饮食习惯、是否喜欢运动、度量误差等.事实上,我们无法知道身高和体重之间的确切关系是什么,这里只是利用线性回归方程来近似这种关系.这种近似以及上面提到的影响因素都是产生随机误差e的原因.因为随机误差是随机变量,所以可以通过这个随机变量的数字特征来刻画它的一些总体特征.均值是反映随机变量取值平均水平的数字特征,方差是反映随机变量集中于均值程度的数字特征,而随机误差的均值为0,因此可以用方差2来衡量随机误差的大小.为了衡量预报的精度,需要估计护的值.一个自然的想法是通过样本方差来估计总体方差.如何得到随机变量e的样本呢?由于模型(3)或(4)中的e隐含在预报变量y中,我们无法精确地把它从y中分离出来,因此也就无法得到随机变量e的样本.解决问题的途径是通过样本的估计值来估计2.根据截距和斜率的估计公式(1)和(2),可以建立回归方程ybxa,因此y是(5)中y的估计量.由于随机误差eyy,所以eyy是e的估计量.对于样本点(11,xy),(22,xy),…,(,nnxy)而言,相应于它们的随机误差为,1,2,,iiiiieyyybxain,其估计值为,1,2,,iiiiieyyybxain

1 / 14
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功