Sectionone-单参数线性回归

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

第一章-------单参数线性回归LinearRegressionwithonevariable(一)、CostFunction线性回归是给出一系列点假设拟合直线为h(x)=theta0+theta1*x,记CostFunction为J(theta0,theta1)之所以说单参数是因为只有一个变量x,即影响回归参数θ1,θ0的是一维变量,或者说输入变量只有一维属性。下图中为简化模式,只有theta1没有theta0的情况,即拟合直线为h(x)=theta1*x左图为给定theta1时的直线和数据点×右图为不同theta1下的costfunctionJ(theta1)costfunctionplot:当存在两个参数theta0和theta1时,costfunction是一个三维函数,这种样子的图像叫bowl-shapefunction将上图中的costfunction在二维上用不同颜色的等高线映射为如下右图,可得在左图中给定一个(theta0,theta1)时又图中显示的costfunction.我们的目的是最小化costfunction,即上图中最后一幅图,theta0=450,theta1=0.12的情况。(二)、Gradientdescentgradientdescent是指梯度下降,为的是将costfunciton描绘出之后,让参数沿着梯度下降的方向走,并迭代地不断减小J(theta0,theta1),即稳态。每次沿着梯度下降的方向:参数的变换公式:其中标出了梯度(蓝框内)和学习率(α):gradient即J在该点的切线斜率slope,tanβ。下图所示分别为slope(gradient)为正和负的情况:同时更新theta0和theta1,左边为正解:关于学习率:α太小:学习很慢;α太大:容易过学习所以如果陷入局部极小,则slope=0,不会向左右变换本图表示:无需逐渐减小α,就可以使下降幅度逐渐减小(因为梯度逐渐减小):求导后:由此我们得到:其中x(i)表示输入数据x中的第i组数据

1 / 7
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功