周志华-机器学习ppt-Chap02模型评估与选择

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

机器学习导论(2016春季学期)二、模型评估与选择主讲教师:周志华典型的机器学习过程什么模型好?能很好地适用于unseeninstance泛化能力强!例如,错误率低、精度高然而,我们手上没有unseeninstance,……泛化误差vs.经验误差泛化误差:在“未来”样本上的误差经验误差:在训练集上的误差,亦称“训练误差”泛化误差越小越好经验误差是否越小越好?NO!因为会出现“过拟合”(overfitting)过拟合(overfitting)vs.欠拟合(underfitting)模型选择(modelselection)三个关键问题:如何获得测试结果?如何评估性能优劣?如何判断实质差别?评估方法性能度量比较检验评估方法关键:怎么获得“测试集”(testset)?测试集应该与训练集“互斥”常见方法:留出法(hold-out)交叉验证法(crossvalidation)自助法(bootstrap)训练集测试集留出法拥有的数据集注意:保持数据分布一致性(例如:分层采样)多次重复划分(例如:100次随机划分)测试集不能太大、不能太小(例如:1/5~1/3)k-折交叉验证法若k=m,则得到“留一法”(leave-one-out,LOO)自助法基于“自助采样”(bootsrapsampling)亦称“有放回采样”、“可重复采样”约有36.8%的样本不出现训练集与原样本集同规模数据分布有所改变“包外估计”(out-of-bagestimation)“调参”与最终模型算法的参数:一般由人工设定,亦称“超参数”模型的参数:一般由学习确定参数调得好不好对性能往往对最终性能有关键影响调参过程相似:先产生若干模型,然后基于某种评估方法进行选择区别:训练集vs.测试集vs.验证集(validationset)算法参数选定后,要用“训练集+验证集”重新训练最终模型模型选择(modelselection)三个关键问题:如何获得测试结果?如何评估性能优劣?如何判断实质差别?评估方法性能度量比较检验性能度量性能度量(performancemeasure)是衡量模型泛化能力的评价标准,反映了任务需求使用不同的性能度量往往会导致不同的评判结果什么样的模型是“好”的,不仅取决于算法和数据,还取决于任务需求回归(regression)任务常用均方误差:错误率vs.精度错误率:精度:查准率:查准率vs.查全率查全率:(BEP)PR图:•学习器A优于学习器C•学习器B优于学习器C•学习器A??学习器BBEP:•学习器A优于学习器B•学习器A优于学习器C•学习器B优于学习器CPR图,BEP根据学习器的预测结果按正例可能性大小对样例进行排序,并逐个把样本作为正例进行预测F1若对查准率/查全率有不同偏好:比BEP更常用的F1度量:宏xxvs.微xx若能得到多个混淆矩阵:(例如多次训练/测试的结果,多分类的两两混淆矩阵)宏(macro-)查准率、查全率、F1微(micro-)查准率、查全率、F1ROCCurveROC,AUCAUC:AreaUndertheROCCurveROC(ReceiverOperatingCharacteristic)Curve[Green&Swets,Book66;Spackman,IWML’89]AreaUnderThebigger,thebetter非均等代价犯不同的错误往往会造成不同的损失此时需考虑“非均等代价”(unequalcost)代价敏感(cost-sensitive)错误率:模型选择(modelselection)三个关键问题:如何获得测试结果?如何评估性能优劣?如何判断实质差别?评估方法性能度量比较检验比较检验在某种度量下取得评估结果后,是否可以直接比较以评判优劣?NO!因为:•测试性能不等于泛化性能•测试性能随着测试集的变化而变化•很多机器学习算法本身有一定的随机性机器学习“概率近似正确”(莱斯利维利昂特)(1949-)2010年图灵奖机器学习的理论基础计算学习理论ComputationallearningtheoryLeslieValiantPAC(ProbablyApproximatelyCorrect)learningmodel[Valiant,1984]两学习器比较交叉验证t检验(基于成对t检验)k折交叉验证;5x2交叉验证McNemar检验(基于列联表,卡方检验)多学习器比较Friedman+Nemenyi•Friedman检验(基于序值,F检验;判断”是否都相同”)•Nemenyi后续检验(基于序值,进一步判断两两差别)常用方法统计假设检验(hypothesistest)为学习器性能比较提供了重要依据统计显著性Friedman检验图横轴为平均序值,每个算法圆点为其平均序值,线段为临界阈值的大小若两个算法有交叠(A和B),则说明没有显著差别;否则有显著差别(A和C),算法A显著优于算法C“误差”包含了哪些因素?换言之,从机器学习的角度看,“误差”从何而来?偏差-方差分解(bias-variancedecomposition)对回归任务,泛化误差可通过“偏差-方差分解”拆解为:期望输出与真实输出的差别同样大小的训练集的变动,所导致的性能变化训练样本的标记与真实标记有区别表达了当前任务上任何学习算法所能达到的期望泛化误差下界泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度共同决定偏差-方差窘境(bias-variancedillema)一般而言,偏差与方差存在冲突:训练不足时,学习器拟合能力不强,偏差主导随着训练程度加深,学习器拟合能力逐渐增强,方差逐渐主导训练充足后,学习器的拟合能力很强,方差主导前往第三站……

1 / 28
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功