libsvm 训练后的模型参数讲解

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

libsvm训练后的模型参数讲解本帖子主要就是讲解利用libsvm-mat工具箱建立分类(回归模型)后,得到的模型model里面参数的意义都是神马?以及如果通过model得到相应模型的表达式,这里主要以分类问题为例子。测试数据使用的是libsvm-mat自带的heart_scale.mat数据(270*13的一个属性据矩阵,共有270个样本,每个样本有13个属性),方便大家自己测试学习。首先上一个简短的测试代码:1.%%ModelDecryption2.%byfaruto@faruto'sStudio~3.%:faruto@163.com5.%://://video.ourmatlab.com8.%lastmodifiedby2011.01.069.%%alittecleanwork10.tic;11.closeall;12.clear;13.clc;14.formatcompact;15.%%16.%首先载入数据17.loadheart_scale;18.data=heart_scale_inst;19.label=heart_scale_label;20.%建立分类模型21.model=svmtrain(label,data,'-s0-t2-c1.2-g2.8');22.model23.%利用建立的模型看其在训练集合上的分类效果24.[PredictLabel,accuracy]=svmpredict(label,data,model);25.accuracy26.%%27.toc;复制代码运行结果:1.model=2.Parameters:[5x1double]3.nr_class:24.totalSV:2595.rho:0.05146.Label:[2x1double]7.ProbA:[]8.ProbB:[]9.nSV:[2x1double]10.sv_coef:[259x1double]11.SVs:[259x13double]12.Accuracy=99.6296%(269/270)(classification)13.accuracy=14.99.629615.0.014816.0.985117.Elapsedtimeis0.040155seconds.复制代码这里面为了简单起见没有将测试数据进行训练集和测试集的划分,这里仅仅是为了简单明了而已,分类结果估计可以不要管,参数优化也不要管,另有帖子讲解。下面我们就看看model这个结构体里面的各种参数的意义都是神马,model如下:model=Parameters:[5x1double]nr_class:2totalSV:259rho:0.0514Label:[2x1double]ProbA:[]ProbB:[]nSV:[2x1double]sv_coef:[259x1double]SVs:[259x13double]model.Parameters我们先来看一下model.Parameters里面承装的都是什么:1.model.Parameters2.ans=3.04.2.00005.3.00006.2.80007.0复制代码重要知识点:model.Parameters参数意义从上到下依次为:-ssvm类型:SVM设置类型(默认0)-t核函数类型:核函数设置类型(默认2)-ddegree:核函数中的degree设置(针对多项式核函数)(默认3)-gr(gama):核函数中的gamma函数设置(针对多项式/rbf/sigmoid核函数)(默认类别数目的倒数)-rcoef0:核函数中的coef0设置(针对多项式/sigmoid核函数)((默认0)即在本例中通过model.Parameters我们可以得知–s参数为0;-t参数为2;-d参数为3;-g参数为2.8(这也是我们自己的输入);-r参数为0。关于libsvm参数的一点小说明:Libsvm中参数设置可以按照SVM的类型和核函数所支持的参数进行任意组合,如果设置的参数在函数或SVM类型中没有也不会产生影响,程序不会接受该参数;如果应有的参数设置不正确,参数将采用默认值。model.Labelmodel.nr_class1.model.Label2.ans=3.14.-15.model.nr_class6.ans=7.2复制代码重要知识点:model.Label表示数据集中类别的标签都有什么,这里是1,-1;model.nr_class表示数据集中有多少类别,这里是二分类。model.totalSVmodel.nSV1.model.totalSV2.ans=3.2594.model.nSV5.ans=6.1187.141复制代码重要知识点:model.totalSV代表总共的支持向量的数目,这里共有259个支持向量;model.nSV表示每类样本的支持向量的数目,这里表示标签为1的样本的支持向量有118个,标签为-1的样本的支持向量为141。注意:这里model.nSV所代表的顺序是和model.Label相对应的。model.ProbAmodel.ProbB关于这两个参数这里不做介绍,使用-b参数时才能用到,用于概率估计。-bprobability_estimates:whethertotrainaSVCorSVRmodelforprobabilityestimates,0or1(default0)model.sv_coefmodel.SVsmodel.rho1.sv_coef:[259x1double]2.SVs:[259x13double]3.model.rho=0.0514复制代码重要知识点:model.sv_coef是一个259*1的矩阵,承装的是259个支持向量在决策函数中的系数;model.SVs是一个259*13的稀疏矩阵,承装的是259个支持向量。model.rho是决策函数中的常数项的相反数(-b)在这里首先我们看一下通过–s0参数(C-SVC模型)得到的最终的分类决策函数的表达式是怎样的?这里如果有关于C-SVC模型不懂的地方,请看这个pdf文件:libsvm_library.pdf附件:最终的决策函数为:在由于我们使用的是RBF核函数(前面参数设置–t2),故这里的决策函数即为:其中||x-y||是二范数距离;这里面的b就是-model.rho(一个标量数字);b=-model.rho;n代表支持向量的个数即n=model.totalSV(一个标量数字);对于每一个i:wi=model.sv_coef(i);支持向量的系数(一个标量数字)xi=model.SVs(i,:)支持向量(1*13的行向量)x是待预测标签的样本(1*13的行向量)gamma就是-g参数好的下面我们通过model提供的信息自己建立上面的决策函数如下:1.%%DecisionFunction2.functionplabel=DecisionFunction(x,model)3.4.gamma=model.Parameters(4);5.RBF=@(u,v)(exp(-gamma.*sum((u-v).^2)));6.7.len=length(model.sv_coef);8.y=0;9.10.fori=1:len11.u=model.SVs(i,:);12.y=y+model.sv_coef(i)*RBF(u,x);13.end14.b=-model.rho;15.y=y+b;16.17.ify=018.plabel=1;19.else20.plabel=-1;21.end复制代码有了这个决策函数,我们就可以自己预测相应样本的标签了:1.%%2.plable=zeros(270,1);3.fori=1:2704.x=data(i,:);5.plabel(i,1)=DecisionFunction(x,model);6.end7.8.%%验证自己通过决策函数预测的标签和svmpredict给出的标签相同9.flag=sum(plabel==PredictLabel)10.over=1;复制代码最终可以看到flag=270,即自己建立的决策函数是正确的,可以得到和svmpredict得到的一样的样本的预测标签,事实上svmpredict底层大体也就是这样实现的。最后我们来看一下,svmpredict得到的返回参数的意义都是什么在下面这段代码中:1.%%2.%首先载入数据3.loadheart_scale;4.data=heart_scale_inst;5.label=heart_scale_label;6.%建立分类模型7.model=svmtrain(label,data,'-s0-t2-c1.2-g2.8');8.model9.%利用建立的模型看其在训练集合上的分类效果10.[PredictLabel,accuracy]=svmpredict(label,data,model);11.accuracy复制代码运行可以看到1.model=2.Parameters:[5x1double]3.nr_class:24.totalSV:2595.rho:0.05146.Label:[2x1double]7.ProbA:[]8.ProbB:[]9.nSV:[2x1double]10.sv_coef:[259x1double]11.SVs:[259x13double]12.Accuracy=99.6296%(269/270)(classification)13.accuracy=14.99.629615.0.014816.0.9851复制代码这里面要说一下返回参数accuracy的三个参数的意义。重要的知识点:返回参数accuracy从上到下依次的意义分别是:分类准率(分类问题中用到的参数指标)平均平方误差(MSE(meansquarederror))[回归问题中用到的参数指标]平方相关系数(r2(squaredcorrelationcoefficient))[回归问题中用到的参数指标]其中mse和r2的计算公式分别为:插图:写在后面的话,至此关于model中相应参数的一些意义,以及到底如果得到决策函数的表达式或者计算方式的就算是说的很明了了。可能还有的同学会问,如何得到分类决策函数中的那个alpha系数【这个肯定会有人问】,还是再磨叽说一下吧:上面的wi其实是alpha和支持向量的类别标签(1或-1的乘积),原始决策函数的表达式如下:插图:上面的yi是支持向量的类别标签(1或者-1),在libsvm中将yi和alpha的乘积放在一起用model.sv_coef(w)来承装。都说到这份上,应该能明白了吗?再说点废话:就是在关于SVM的学习中,我发现很多朋友都不主动思考和尝试,老是在问,这样很不好,这样很被动,上面这些也没有人教我,都是我自己思考出来,然后编程验证,如果出现不合理的地方就再继续思考,反正道理和书籍里面都有讲解,总能洞穿的啊。O(∩_∩)O•Anyway,有关于SVM的问题还是可以一起探讨的,但您首先要独立思考一下下才好,您说是不是~

1 / 7
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功