最大似然估计和贝叶斯参数估计2

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

Chapter3:最大似然估计和贝叶斯参数估计2要点:•重点掌握最大似然估计和贝叶斯参数估计的原理;•熟练掌握主成分分析和Fisher线性分析;•掌握隐马尔可夫模型;•了解维数问题;3贝叶斯框架下的数据收集在以下条件下我们可以设计一个可选择的分类器:P(i)(先验)P(x|i)(类条件密度)不幸的是,我们极少能够完整的得到这些信息!从一个传统的样本中设计一个分类器先验估计不成问题对类条件密度的估计存在两个问题:1)样本对于类条件估计太少了;2)特征空间维数太大了,计算复杂度太高。1•3.1引言4如果可以将类条件密度参数化,则可以显著降低难度。例如:P(x|i)的正态性P(x|i)~N(i,i)用两个参数表示将概率密度估计问题转化为参数估计问题。估计最大似然估计(ML)和贝叶斯估计;结果通常很接近,但是方法本质是不同的。5最大似然估计将参数看作是确定的量,只是其值是未知!通过最大化所观察的样本概率得到最优的参数—用分析方法。贝叶斯方法把参数当成服从某种先验概率分布的随机变量,对样本进行观测的过程,就是把先验概率密度转化成为后验概率密度,使得对于每个新样本,后验概率密度函数在待估参数的真实值附近形成最大尖峰。在在参数估计完后,两种方法都用后验概率P(i|x)表示分类准则!6当样本数目增加时,收敛性质会更好;比其他可选择的技术更加简单。假设有c类样本,并且1)每个样本集的样本都是独立同分布的随机变量;2)P(x|j)形式已知但参数未知,例如P(x|j)~N(j,j);3)记P(x|j)P(x|j,j),其中(,)jjj•3.2最大似然估计最大似然估计的优点:3.2.1基本原理7使用训练样本提供的信息估计=(1,2,…,c),每个i(i=1,2,…,c)只和每一类相关。假定D包括n个样本,x1,x2,…,xn的最大似然估计是通过定义最大化P(D|)的值“值与实际观察中的训练样本最相符”1(|)(|)()(|)DknkkPDPxFPD被称为样本集下的似然函数2ˆ829最优估计令=(1,2,…,p)t并令为梯度算子thegradientoperator我们定义l()为对数似然函数:l()=lnP(D|)新问题陈述:求解为使对数似然最大的值12,,...,tpˆargmax()l10对数似然函数l()显然是依赖于样本集D,有:最优求解条件如下:1()ln(|)()0nkklPxl1()ln(|)nkklPx令:来求解.11P(xk|)~N(,)(样本从一组多变量正态分布中提取)=,因此:•的最大似然估计必须满足:1111ln(|)ln(2)()()22ln(|)()dtkkkkkPxxxPxx和211ˆ()0nkkx3.2.3高斯情况:未知12•乘并且重新排序,我们得到:即训练样本的算术平均值!结论:如果P(xk|j)(j=1,2,…,c)被假定为d维特征空间中的高斯分布;然后我们能够估计向量=(1,2,…,c)t从而得到最优分类!211ˆnkkxn13未知和,对于单样本xk=(1,2)=(,2)221212122122211()ln(|)ln2()22(ln(|))0(ln(|))1()0()1022kkkkkklPxxPxlPxxx3.2.3高斯情况:和均未知14对于全部样本,最后得到:联合公式(1)和(2),得到如下结果:11221211221()0(1)ˆˆ()10(2)ˆˆnkknnkkkxx22211();nknkkkxxnn152的最大似然估计是有偏的(渐进无偏估计)的一个基本的无偏估计是:22211().inExxnn21covariancematrix1ˆC()()n-1kntkkkSamplexx3.2.4偏差估计16模型错误会怎么样?达不到最优!17在最大似然估计中被假定为固定值在贝叶斯估计中是随机变量目标:计算P(i|x,D)假设样本为D,贝叶斯方程可以写成:1(|,).(|)(|,)(|,).(|)iiicjjjPxDPDPxDPxDPD•3.3贝叶斯估计3.3.1类条件密度18因此,核心工作就是要估计先验概率通常可以事先获得,因此每个样本只依赖于所属的类,有:1(|,)(|,)(|,).()(|,)(|,).()iiiiiiicjjjjPxDPxDPxDPPxDPxDP()(|)iiPPD故:即:只要在每类中,独立计算就可以确定x的类别。(|,)iiPxD(|)PxD19假设的形式已知,参数的值未知,因此条件概率密度的函数形式是知道的;假设参数是随机变量,先验概率密度函数p()已知,利用贝叶斯公式可以计算后验概率密度函数p(|D);希望后验概率密度函数p(|D)在的真实值附件有非常显著的尖峰,则可以使用后验密度p(|D)估计;43.3.2参数的分布()px(|)px20注意到43.3.2参数的分布(|)(,|)(|)(|)pxDpxDdpxpDd如果p(|D)在某个值附件有非常显著的尖峰,则ˆˆ(|)(|)pxDpx即:如果条件概率密度具有一个已知的形式,则利用已有的训练样本,就能够通过p(|D)对p(x|D)进行估计。21单变量情形的p(|D)3.4贝叶斯参数估计:高斯过程22200002001122010(|)~(,),()~(,),(;)(|)(),,,(|)(|)()(|)(|)()1'exp2nnkknkkpxNpNpDpDxxpDpDpdpDpxpx是未知的。假设和已知是最好的估计是该估计的不确定性202222100111exp22nkknx22复制密度202222220022002222002220220(|)~(,)[reproducingdensity][():conjugateprior]11ˆ,ˆnnnnnnnnnpDNpnnσnnnσn称11ˆnnkknx其中,23贝叶斯学习24结论:0020nnn0ˆˆˆ,,nnn是和的线性组合,总是位于和的连线上;当有限时将逼近否则。25单变量情形的p(x|D)222222222222222222(|)(|)(|)11exp(,)221(,)exp22(|)~(,)nnnnnnnnnnnnnpxDpxpDdxfxnfdpxDN其中,26多变量情形:001111111110001(|)~(),()~(),,(|)(|)()1'exp2ˆ,1ˆnnkktnnnnnnnnnkkpNpNDpDpxpnnnxΣΣxxΣΣΣΣΣΣΣx其中,复制密度2711111110000100111ˆ11(|)(|)(|)(|)~(,)(|)~(,)(|)(|)~(,)nnnnnnnnnnnnpDppDdpNpDNpDpDNABAABBBABAΣΣΣΣΣΣΣΣΣΣΣxxyxy0ΣΣxyΣΣ利用,得利用令28多变量学习293.5贝叶斯参数估计:一般理论p(x|D)的计算可推广于所有能参数化未知密度的情况中,基本假设如下:假定p(x|)的形式未知,但是的值未知。被假定为满足一个已知的先验密度P()其余的的信息包含在集合D中,其中D是由n维随机变量x1,x2,…,xn组成的集合,它们服从于概率密度函数p(x)。基本的问题是:计算先验密度p(|D),然后推导出p(x|D)。301(|)(|)(|)(|)()(|)(|)()(|)(|)nkkpDppDdpDppDpDpdpDpxxx问题:p(x|D)是否能收敛到p(x),计算复杂度如何?31递归贝叶斯学习)()|()|()|()|()|()|()()|()()|()|()()|()|()()|()|()()|()()|()|()|()|()|(,,,0111111111pDpdDppDppDpdpDppDpDpdpDpppDppdpDppDpDpDppDpDnnnnnnnnnnnnnnnnnnnnxxxxxxx该过程称为参数估计的递归贝叶斯方法,一种增量学习方法。32例1:递归贝叶斯学习010122121/0(|)~(0,)0()~(0,10),4,7,2,8(|)()~(0,10)1/410(|)(|)(|)01/710(|)(|)(|)0(|)1/max10nnnxxpxUpUDpDpUpDpxpDpDpxpDpDD假设:其他对于其他对于其他对于33例1:递归贝叶斯学习34例1:Bayesvs.ML(|)(|)(|)pDppDdxx贝叶斯参数估计以来:35唯一性问题p(x|)是唯一的:后验概率序列p(|Dn)收敛到delta函数;只要训练样本足够多,则p(x|)能唯一确定。在某些情况下,不同值会产生同一个p(x|)。p(|Dn)将在附近产生峰值,这时不管p(x|)是否唯一,p(x|Dn)总会收敛到p(x)。因此不确定性客观存在。36最大似然估计和贝叶斯参数估计的区别最大似然估计贝叶斯参数估计计算复杂度微分多重积分可理解性确定易理解不确定不易理解先验信息的信任程度不准确准确例如p(x|)与初始假设一致与初始假设不一致37分类误差贝叶斯错误或不可分错误,例如P(x|i);模型错误;估计错误,训练样本个数有限产生。38Gibbs算法00(|)(|)(|)(|)(|)(|)[Gibbs]pDppDdpDpDpxxxx依据选择使得算法在较弱的假设条件下,Gibbs算法的误差概率至多是贝叶斯最优分类器的两倍。39统计量任何样本集的函数;充分统计量即是一个样本集D的函数s,其中s包含了有助于估计参数的所有所有信息,即p(D|s,)与无关;如果是随机变量,则)|()|()|(),|(),|(ssssspDppDpDp•3.6充分统计量反过来也成立。40因式分解定理:一个关于参数的统计量s是充分统计量当且仅当概率分布函数P(D|)能够写成乘积形式:P(D|)=g(s,)h(D)其中g(.,.)和h(.)是两个函数。41例子:多维高斯分布forsufficientare1ˆthusand21exp212exp21exp21)|(),(~)|(11

1 / 115
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功