机器学习中有关概率论知识的小结

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

机器学习中有关概率论知识的小结一、引言最近写了许多关于机器学习的学习笔记,里面经常涉及概率论的知识,这里对所有概率论知识做一个总结和复习,方便自己查阅,与广大博友共享,所谓磨刀不误砍柴工,希望博友们在这篇博文的帮助下,阅读机器学习的相关文献时能够更加得心应手!这里只对本人觉得经常用到的概率论知识点做一次小结,主要是基本概念,因为机器学习中涉及概率论的地方,往往知道基本概念就不难理解,后面会不定期更新,希望博友们多留言补充。二、贝叶斯(Bayes)公式通常把事件A的概率P(A)叫做实验前的假设概率,即先验概率(priorprobability),如果有另一个事件B与事件A有某种关系,即事件A和B不是互相独立的,那么当事件B确实发生之后,则应当重新估计事件A的概率,即P(A|B),这叫做条件概率或者试验后的假设概率,即后验概率(posteriorprobability).公式一:再引入全概率公式:设事件A当前仅当互不相容的事件(即任意两个事件不可能同时发生的)(i=1,2,...n)中的任意一个事件发生时才可能发生,已知事件的概率及事件A在已发生的条件下的条件概率,则事件A发生的概率为:这就是全概率公式.根据概率乘法定理:我们可以得到:于是:再根据上面介绍的全概率公式,则可得到传说中的贝叶斯公式:这些公式定理几乎贯穿整个机器学习,很基本,也很重要!三、常用的离散随见变量分布1.“0-1”分布:设随机变量X只能取得两个数值:0与1,而概率函数是:通常把这种分布叫做“0-1”分布或者两点分布,是分布参数.2.二项分布(binomialdistribution):设随机变量X可能的的值是0,1,2,...,n,而概率函数是:其中,这种分布叫做二项分布,含有两个参数和,通常把这种分布记作,如果随见变量X服从二项分布,记作3.泊松(Possion)分布:设随机变量X的可能值是一切非负整数,而概率函数是:其中λ0为常数,这种分布叫做泊松分布。泊松分布就含有一个参数λ,记作P(λ),如果随机变量X服从泊松分布,则记作X~P(λ)四、随机变量的分布函数设x是任何实数,考虑随机变量X取得的值不大于x的概率,即事件X≤x的概率,记作F(x)=P(X≤x),这个函数叫做随机变量X的概率分布函数或者分布函数,注意区别于上面讲到的概率函数.如果已知随机变量X的分布函数F(X),则随见变量X落在半开区间(x1,x2]内的概率:P(x1X≤x2)=F(x2)-F(x1)五、连续随机变量的概率密度连续随机变量的概率密度就是分布函数的导函数六、随机变量的数学期望如果随机变量X只能取得有限个值:而取得有限个值得概率分别是:则数学期望:如果连续随机变量X的概率密度为,则连续随机变量的数学期望:一个常数的的数学期望等于这个常数本身。定理:两个独立随机变量的乘积的数学期望等于它们数学期望的乘积。证明如下:对于离散随机变量X与Y独立:对于连续随机变量X与Y独立:七、方差与标准差随机变量X的方差记作D(X),定义为:下面证明一个很有用的公式(会用到性质:一个常数的的数学期望等于这个常数本身):简而言之:随机变量的方差等于变量平方的期望减去期望的平方.标准差就是方差的算术平方根。常数的方差为0.八、协方差与相关系数随机变量X与随机变量Y的协方差记作:进一步推导可得:因为两个独立随机变量乘积的期望等于两个随机变量各自期望的乘积,于是当两个随机变量独立使,很容易得到它们的协方差为0.两个随机变量X与Y的相关系数为:两个随机变量的相关系数的绝对值不大于1.当且仅当随机变量Y与X之间存在线性关系:时,相关系数的绝对值等于1,并且九、正态分布正态分布又叫高斯分布,设连续随机变量X的概率密度其中μ及σ0都是常数,这种分布就是正态分布.正态分布含有两个参数μ及σ0,其中μ等于正态分布的数学期望,而σ等于正态分布的标准差,通常把这种分布记作,随机变量X服从正态分布,则记为:定理设随机变量X服从正态分布,则X的线性函数Y=a+bX(b≠0)也服从正态分布,且有先总结这么多,以后遇到重要的概率论知识点会继续补充!

1 / 5
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功