第05讲智能决策理论与方法-2.

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

决策理论与方法——智能决策理论与方法(2)合肥工业大学管理学院2019年12月20日2019年12月20日4时33分决策理论与方法-智能决策理论与方法智能决策理论与方法1、智能决策理论的形成背景2、知识发现3、粗糙集理论4、机器学习2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习机器学习是从模拟人类的学习行为出发,研究客观世界和获取各种知识与技能的一些基本方法(如归纳、泛化、特化、类比等),并借助于计算机科学与技术原理建立各种学习模型,从根本上提高计算机智能和学习能力。研究内容是根据生理学、认知科学对人类学习机理的了解,建立人类学习的计算模型或认知模型;发展各种学习理论和学习方法,研究通用的学习算法并进行理论上的分析;建立面向任务且具有特定应用的学习系统。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—归纳学习:泛化归纳学习是指从给定的关于某个概念的一系列已知的正例和反例中归纳出一个通用的概念描述。泛化(Generalization)是用来扩展一假设的语义信息,使其能够包含更多的正例。泛化所得到的结论并不总是正确的。常用泛化方法:将常量转为变量规则:对于概念F(v),如果v的某些取值a,b,…使F(v)成立,则这些概念可被泛化为:对于v的所有值,F(v)均成立:)()(|)()(vFvbFaF2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—归纳学习:泛化消除条件规则:一个合取条件可看作是对满足此概念的可能实例集的一个约束。消除一个条件,则该概念被泛化。添加选项:通过添加更多条件,使得有更多的实例满足概念而使该概念泛化。该规则特别有用的方式是通过扩展某个特定概念的取值范围而增加选项。将合取转为析取规则)()(Re|)()()(RevApplevdvApplevCirclevd)()()(Re|)()(RevApplevBluevdvApplevd)()()(Re|)()()(RevApplevCirclevdvApplevCirclevd2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—归纳学习:泛化爬升概念树规则:通过爬升概念树,低层概念被较高层概念替代。设A表示信息系统中的某个属性如Animal,a,b,…分别为对象u,v,…在属性A上的取值,若s是概念树上a,b,…的父结点,则基于概念树爬升的泛化规则表示为:Nick等人给出了一种面向属性的归纳算法。过度泛化问题当某个属性被爬升至过高的概念层会导致冲突的产生,这种现象称为过度泛化。克服过度泛化必须有相应的终止泛化算法的策略。sxLxbvAauA)()(|)()(2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—归纳学习:泛化动物哺乳类鸟类企鹅食肉类蹄类飞禽类走禽类虎印度豹长颈鹿斑马信天翁鹰驼鸟第1层第2层第3层第4层2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—归纳学习:决策树A0-根A1-内结点A1A2-11-11-110010110叶结点A0A1A2A3类0000-10001-10010-10011-101001010110110101111A0A1A2A3类1000-11001-11010-11011-111001110111110-11111-12019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树概念决策树学习是以实例为基础的归纳学习算法。所谓决策树是一个类似流程图的树结构,其中树的内结点对应属性或属性集,每个分枝表示检验结果(属性值),树枝上的叶结点代表所关心的因变量的取值(类标签),最顶端的结点称为根结点。决策树学习采用自顶向下的递归方式,在决策树的内部结点进行属性值比较并根据不同的属性值判断从该结点向下的分支,在叶结点得到结论。从根结点到每个叶结点都有唯一的一条路径,这条路径就是一条决策“规则”。当经过一批训练实例集的训练产生一颗决策树,那么该决策树就可以根据属性的取值对一个未知实例集进行分类。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树:CLS学习算法概念学习系统CLS(Hunt):从一颗空的决策树出发,添加新的判定结点来改善原来的决策树,直到该决策树能够正确地将训练实例分类为止。产生根节点T,T包含所有的训练样本;如果T中的所有样本都是正例,则产生一个标有“1”的节点作为T的子节点,并结束;如果T中的所有样本都是反例,则产生一个标有“-1”的节点作为T的子节点,并结束;选择一个属性A(如何选?),根据该属性的不同取值v1,v2,…,vn将T中的训练集划分为n个子集,并根据这n个子集建立T的n个子节点T1,T2,…,Tn,并分别以A=vi作为从T到Ti的分支符号;以每个子节点Ti为根建立新的子树。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—归纳学习:学习结果A0A1A1A2-11-11-110010110T2T1T11T12T111T112T21T22T2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树:ID3学习算法ID3算法(Quinlan):以信息熵的下降速度(信息增益)作为测试属性选择标准。信息增益:设决策树根结点的样本数据为X={x1,x2,…,xn},称X的两个训练子集PX(对应类标签为1)和NX(对应类标签为-1)为正例集和反例集,并记正例集和反例集的样本数分别为P和N,则样本空间的信息熵为假设以随机变量A作为决策树根的测试属性,A具有k个不同的离散值v1,v2,…,vk,它将X划分为k个子集,且假设第j个子集中包含Pj个正例,Nj个反例,则第j个子集的信息熵为I(Pj,Nj)。)log()log(),(NPNNPNNPPNPPNPI2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树:ID3学习算法以A为测试属性的期望信息熵为以A为根节点的信息增益是:Gain(A)=I(P,N)-E(A)ID3的策略就是选择信息增益最大的属性作为测试属性。ID3的问题:测试属性的分支越多,信息增益值越大,但输出分支多并不表示该测试属性有更好的预测效果。kjjjjjNPINPNPAE1),()(2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树:C4.5学习算法信息增益率:其中:目前一种比较流行的决策树算法C4.5算法就是以信息增益率作为测试属性的选择条件。生成的决策树往往过大,不利于决策时的应用,需要对其剪枝(Pruning),请参阅相关文献。)()()(ASplitiAGainAgainratiokjjjjjnNPnNPASpliti1)log()(2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树算例A0A1A2A3类0000-10001-10010-10011-1010010101101101011111000-11001-11010-11011-111001110111110-11111-1确定根结点I(P,N)=-10/16log(10/16)-6/16log(6/16)=-5/8log5-3/8log3+3=0.9544E(A0)=1/2(-4/8log(4/8)-4/8log(4/8))+1/2(-6/8log(6/8)-2/8log(2/8))=0.9056E(A1)=1-3/8log3=0.4084E(A2)=1-3/16log3=0.9056E(A3)=3-5/8log5-3/8log3=0.9544因此选A1作为起始根结点。A3没有改变任何信息量,无分类价值,可以删除。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树算例A110-1A0A1A2A3类0000-10001-10010-10011-1010010101101101011111000-11001-11010-11011-111001110111110-11111-1确定子树根结点I(P,N)=-6/8log6/8-2/8log2/8=0.8112E(A0)=E(A2)=1/2=0.5E(A3)=2-3/4log3=0.8112A0,A2具有相同的分类能力,任取一个均可。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—决策树算例A1A010-1+1A2+101-101A0A1A2A3类0000-10001-10010-10011-1010010101101101011111000-11001-11010-11011-111001110111110-11111-12019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—神经网络神经网络(ArtificialNeuralNetworks)是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应(T.Koholen)。神经网络分为前向型、反馈型、随机型以及自组织型。我们重点介绍前向型网络及其学习算法。2019年12月20日4时33分决策理论与方法-智能决策理论与方法基本神经元及感知机模型:机器学习—神经网络wj1wjiwjnyjf(iwijxi-j)x1xixn2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—神经网络神经元函数f的选择线性函数:f(x)=x带限的线性函数:为最大输出。阈值型函数:sigmoid函数:xxxxxf||)(xxxf11)(xxxeexforexf11)(11)(2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—神经网络感知机学习算法:(选取f为阈值函数,学习权值向量w)(1)初始化:将权值向量和阈值赋予随机量,t=0(2)连接权的修正:设训练样本的输入为x1,...,xi,...,xn,期望输出为yj(=±1),进行如下计算:计算网络输出(=±1):y(t)=f(iwij(t)xi(t)-j(t))计算期望输出与实际输出的误差:e(t)=yj-y(t)若e=0,则说明当前样本输出正确,不必更新权值,否则更新权值和阈值wij(t+1)=wij(t)+yjxi(t);j(t+1)=j(t)+yjt=t+1(为学习率)(3)返回(2),重复所有的训练样本直到所有的样本输出正确。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—神经网络多层前向神经网络:包括一个输入层、一个输出层以及多层隐单元。x1xixIy1ykyK输入层隐含层输出层u1uiuIv1vjvJwjiwkj2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—神经网络隐含层的接受与投射(以隐含层第j个神经元为例):接受:第j个神经元的值来自于前一层网络(本例是输入层)输出值的加权和,即netj=iwjiui。投射:将第j个神经元的值经过变换f(netj),作为下一层网络(本例是输出层)的输入,一般f(x)=1/(1+e-x)。因此可得到yk=jwkjf(netj)。上述过程一直持续到所有的输出单元得到输出为止,最后一层的输出就是网络的输出。因此,神经网络是一个黑匣子。2019年12月20日4时33分决策理论与方法-智能决策理论与方法机器学习—神经网络BP算法:BP算法的核心是确定W的调节规则(学习规则),使实际的输出Y1(t)尽可能接近期望的输出Y(t)。误差函数:对于每种输入模式特征矢量(x1,x2,…,xI),都有对应的输出矢量(y1,y2,

1 / 47
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功