人工智能第一章不确定知识表示及推理92

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

2019/8/11第一章不确定知识表示及推理2019/8/12内容1.1概述1.2概率模型1.3主观Bayes方法1.4可信度方法2019/8/131.1概述2019/8/14所谓不确定性推理就是从不确定性的初始事实(证据)出发,通过运用不确定的知识,最终推出具有一定程度的不确定性却是合理或者近乎合理的结论的思维过程。需要解决的问题:不确定性的表示不确定性的匹配不确定性的更新算法2019/8/15证据的不确定性一、不确定性的表示证据通常有两类:一类为初始事实。这一类证据多来源于观察,因而通常具有不确定性;另一类为推理过程中产生的中间结果。证据不确定性用C(E)表示,它代表相应证据的不确定性程度,即表示证据E为真的程度。如果E为初始事实,则C(E)由用户给出。如果E为推理过程中产生的中间结果,则C(E)可以通过不确定性的更新算法来计算。知识的不确定性2019/8/16规则:IFETHENH规则是知识,E是规则的前提即证据,H是该规则的结论,也可以是其他规则的证据。EHC(E)C(H)f(E,H)规则的不确定性通常用一个数值f(E,H)表示,称为规则强度。规则的假设(结论)H也可以作为其他规则的证据,其不确定用C(H)表示,C(H)必须通过不确定性的更新算法来计算。2019/8/17在确定一种量度方法及其范围时,应注意以下几点:量度要能充分表达相应的知识和证据的不确定性程度。量度范围的指定应便于领域专家及用户对不确定性的估计。量度要便于对不确定性的更新进行计算,而且对结论算出的不确定性量度不能超出量度的范围量度的确定应当是直观的,同时应有相应的理论依据。2019/8/18二、不确定性的匹配算法设计一个数用来计算匹配双方相似的程度,另外再指定一个相似的限度(称为阈值),用来衡量匹配双方相似的程度是否落在指定的限度内。如果落在指定的限度内,就称它们是可匹配的,相应的知识可被应用。否则就称它们是不可匹配的,相应的知识不可应用。2019/8/19三、不确定性的更新算法即在推理过程中如何考虑知识不确定性的动态积累和传递。1、已知规则前提的不确定性C(E)和规则的强度f(E,H),如何求假设H的不确定性C(H)。即定义算法g1,使C(H)=g1[C(E),f(E,H)]E1HC(E1)C(H)f(E1,H)E2HC(E2)C(H)f(E2,H)2、并行规则算法定义算法g2:C(H)=g2[C1(H),C2(H)]2019/8/1103、证据合取的不确定性算法C(E1E2)=g3[C(E1),C(E2)]C(E1E2)=g4[C(E1),C(E2)]4、证据析取的不确定性算法合取和析取的不确定性算法统称为组合证据的不确定性算法。最大最小法C(E1E2)=min{C(E1),C(E2)}C(E1E2)=max{C(E1),C(E2)}C(EE2)=C(E1)C(E2)C(EE2)=C(E1)+C(E2)-C(E1)C(E2)有界方法概率方法C(E1E2)=max{0,C(E1)+C(E2)-1}C(E1E2)=min{1,C(E1)+C(E2)}2019/8/111设A1、A2、A3、A4为原始证据,不确定性分别为:C(A1)、C(A2)、C(A3)、C(A4)求A5、A6、A7的不确定性。举例A1A2ORA4A3ANDA5R1f1A6R2f2A7R3f3R4f42019/8/112①由证据A1和A2的不确定性C(A1)和C(A2)②由A1和A2析取的不确定性C(A1A2)和规则R1的规则强度f1根据算法4求出A1和A2析取的不确定性C(A1A2)。根据算法1求出A5的不确定性C(A5)。③由证据A3和A4的不确定性C(A3)和C(A4)④由A3和A4合取的不确定性C(A3A4)和规则R2的规则强度f2,根据算法3求出A3和A4合取的不确定性C(A3A4)。根据算法1求出A6的不确定性C(A6)。2019/8/113⑤由A5的不确定性C(A5)和规则R3的规则强度f3⑥由A6的不确定性C(A6)和规则R4的规则强度f4⑦由A7的两个根据独立证据分别求出的不确定性C(A7)和C(A7)根据算法1求出A7的其中一个不确定性C(A7)。根据算法1求出A7的另外一个不确定性C(A7)。根据算法2求成A7最后的不确定性C(A7)。2019/8/1141.2概率方法2019/8/115一、基础1、全概率公式jiAA②P(Ai)0;①两两互不相容,即当ij时,有设事件满足:③iniAD1,D为必然事件则对任何事件B有下式成立:niiiABPAPBP1)|()()(提供了一种计算P(B)的方法。2019/8/1162、Bayes公式niABPAPABPAPBAPnjjjiii,2,1)|()()|()()|(1定理:设事件满足上述定理的条件,则对任何事件B有:该定理称为Bayes定理,上式称为Bayes公式。2019/8/117如果把全概率公式代入Bayes公式中,就可得到:niBPABPAPBAPiii,2,1)()|()()|(即:niAPABPBPBAPiii,2,1)()|()()|(2019/8/118二、概率推理模型Bayes方法用于不精确推理的条件是已知:P(E),P(H),P(E|H)IFETHENH)()()|()|(EPHPHEPEHP①若一组证据E1,E2,En同时支持假设H时,则:对于H,E1,E2,En之间相互独立对于一般的不精确推理网络,必须做如下约定:②当一个证据E支持多个假设H1,H2,Hn时,则:假设H1,H2,Hn之间互不相容2019/8/119如果一个证据E支持多个假设H1,H2,Hn,即:IFETHENHi并已知P(Hi)和P(E|Hi),则njjjiiiiiHEPHPHEPHPEPHEPHPEHP1)|()()|()()()|()()|(如果有多个证据E1,E2,Em和多个结论H1,H2,Hn,则:njjjmjjiimiimiHPHEPHEPHEPHPHEPHEPHEPEEEHP1212121)()|()|()|()()|()|()|()|(2019/8/120设已知:P(H1)=0.4,P(H2)=0.3,P(H3)=0.3P(E1|H1)=0.5,P(E1|H2)=0.6,P(E1|H3)=0.3P(E2|H1)=0.7,P(E2|H2)=0.9,P(E2|H3)=0.1)|(211EEHP)()|()|()()|()|()()|()|()()|()|(33231222211121111211HPHEPHEPHPHEPHEPHPHEPHEPHPHEPHEP=0.4552.0)|(212EEHP03.0)|(213EEHP同理求:P(H1|E1E2),P(H2|E1E2),P(H3|E1E2)举例2019/8/121概率推理模型的优缺点有较强的理论背景和良好的数学特征,当证据及结论都彼此独立时,计算的复杂度比较低。它要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej|Hi),要获得这些数据是一件相当困难的工作。Bayes公式的应用条件很严格,它要求各事件互相独立,若证据之间存在依赖关系,就不能直接使用这个方法2019/8/1221.3主观Bayes方法2019/8/123EHP(E)P(H)LS,LNLS,LN(0)分别称为充分性量度和必要性量度,这两个数值由领域专家给出。一、不确定性的表示1、知识的不确定性表示IFETHEN(LS,LN)H(P(H))2019/8/124O等价于概率函数P,定义如下:PPO1OOP1P越大则O越大,P和O在概率含义上等价的,但取值范围不同:当P0.5时,O1P[0,1],O[0,)当P0.5时,O1当P=0.5时,O=1当P=0时,O=0几率函数O(odds)2019/8/125H的先验几率O(H)和后验几率O(H|E))()()(1)()(HPHPHPHPHO)|()|()|(1)|()|(EHPEHPEHPEHPEHO)()()|()|(EPHPHEPEHP)()()|()|(EPHPHEPEHP)()|()()|()|()|(HPHEPHPHEPEHPEHP)()|()|()|(HOHEPHEPEHO2019/8/126同理可得:)()|()|()|(HOHEPHEPEHO)|()|(HEPHEPLNO(H|E)=LNO(H))|()|(HEPHEPLSO(H|E)=LSO(H)2019/8/127①LS:规则的充分性量度LS=1时,O(H|E)=O(H),说明E对H没有影响;LS1时,O(H|E)O(H),说明E支持H,且LS越大,E对H的支持越充分。可见,E的出现对H为真是充分的,故称LS为充分性度量。LS1时,O(H|E)O(H),说明E排斥H。若LS为,则E为真时H就为真;若LS为0时,则E为真时H就为假;当证据E越是支持H为真是,则使相应LS的值越大。反映E出现对H的支持程度。2019/8/128②LN:规则的必要性量度LN=1时,O(H|E)=O(H),说明E对H没有影响;LN1时,O(H|E)O(H),说明E支持H,且LN越大,E对H的支持越充分。当LN1时,O(H|E)O(H),说明E排斥H。若LN为,则E为真时H就为真;若LN为0时,则E为真时H就为假;由于E不出现,将导致H为假,可看出E对H为真的必要性,故称LN为必要性度量。若证据E对H越是必要,则相应的LN的值越小。反映E不出现对H的支持程度,即E的出现对H的必要性。2019/8/129③LS和LN的关系LS1且LN1LS1且LN1LS=LN=1由于E和E不可能同时支持H或同时反对H,所以领域专家在为一条知识中的LS和LN赋值时,不应该同时大于1或同时小于1。2019/8/1302、证据的不确定性表示在主观Bayes方法中,证据E的不确定性由用户根据观察S给出后验概率P(E|S)或后验几率O(E|S)表示。当E为真时,P(E|S)=1,O(E|S)=当E为假时,P(E|S)=0,O(E|S)=0当E不确定时,0P(E|S)12019/8/131二、主观Bayes方法推理的基本算法P(H)P(H|E)P(H|E)P(E|S)LS,LN根据证据E的后验概率P(E|S)及LS,LN的值,把H的先验概率P(H)更新为后验概率P(H|E)或P(H|E)。即:2019/8/132当P(E|S)=1)|(1)|()|(EHOEHOEHP1、证据E确定)(1)(1)(1)(HPHPLSHPHPLS)(1)(HOLSHOLS1)()1()(HPLSHPLS则:O(H|E)=LSO(H)2019/8/133当P(E|S)=11)()1()()|(HPLNHPLNEHP则:O(H|E)=LNO(H),同理可得:2019/8/134在证据不确定的情况下,不能再用上面的公式计算后验概率,而要用杜达(R.O.DUDA)等人于1976年证明了的如下公式:2、证据E不确定当P(E|S)=1时,P(E|S)=0P(H|S)=P(H|E)当P(E|S)=0时,P(E|S)=1P(H|S)=P(H|E)当P(E|S)=P(E)时:P(H|S)=P(H|E)P(E)+P(H|E)P(E)=P(H)当P(E|S)为其它值时,通过分段线性插值可得计算P(H|S)的公式,如图所示。P(H|S)=P(H|E)P(E|S)+P(H|E)P(E|S)此即为证据确实存在的情况此即为证据确实不存在的情况2019/8/135P(E|S)P(H|S)0P(H|E)P(H)P(E)P(H|E)12019/8/136函数的解析式,即EH公式

1 / 92
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功