哈工大模式识别课程期末总结

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

哈尔滨工业大学课程总复习21.关于期末考试/考察2.章节知识点整理31.关于期末考试/考察41.确认考试人员名单;2.考试/考察方式•学位课:考试70%+报告30%;•选修课:报告100%(不用考试)。3.报告形式(见word文档)4.考试题目(100分)•1.简答题(35分)7*5’=35分•2.推导题(8分)•3.证明题(8分)•4.问答题(24分)3*8’=24分•5.计算题(25分)9’+8’+8’=25分(记得要带尺子,铅笔,橡皮擦)【关于期末考试】52.章节知识点整理哈尔滨工业大学第1章模式识别绪论模式识别基本概念模式识别系统组成模式识别基本问题应用领域小结模式识别系统组成【模式识别系统组成】1.信息的获取:通过测量、采样、量化并用矩阵或向量表示。通常输入对象的信息有三个类型:二维图像(文字、指纹、地图、照片等)、一维波形(脑电图、心电图、机械震动波形等)、物理参量和逻辑值(体检中的温度、血化验结果等)2.预处理:去除噪声,加强有用的信息,并对输入测量仪器或其它因素造成的干扰进行处理。3.特征提取与选择:为了实现有效的识别分类,要对原始数据进行变换得到最能反映分类本质的特征,此过程为特征提取和选择。4.分类决策:在特征空间中用统计方法把被识别对象归为某一类。基本作法是在样本训练集基础上确定某个判决规则,使按这种判决规则对被识别对象进行分类所造成的错误识别率最小或引起的损失最小。5.后处理:针对决策采取相应的行动。信息获取预处理特征提取与选择分类决策后处理模式识别系统组成框图哈尔滨工业大学第2章贝叶斯决策理论概率论基础知识贝叶斯决策基础知识基于最小错误率的贝叶斯决策基于最小风险的贝叶斯决策贝叶斯分类器设计正态分布时的统计决策小结贝叶斯决策基础知识【贝叶斯决策基础知识】贝叶斯决策理论•先验概率:•后验概率:•类条件概率:•贝叶斯公式:iPiPxiPxiiiPPPPxxx基于最小错误率的贝叶斯决策【基于最小错误率的贝叶斯决策】1122()()ln()ln(|)ln(|)ln()PhxlxpxpxP1122()()ln()ln(|)ln(|)ln()PhxlxpxpxP(4)1x2x【基于最小错误率的贝叶斯决策】【基于最小错误率的贝叶斯决策】【基于最小风险的贝叶斯决策】概念决策决策空间前面所讲的错误率达到最小。在某些实际应用中,最小错误率的贝叶斯准则并不适合。以癌细胞识别为例,诊断中如果把正常细胞判为癌症细胞,固然会给病人精神造成伤害,但伤害有限;相反地,若把癌症细胞误判为正常细胞,将会使早期的癌症患者失去治疗的最佳时机,造成验证的后果。【基于最小风险的贝叶斯决策】数学描述【基于最小风险的贝叶斯决策】期望风险:条件期望损失:目的:期望风险最小化1(|)(,)(,)(|),1,2,...,ciijijjjRxEPxia(()|)()RRxxpxdx【基于最小风险的贝叶斯决策】最小风险贝叶斯决策规则:1,2,...,(|)min(|)kiiaRxRxka【基于最小风险的贝叶斯决策】算法步骤:【基于最小风险的贝叶斯决策】例题2:【基于最小风险的贝叶斯决策】【基于最小错误率的贝叶斯决策与最小风险的贝叶斯决策的关系】定理:0-1风险哈尔滨工业大学第3章概率密度函数估计引言参数估计正态分布的参数估计非参数估计本章小结参数估计【参数估计】最大似然估计贝叶斯估计贝叶斯学习【最大似然估计】基本假设【最大似然估计】基本概念【最大似然估计】基本原理【最大似然估计】估计量估计值【最大似然估计】一元参数【最大似然估计】多元参数【最大似然估计】12211,(|)0xpx其它121212N211(,,...,|,),()0Npxxxxl其它21H()Nln121H()1N221H()1N例子(梯度法不适合):不成功!12'''xxx12',''xx21'','xx【贝叶斯估计】采用最小风险贝叶斯决策1(|)(,)(,)(|),1,2,...,ciijijjjRxEPxia【贝叶斯估计】ˆ(,)(,)dERpxddx(|)()(|)()(|)()(|)()pxppxppxpxpxpd(,)(|)()(|)()pxpxpxpxpˆ(,)(|)()ˆ()(,)(|)ˆ(|)()dddEEERpxpxddxpxpxddxRxpxdxˆˆ(|)(,)(|)Rxpxd【贝叶斯估计】【贝叶斯学习】【三种方法总结】【三种方法总结】哈尔滨工业大学第4章线性判别函数线性判别函数的基本概念Fisher线性判别准则函数感知准则函数最小平方误差准则函数多类问题§4.1.1概念的提出【线性判别函数】定义§4.1.1概念的提出【线性判别函数】分类决策§4.1.1概念的提出【线性判别函数】分析§4.1.1概念的提出【线性判别函数】分析说明:判别函数g(x)正比于任意一点x到超平面的代数距离。Fisher线性判别准则函数【Fisher线性判别准则函数】概念应用统计方法解决模式识别问题时,往往遇到维数问题(举例:图像识别),降维是有效方法。考虑到降d维空间的样本投影到一条直线上,如果投影到任意一条直线上则可能造成本来有很好区分度的样本在直线上线性不可分。因此,直线的方向很关键。【Fisher线性判别准则函数】基本思路Fisher判别的基本思想:希望投影后的一维数据满足:􀂄两类之间的距离尽可能远;􀂄每一类自身尽可能紧凑。【Fisher线性判别准则函数】【Fisher线性判别准则函数】【Fisher线性判别准则函数】【Fisher线性判别准则函数】哈尔滨工业大学第5章非线性判别函数基本概念基于距离的分段线性判别函数分段线性分类器设计二次判别函数程序设计方法实际应用系统设计研究报告哈尔滨工业大学第6章特征的选择与提取1.引言2类别可分离性判据3特征选择4.特征提取60哈尔滨工业大学第7章近邻法610.引言1.近邻法原理及其决策规则2.快速搜索近邻法3.剪辑近邻法4.压缩近邻法621.近邻法原理及其决策规则63【基本原理】最小距离分类器是将各类训练样本划分成若干子类,并在每个子类中确定代表点,一般用子类的质心或邻近质心的某一样本为代表点。测试样本的类别则以其与这些代表点距离最近作决策。该法的缺点是所选择的代表点并不一定能很好地代表各类,后果将使错误率增加。近邻法的基本思想:增加代表点的数量有没有可能获得性能好的分类器呢?一种极端的情况是以全部训练样本作为“代表点”,计算测试样本与这些“代表点”,即所有样本的距离,并以最近邻者的类别作为决策。此为近邻法的基本思想。64【最近邻法决策规则】若则其中表示是类的第个样本。决策规则为:定义:将与测试样本最近邻样本类别作为决策的方法。对一个类别问题,每类有个样本,,则第类的判别函数65最近邻法可以扩展成找测试样本的个最近样本作决策依据的方法。其基本规则是,在所有个样本中找到与测试样本的个最近邻者;其中各类别所占个数表示成则决策为:【-近邻法决策规则】注意:近邻一般采用为奇数,跟投票表决一样,避免因两种票数相等而难以决策。若则66【问题的提出】上述讨论中可以看出,尽管近邻法有其优良品质,但是它的一个严重弱点与问题是需要存储全部训练样本,以及繁重的距离计算量。但以简单的方式降低样本数量,只能使其性能降低,这也是不希望的。为此要研究既能减少近邻法计算量与存储量,同时又不明显降低其性能的一些改进算法。改进算法大致基于两种原理。一种是对样本集进行组织与整理,分群分层,尽可能将计算压缩到在接近测试样本邻域的小范围内,避免与训练样本集中每个样本进行距离计算。另一种原理则是在原有样本集中挑选出对分类计算有效的样本,使样本总数合理地减少,以同时达到既减少计算量,又减少存储量的双重效果。672.快速搜索近邻法683.剪辑近邻法694.压缩近邻法70哈尔滨工业大学第8章主成分分析(PCA)711.引言2主成分分析(PCA)3基于K-L展开式的特征提取4.应用举例722.主成分分析73•根据方差最大化原理,用一组新的、线性无关且相互正交的向量来表征原来数据矩阵的行(或列)。这组新向量(主成分)是原始数据向量的线性组合。•通过对原始数据的平移、尺度伸缩(减均值除方差)和坐标旋转(特征分解),得到新的坐标系(特征向量)后,用原始数据在新坐标系下的投影(点积)来替代原始变量。一.主成分分析的基本原理74主成分分析的优点★它能找到表现原始数据阵最重要的变量的组合★通过表示最大的方差,能有效地直观反映样本之间的关系★能从最大的几个主成分的得分来近似反映原始的数据阵的信息75图像预处理【人脸识别】76【人脸识别】77【人脸识别】78【人脸识别】79•基于PCA构建特征脸空间是对图像进行K-L变换,以去除样本间的相关性,然后根据特征值的大小选择特征向量。•这种方法首先将人脸图像映射为高维空间的向量,然后应用基于统计的离散K-L变换方法,构造一个各分量互不相关的特征空间,即特征脸空间,再将人脸图像在高维空间中的向量映射到特征脸空间,得到特征系数。PCA构建特征脸空间哈尔滨工业大学第9章人工神经网络1.基础知识2.前馈神经网络3.反馈神经网络4.自组织映射神经网络神经网络的学习方法神经网络的学习:从环境中获取知识并改进自身性能,主要指调节网络参数使网络达到某种度量,又称为网络的训练。学习方式:监督学习非监督学习再励学习学习规则:误差纠正学习算法竞争学习算法4.自组织映射自组织映射Self-OrganizingMap亦称SOFM。Kohonen提出(1980s)SOM用于非监督模式识别自组织学习过程本身就是一个非监督学习过程SOMA(自组织分析)基本思路:①用未知样本集训练SOM;②计算象密度图;③根据象密度图划分聚类(把结点代表的小聚类合并)。特点:对数据分布形状少依赖性;可反映真实存在的聚类数目,尤其适合人机合作分析(高维数据的有效二维显示)数学上待研究的问题多:象密度与样本分布密度之间的关系?拓扑保持特性?如何在SOM平面上聚类?哈尔滨工业大学第10章无监督学习1.引言2.单峰子集(类)的分离方法3.类别分离的间接方法4.分级聚类方法监督模式识别:(已知)样本集→训练(学习)→识别(分类)非监督模式识别:(未知)样本集→非监督学习(聚类分析)→后处理【引言】通过寻找可能存在的分类来理解某一对象将复杂多样的对象用有限典型来代表根据:某种假设(对聚类应具有的性质的认识)结果:聚类(clusters)属中间结果(数学结果),需经解释赋予物理含义(后处理)应用:复杂系统未知特性分析(举例)航天、航空、航海(具体阐述)直接方法:基于概率密度函数估计相间接聚类方法:基于样本间似性度量【动态聚类】多次迭代,逐步调整类别划分,最终使某准则达到最优。三个要点:①选某种距离作为样本相似性度量②定义某个准则函数,用于评价聚类质量。③初始分类方法及迭代算法C-均值聚类ISODATA聚类常用算法:【动态聚类】C均值算法【动态聚类】C均值算法【动态聚类】C均值算法初始划分:一般可先选代表点,再进行初始分类。代表点选择方法:1.经验选择2.随机分成c类,选各类重心作为代表点3.“密度”法。计算每个样本的一定球形邻域内的样本数作为“密度”,选“密度”最大的样本点作为第一个代表点,在离它一定距离选最大“密度”点作为第二个代表点,…,依次类推。4.用前c个样本点作为代表点。5.用c−1聚类求c个代表点:各类中心外加离它们最远的样本点,从1类开始。【动态聚类】C均值算法

1 / 123
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功