层次聚类方法戴奇Page2主要内容凝聚和分裂层次聚类BIRCH:利用层次方法的平衡迭代归约和聚类Chameleon:利用动态建模的层次聚类算法ROCK:分类属性的层次聚类算法CURE:基于质心和基于代表对象方法之间的中间策略Page3概要层次聚类方法将数据对象组成一棵聚类树。根据层次分解是以自底向上(合并)还是自顶向下(分裂)方式,层次聚类方法可以进一步分为凝聚的和分裂的。一种纯粹的层次聚类方法的质量受限于:一旦合并或分裂执行,就不能修正。也就是说,如果某个合并或分裂决策在后来证明是不好的选择,该方法无法退回并更正。Page4主要内容凝聚和分裂层次聚类BIRCH:利用层次方法的平衡迭代归约和聚类Chameleon:利用动态建模的层次聚类算法ROCK:分类属性的层次聚类算法CURE:基于质心和基于代表对象方法之间的中间策略Page5层次聚类方法一般来说,有两种类型的层次聚类方法:•凝聚层次聚类:采用自底向上策略,首先将每个对象作为单独的一个原子簇,然后合并这些原子簇形成越来越大的簇,直到所有的对象都在一个簇中(层次的最上层),或者达到一个终止条件。绝大多数层次聚类方法属于这一类。•分裂层次聚类:采用自顶向下策略,首先将所有对象置于一个簇中,然后逐渐细分为越来越小的簇,直到每个对象自成一个簇,或者达到某个终止条件,例如达到了某个希望的簇的数目,或者两个最近的簇之间的距离超过了某个阈值。Page6例子下图描述了一种凝聚层次聚类算法AGNES和一种分裂层次聚类算法DIANA对一个包含五个对象的数据集合{a,b,c,d,e}的处理过程。Step0Step1Step2Step3Step4bdceaabdecdeabcdeStep4Step3Step2Step1Step0agglomerative(AGNES)divisive(DIANA)图1对数据对象{a,b,c,d,e}的凝聚和分裂层次聚类Page7初始,AGNES将每个对象自为一簇,然后这些簇根据某种准则逐步合并,直到所有的对象最终合并形成一个簇。•例如,如果簇C1中的一个对象和簇C2中的一个对象之间的距离是所有属于不同簇的对象间欧氏距离中最小的,则C1和C2合并。在DIANA中,所有的对象用于形成一个初始簇。根据某种原则(如,簇中最近的相邻对象的最大欧氏距离),将该簇分裂。簇的分裂过程反复进行,直到最终每个新簇只包含一个对象。在凝聚或者分裂层次聚类方法中,用户可以定义希望得到的簇数目作为一个终止条件。Page8树状图通常,使用一种称作树状图的树形结构表示层次聚类的过程。它展示出对象是如何一步步分组的。图2显示图1的五个对象的树状图。图2数据对象{a,b,c,d,e}层次聚类的树状图表示Page9簇间距离四个广泛采用的簇间距离度量方法如下,其中|p-p'|是两个对象或点p和p'之间的距离,mi是簇Ci的均值,而ni是簇Ci中对象的数目。•最小距离:•最大距离:•均值距离:•平均距离:Page10最小距离最大距离均值距离平均距离Page11当算法使用最小距离衡量簇间距离时,有时称它为最近邻聚类算法。此外,如果当最近的簇之间的距离超过某个任意的阈值时聚类过程就会终止,则称其为单连接算法。当一个算法使用最大距离度量簇间距离时,有时称为最远邻聚类算法。如果当最近簇之间的最大距离超过某个任意阈值时聚类过程便终止,则称其为全连接算法。Page12单连接算法例子先将五个样本都分别看成是一个簇,最靠近的两个簇是3和4,因为他们具有最小的簇间距离D(3,4)=5.0。第一步:合并簇3和4,得到新簇集合1,2,(34),5Page13更新距离矩阵:D(1,(34))=min(D(1,3),D(1,4))=min(20.6,22.4)=20.6D(2,(34))=min(D(2,3),D(2,4))=min(14.1,11.2)=11.2D(5,(34))=min(D(3,5),D(4,5))=min(25.0,25.5)=25.0原有簇1,2,5间的距离不变,修改后的距离矩阵如图所示,在四个簇1,2,(34),5中,最靠近的两个簇是1和5,它们具有最小簇间距离D(1,5)=7.07。Page14Page15Page16最小和最大度量代表了簇间距离度量的两个极端。它们趋向对离群点或噪声数据过分敏感。使用均值距离和平均距离是对最小和最大距离之间的一种折中方法,而且可以克服离群点敏感性问题。尽管均值距离计算简单,但是平均距离也有它的优势,因为它既能处理数值数据又能处理分类数据。Page17层次聚类方法的困难之处①层次聚类方法尽管简单,但经常会遇到合并或分裂点选择的困难。这样的决定是非常关键的,因为一旦一组对象合并或者分裂,下一步的处理将对新生成的簇进行。②不具有很好的可伸缩性,因为合并或分裂的决定需要检查和估算大量的对象或簇。Page18层次聚类的改进一个有希望的方向是集成层次聚类和其他的聚类技术,形成多阶段聚类。在下面的内容中会介绍四种这类的方法:①BIRCH:首先用树结构对对象进行层次划分,其中叶节点或者是低层次的非叶节点可以看作是由分辨率决定的“微簇”,然后使用其他的聚类算法对这些微簇进行宏聚类。②ROCK基于簇间的互联性进行合并。③CURE选择基于质心和基于代表对象方法之间的中间策略。④Chameleon探查层次聚类的动态建模。Page19主要内容凝聚和分裂层次聚类BIRCH:利用层次方法的平衡迭代归约和聚类Chameleon:利用动态建模的层次聚类算法ROCK:分类属性的层次聚类算法CURE:基于质心和基于代表对象方法之间的中间策略Page20BIRCH方法通过集成层次聚类和其他聚类算法来对大量数值数据进行聚类。其中层次聚类用于初始的微聚类阶段,而其他方法如迭代划分(在后来的宏聚类阶段)。它克服了凝聚聚类方法所面临的两个困难:①可伸缩性;②不能撤销前一步所做的工作。BIRCH使用聚类特征来概括一个簇,使用聚类特征树(CF树)来表示聚类的层次结构。这些结构帮助聚类方法在大型数据库中取得好的速度和伸缩性,还使得BIRCH方法对新对象增量和动态聚类也非常有效。Page21聚类特征(CF)考虑一个n个d维的数据对象或点的簇,簇的聚类特征是一个3维向量,汇总了对象簇的信息。定义如下CF=n,LS,SS其中,n是簇中点的数目,LS是n个点的线性和(即),SS是数据点的平方和(即)。聚类特征本质上是给定簇的统计汇总:从统计学的观点来看,它是簇的零阶矩、一阶矩和二阶矩。niix1niix12Page22使用聚类特征,我们可以很容易地推导出簇的许多有用的统计量。例如,簇的形心x0,半径R和直径D分别是:其中R是成员对象到形心的平均距离,D是簇中逐对对象的平均距离。R和D都反映了形心周围簇的紧凑程度。nLSnxinix10nxxSLnSSnRnii210222)()1(222)1(2)(11nnSLnSSnnDnjjinixxPage23使用聚类特征概括簇可以避免存储个体对象或点的详细信息。我们只需要固定大小的空间来存放聚类特征。这是空间中BIRCH有效性的关键。聚类特征是可加的。也就是说,对于两个不相交的簇C1和C2,其聚类特征分别为CF1=n1,LS1,SS1和CF2=n2,LS2,SS2,合并C1和C2后的簇的聚类特征是CF1+CF2=n1+n2,LS1+LS2,SS1+SS2Page24例子假定在簇C1中有三个点(2,5),(3,2)和(4,3)。C1的聚类特征是:CF1=3,(2+3+4,5+2+3),(22+32+42,52+22+32)=3,(9,10,(29,38))假定C1和第2个簇C2是不相交的,其中CF2=3,(35,36),(417,440)。C1和C2合并形成一个新的簇C3,其聚类特征便是CF1和CF2之和,即:CF3=3+3,(9+35,10+36),(29+417,38+440)=6,(44,46),(446,478)Page25CF树CF树是一棵高度平衡的树,它存储了层次聚类的聚类特征。图3给出了一个例子。根据定义,树中的非叶节点有后代或“子女”。非叶节点存储了其子女的CF的总和,因而汇总了关于其子女的聚类信息。CF树有两个参数:分支因子B和阈值T。•分支因子定义了每个非叶节点子女的最大数目。•而阈值参数给出了存储在树的叶节点中的子簇的最大直径。•这两个参数影响结果数的大小。Page261CF……2CFnCF11CF……12CF1kCF根层第一层…………………………图3CF树结构Page27BIRCH试图利用可用的资源生成最好的簇。给定有限的主存,一个重要的考虑是最小化I/O所需时间。BIRCH采用了一种多阶段聚类技术:数据集的单遍扫描产生一个基本的好聚类,一或多遍的额外扫描可以用来进一步(优化)改进聚类质量。它主要包括两个阶段:•阶段一:BIRCH扫描数据库,建立一棵存放于内存的初始CF树,它可以看作数据的多层压缩,试图保留数据的内在的聚类结构。•阶段二:BIRCH采用某个(选定的)聚类算法对CF树的叶节点进行聚类,把稀疏的簇当作离群点删除,而把稠密的簇合并为更大的簇。Page28CF树的构造在阶段一中,随着对象被插入,CF树被动态地构造。这样,该方法支持增量聚类。一个对象被插入到最近的叶条目(子簇)。如果在插入后,存储在叶节点中的子簇的直径大于阈值,则该叶节点和可能的其他节点被分裂。新对象插入后,关于该对象的信息向树根节点传递。通过修改阈值,CF树的大小可以改变。如果存储CF树需要的内存大于主存的大小,可以定义较大的阈值,并重建CF树。Page29在CF树重建过程中,通过利用老树的叶节点来重新构建一棵新树,因而树的重建过程不需要访问所有点,即构建CF树只需访问数据一次就行。可以在阶段二使用任意聚类算法,例如典型的划分方法。Page30BIRCH的有效性该算法的计算复杂度是O(n),其中n是聚类的对象的数目。实验表明该算法关于对象数目是线性可伸缩的,并且具有较好的数据聚类质量。然而,既然CF树的每个节点由于大小限制只能包含有限数目的条目,一个CF树节点并不总是对应于用户所考虑的一个自然簇。此外,如果簇不是球形的,BIRCH不能很好地工作,因为它使用半径或直径的概念来控制簇的边界。Page31主要内容凝聚和分裂层次聚类BIRCH:利用层次方法的平衡迭代归约和聚类Chameleon:利用动态建模的层次聚类算法ROCK:分类属性的层次聚类算法CURE:基于质心和基于代表对象方法之间的中间策略Page32对于聚类包含布尔或分类属性的数据,传统聚类算法使用距离函数。然而,实验表明对分类数据聚类时,这些距离度量不能产生高质量的簇。此外,大多数聚类算法在进行聚类时只估计点与点之间的相似度;也就是说,在每一步中那些最相似的点合并到一个簇中。这种“局部”方法很容易导致错误。Page33ROCK是一种层次聚类算法,针对具有分类属性的数据使用了链接(指两个对象间共同的近邻数目)这一概念。ROCK采用一种比较全局的观点,通过考虑成对点的邻域情况进行聚类。如果两个相似的点同时具有相似的邻域,那么这两个点可能属于同一个簇而合并。Page34两个点pi和pj是近邻,如果•其中sim是相似度函数,sim可以选择为距离度量,甚至可以选择为非度量,非度量被规范化,使其值落在0和1之间,值越大表明两个点越相似。•是用户指定的阈值。pi和pj之间的链接数定义为这两点的共同近邻个数。如果两个点的链接数很大,则他们很可能属于相同的簇。由于在确定点对之间的关系时考虑邻近的数据点,ROCK比起只关注点间相似度的标准聚类方法就显得更加鲁棒。),(ppjisimPage35包含分类属性数据的一个很好的例子就是购物篮数据。•这种数据由事务数据库组成,其中每个事务都是商品的集合•事务看作具有布尔属性的记录,每个属性对应于一个单独的商品,如面包