资源预览内容
第1页 / 共34页
第2页 / 共34页
第3页 / 共34页
第4页 / 共34页
第5页 / 共34页
第6页 / 共34页
第7页 / 共34页
第8页 / 共34页
第9页 / 共34页
第10页 / 共34页
第11页 / 共34页
第12页 / 共34页
第13页 / 共34页
第14页 / 共34页
第15页 / 共34页
第16页 / 共34页
第17页 / 共34页
第18页 / 共34页
第19页 / 共34页
第20页 / 共34页
亲,该文档总共34页,到这儿已超出免费预览范围,如果喜欢就下载吧!
点击查看更多>>
资源描述
,Click to edit Master title style,Click to edit Master text styles,Second level,Third level,Fourth level,Fifth level,*,智能数据挖掘,Topic3-,聚类分析,K-means&K-medoids,聚类,主要内容,K-means,算法,Matlab,程序实现,在图像分割上的简单应用,K-medoids,算法,k-,中心点聚类算法,-PAM,K-medoids,改进,算法,2024/11/15,基于划分的聚类方法,构造,n,个对象数据库,D,的划分,将其划分成,k,个聚类,启发式方法:,k-,平均值(,k-,means,),和,k-,中心点(,k-,medoids,),算法,k-,平均值,(MacQueen67):,每个簇用该簇中对象的平均值来表示,k-,中心点或,PAM(Partition around medoids)(Kaufman&Rousseeuw87):,每个簇用接近聚类中心的一个对象来表示,这些启发式算法适合发现中小规模数据库中的球状聚类,对于大规模数据库和处理任意形状的聚类,这些算法需要进一步扩展,2024/11/15,K-means,聚类算法,算法描述,为中心向量,c,1,c,2,c,k,初始化,k,个种子,分组,:,将样本分配给距离其最近的中心向量,由这些样本构造不相交(,non-overlapping,)的聚类,确定中心,:,用各个聚类的中心向量作为新的中心,重复分组和确定中心的步骤,直至算法收敛,2024/11/15,K-means,聚类算法,(续),分组,:,将样本分配给距离它们最近的中心向量,并使目标函数值减小,确定中心,:,亦须有助于减小目标函数值,2024/11/15,K-means,聚类算法,(续),算法的具体过程,从数据集 中任意选取,k,个赋给初始的聚类中心,c,1,c,2,c,k,;,对数据集中的每个样本点,x,i,,计算其与各个聚类中心,c,j,的欧氏距离并获取其类别标号:,按下式重新计算,k,个聚类中心;,重复步骤,2,和步骤,3,,直到达到最大迭代次数、聚类目标函数达到最优值或者两次迭代得到的目标函数变化小于给定的,为止。,2024/11/15,k-,平均聚类算法(续),例,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,K=2,任意选择,K,个对象作为初始聚类中心,将每个对象赋给最类似的中心,更新簇的平均值,重新赋值,更新簇的平均值,重新赋值,2024/11/15,Matlab,程序实现,function,M,j,e=kmeans(X,K,Max_Its),N,D=size(X);,I=randperm(N);,M=X(I(1:K),:);,Mo=M;,for n=1:Max_Its,for k=1:K,Dist(:,k)=sum(X-repmat(M(k,:),N,1).2,2);,end,i,j=min(Dist,2);,for k=1:K,if size(find(j=k)0,M(k,:)=mean(X(find(j=k),:);,end,end,2024/11/15,Matlab,程序实现,(续),Z=zeros(N,K);,for m=1:N,Z(m,j(m)=1;,end,e=sum(sum(Z.*Dist)./N);,fprintf(%d Error=%fn,n,e);,Mo=M;,end,2024/11/15,在图像分割上的简单应用,例,1,:,图片:一只遥望大海的小狗;,此图为,100 x 100,像素的,JPG,图片,每个像素可以表示为三维向量(分别对应,JPEG,图像中的红色、绿色和蓝色通道),;,将图片分割为合适的背景区域(三个)和前景区域(小狗);,使用,K-means,算法对图像进行分割。,2024/11/15,在图像分割上的简单应用,(续),分割后的效果,注:最大迭代次数为,20,次,需运行多次才有可能得到较好的效果。,2024/11/15,在图像分割上的简单应用,(续),例,2,:,注:聚类中心个数为,5,,最大迭代次数为,10,。,2024/11/15,k-,平均聚类算法(续),优点:,相对有效性:,O,(,tkn,),其中,n,是对象数目,k,是簇数目,t,是迭代次数;通常,k,t,n,.,当结果簇是密集的,而簇与簇之间区别明显时,它的效果较好,2024/11/15,k-,平均聚类算法(续),弱点,只有在簇的平均值(,mean),被定义的情况下才能使用.可能不适用于某些应用,例如涉及有,分类属性,的数据,需要预先指顶簇的数目,k,不能处理噪音数据和孤立点,(,outliers,),不适合用来发现具有非凸形状(,non-convex shapes),的簇,2024/11/15,k-,中心点聚类方法,k,-,平均值算法对孤立点很敏感,!,因为具有特别大的值的对象可能显著地影响数据的分布,.,k-,中心点,(,k,-Medoids):,不采用簇中对象的平均值作为参照点,而是,选用簇中位置最中心的对象,即中心点(,medoid),作为参照点,.,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,2024/11/15,k-,中心点聚类方法(续),找聚类中的代表对象(中心点),PAM,(Partitioning Around Medoids,1987),首先为每个簇随意选择选择一个代表对象,剩余的对象根据其与代表对象的距离分配给最近的一个簇;然后反复地用非代表对象来替代代表对象,以改进聚类的质量,PAM,对于较小的数据集非常有效,但不能很好地扩展到大型数据集,2024/11/15,k-,中心点聚类方法(续),基本思想:,首先为每个簇随意选择选择一个代表对象;剩余的对象根据其与代表对象的距离分配给最近的一个簇;,然后反复地用非代表对象来替代代表对象,以改进聚类的质量;,聚类结果的质量用一个代价函数来估算。,2024/11/15,k-,中心点聚类方法(续),为了判定一个非代表对象,O,random,是否是当前一个代表对象,O,j,的好的替代,对于每一个非代表对象,p,考虑下面的四种情况:,第一种情况:,p,当前隶属于代表对象,O,j,.,如果,O,j,被,O,random,所代替,且,p,离,O,i,最近,ij,那么,p,被重新分配给,O,i,第二种情况:,p,当前隶属于代表对象,O,j,.,如果,O,j,被,O,random,代替,且,p,离,O,random,最近,那么,p,被重新分配给,O,random,1.,重新分配给,O,i,2.,重新分配给,Orandom,2024/11/15,k-,中心点聚类方法(续),第三种情况:,p,当前隶属于,O,i,,ij。,如果,O,j,被,O,random,代替,而,p,仍然离,O,i,最近,那么对象的隶属不发生变化,第四种情况:,p,当前隶属于,O,i,,ij。,如果,O,j,被,O,random,代替,且,p,离,O,random,最近,那么,p,被重新分配给,O,random,3.,不发生变化 4.重新分配给,Orandom,2024/11/15,k-,中心点聚类方法(续),算法:,k-,中心点,(1)随机选择,k,个对象作为初始的代表对象;,(2),repeat,(3)指派每个剩余的对象给离它最近的代表对象所代表的簇;,(4)随意地选择一个非代表对象,O,random,;,(5),计算用,O,random,代替,O,j,的总距离,E,如果,E,比取代前下降则则用,O,random,替 换,O,j,,,形成新的,k,个代表对象的集合,返回(,4,);,(,6),until,不发生变化,(7),如果所有非代表对象都无法取代已存在的簇中心,则结束替代过程,并输出结果,2024/11/15,PAM(,续),Total Cost=20,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,K=2,Arbitrary choose k object as initial medoids,Assign each remaining object to nearest medoids,Randomly select a nonmedoid object,O,ramdom,Compute total cost of swapping,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,Total Cost=26,Swapping O and O,ramdom,If quality is improved.,Do loop,Until no change,0,1,2,3,4,5,6,7,8,9,10,0,1,2,3,4,5,6,7,8,9,10,2024/11/15,PAM(,续),当存在噪音和孤立点时,PAM,比,k-,平均方法更健壮.这是因为中心点不象平均值那么容易被极端数据影响,PAM,对于小数据集工作得很好,但不能很好地用于大数据集,每次迭代,O,(,k,(,n-k,),2,),其中,n,是数据对象数目,k,是聚类数,基于抽样的方法,CLARA(Clustering LARge Applications),2024/11/15,CLARA,(Clustering Large Applications),(1990),CLARA,(Kaufmann and Rousseeuw in 1990),不考虑整个数据集,而是选择数据的一小部分作为样本,它从数据集中抽取多个样本集,对每个样本集使用,PAM,并以最好的聚类作为输出,优点,:可以处理的数据集比,PAM,大,缺点:,有效性依赖于样本集的大小,基于样本的好的聚类并不一定是 整个数据集的好的聚类,样本可能发生倾斜,例如,Oi,是最佳的,k,个中心点之一,但它不包含在样本中,CLARA,将找不到最佳聚类,2024/11/15,CLARA-,效率,由取,样,大小,决,定,PAM,利用完整,资,料集,CLARA,利用取,样资,料集,盲点,:取,样范围,不包含最佳解,sampled,best,Trade-off,24,2024/11/15,CLARA,改良,解決,:,CLARANS(Clustering Large Application based upon RANdomized Search),应,用,graph,考虑紧邻节点,不,局限于区域性,复杂,度,:,O(n2),缺,点,25,2024/11/15,CLARA,的有效性主要取决于样本的大小。如果任何一个最佳抽样中心点不在最佳的,K,个中心之中,则,CLARA,将永远不能找到数据集合的最佳聚类。同时这也是为了聚类效率做付出的代价。,CLARANS,聚类则是将,CLARA,和,PAM,有效的结合起来,,CLARANS,在任何时候都,不把自身局限于任何样本,,,CLARANS,在搜素的每一步,都以某种随机性选取样本,。算法步骤如下,CLARANS,(,“,Randomized,”,CLARA),(1994),2024/11/15,CLARANS,(“Randomized”CLARA),(1994),CLARANS,(A Clustering Algorithm based on Randomized Search)(Ng and Han94),CLARANS,将采样技术和,PAM,结合起来,CLARA,在搜索的每个阶段有一个固定的样本,CLARANS,任何时候都不局限
点击显示更多内容>>

最新DOC

最新PPT

最新RAR

收藏 下载该资源
网站客服QQ:3392350380
装配图网版权所有
苏ICP备12009002号-6