常用聚类方法一般有以下几种:
基于距离的聚类算法:
1、KMEANS
流程:
1)确定要聚类的数量K,并随机初始化中心点;
2)通过计算当前点与每个组中心之间的距离,对每个数据点进行分类,然后归到与距离最近的中心组中;
3)基于迭代后的结果,计算每一类内所有点的平均值;
4)迭代这些步骤,或直到组中心在迭代之间变化不大;
优点:
速度快,计算量少,线性复杂性为o(n)
缺点:
须事先确定聚类的簇数量
结论:
当数据集中的聚类结果是非球状结构时,该聚类算法的聚类效果不理想。
基于密度的空间聚类算法:
2、MeanShift
详细内容参考该链接:聚类算法之MeanShift
3、DBSCAN(Density-based Spatial Clustering of Applications with Noise)
将具有足够密度的区域划分为簇,并在具有噪声的空间数据库中发现任意形状的簇,将簇定义为密度相连的点的最大集合。
将数据点分为三类:
1)核心点:样本xi的邻域内至少包含Minpts个样本,则称样本点为核心点
2)边界点:样本xi的邻域内包含的样本数目小于MinPts,但是它在其他核心点的邻域内,则称样本点xi为边界点。
3)噪音点:即不是核心点也不是边界点的点。
有两个超变量:一个半径EPS,另一个是指定的数目MinPts。
三个基本概念:
密度直达(如果满足样本点p《NEPS(q)且NEPS(q)》=MinPts)
密度可达(如果存在一系列样本点p1,...,pn(p1=q,pn=p),使得对于i=1,...,n-1,样本点pi+1可由样本点pi密度可达
密度相连(如果存在一个样本点o,使得p与q均由样本点o密度可达)
算法流程:
1)根据给定的邻域参数EPS和minPts确定所有的核心对象
2)对每一个核心对象,选择一个未处理过的核心对象,找到由其密度可达的样本生成聚类‘簇'
3)重复以上过程