一、算法简介
- 均值漂移算法首先找到一个中心点center(随机选择),然后根据半径划分一个范围
- 把这个范围内的点输入簇c的标记个数加1
- 在这个范围内,计算其它点到这个点的平均距离,并把这个平均距离当成偏移量 shift
- 把中心点center移动偏移量 shift 个单位,当成新的中心点
- 重复上述步骤直到 shift小于一定阈值,即收敛
- 如果当前簇c的center和另一个簇c2的center距离小于一定阈值,则把当前簇归类为c2,否则聚类的类别+1
- 重复1、2、3、4、5、6直到所有点都遍历过
- 如果一个点既被簇c1遍历过,也被簇c2遍历过,则把其归类为标记数多的簇
根据上述描述均值漂移聚类也就是根据密度来聚类的,样本会属于密度最大的那个类别的簇
二、一些计算
1、基础偏移量
- Sh为球半径内的点集合
- 也就是用集合内的点与质心相减得到累计的偏移量
2、高斯偏移量
- 在基础偏移量计算中,集合范围内距离簇心越远的点拥有越大的权重,这不合理
- 距离簇心越近的点应该跟簇心的类别越接近,因此此类的点应该有更大的权重
3、更新新的质心为
三、Code
1 from scipy.spatial import distance 2 from sklearn.neighbors import NearestNeighbors 3 from sklearn.cluster.dbscan_ import DBSCAN 4 from sklearn.cluster.dbscan_ import dbscan 5 import numpy as np 6 from matplotlib import pyplot as plt 7 from sklearn.cluster import MeanShift, estimate_bandwidth 8 9 from sklearn.cluster.tests.common import generate_clustered_data 10 11 min_samples = 10 12 eps = 0.0309 13 14 X = generate_clustered_data(seed=1, n_samples_per_cluster=1000) 15 16 #quantile 控制是否同一类别的距离 17 bandwidth = estimate_bandwidth(X, quantile=0.3, n_samples=len(X)) 18 meanshift = MeanShift(bandwidth=bandwidth, bin_seeding=True) # 构建对象 19 meanshift.fit(X) 20 labels = meanshift.labels_ 21 22 print(np.unique(labels)) 23 24 fig, ax = plt.subplots() 25 cluster_num = len(np.unique(labels)) # label的个数,即自动划分的族群的个数 26 for i in range(0, cluster_num): 27 x = [] 28 y = [] 29 for ind, label in enumerate(labels): 30 if label == i: 31 x.append(X[ind][0]) 32 y.append(X[ind][1]) 33 ax.scatter(x, y, s=1) 34 35 plt.show()
结果