咱们常常接触到的聚类分析,通常都是数值聚类,一种常见的作法是同时提取 N 种特征,将它们放在一块儿组成一个 N 维向量,从而获得一个从原始数据集合到 N 维向量空间的映射——你老是须要显式地或者隐式地完成这样一个过程,而后基于某种规则进行分类,在该规则下,同组分类具备最大的类似性。
假设咱们提取到原始数据的集合为(x1, x2, …, xn),而且每一个xi为d维的向量,K-means聚类的目的就是,在给定分类组数k(k ≤ n)值的条件下,将原始数据分红k类 S = {S1, S2, …, Sk},在数值模型上,即对如下表达式求最小值: \underset{\mathbf{S}} {\operatorname{arg\,min}} \sum_{i=1}^{k} \sum_{\mathbf x_j \in S_i} \left\| \mathbf x_j - \boldsymbol\mu_i \right\|^2 这里μi 表示分类Si 的平均值。
那么在计算机编程中,其又是如何实现的呢?其算法步骤通常以下:
一、从D中随机取k个元素,做为k个簇的各自的中心。
二、分别计算剩下的元素到k个簇中心的相异度,将这些元素分别划归到相异度最低的簇。相异度通常用欧氏距离或者马氏距离来运算,距离越小,说明两者之间越类似。
三、根据聚类结果,从新计算k个簇各自的中心,计算方法是取簇中全部元素各自维度的算术平均数。
四、将D中所有元素按照新的中心从新聚类。
五、重复第4步,直到聚类结果再也不变化。
六、将结果输出。
在数据挖掘中,K-Means算法是一种cluster analysis的算法,其主要是来计算数据汇集的算法,主要经过不断地取离种子点最近均值的算法。前端
问题
K-Means算法主要解决的问题以下图所示。咱们能够看到,在图的左边有一些点,咱们用肉眼能够看出来有四个点群,可是咱们怎么经过计算机程序找出这几个点群来呢?因而就出现了咱们的K-Means算法(Wikipedia连接)python
K-Means要解决的问题web
算法概要算法
这个算法其实很简单,以下图所示: 数据库
从上图中,咱们能够看到,A,B,C,D,E是五个在图中点。而灰色的点是咱们的种子点,也就是咱们用来找点群的点。有两个种子点,因此K=2。apache
而后,K-Means的算法以下:编程
- 随机在图中取K(这里K=2)个种子点。
- 而后对图中的全部点求到这K个种子点的距离,假如点Pi离种子点Si最近,那么Pi属于Si点群。(上图中,咱们能够看到A,B属于上面的种子点,C,D,E属于下面中部的种子点)
- 接下来,咱们要移动种子点到属于他的“点群”的中心。(见图上的第三步)
- 而后重复第2)和第3)步,直到,种子点没有移动(咱们能够看到图中的第四步上面的种子点聚合了A,B,C,下面的种子点聚合了D,E)。
这个算法很简单,可是有些细节我要提一下,求距离的公式我不说了,你们有初中毕业水平的人都应该知道怎么算的。我重点想说一下“求点群中心的算法”。api
求距离即相异度的算法
1)Minkowski Distance公式——λ能够随意取值,能够是负数,也能够是正数,或是无穷大。数组
2)Euclidean Distance公式——也就是第一个公式λ=2的状况
3)CityBlock Distance公式——也就是第一个公式λ=1的状况
这三个公式的求中心点有一些不同的地方,咱们看下图(对于第一个λ在0-1之间)。
(1)Minkowski Distance (2)Euclidean Distance (3) CityBlock Distance
上面这几个图的大意是他们是怎么个逼近中心的,第一个图以星形的方式,第二个图以同心圆的方式,第三个图以菱形的方式。
K-Means的演示
若是你以”K Means Demo“为关键字到Google里查你能够查到不少演示。这里推荐一个演示:http://home.dei.polimi.it/matteucc/Clustering/tutorial_html/AppletKM.html
操做是,鼠标左键是初始化点,右键初始化“种子点”,而后勾选“Show History”能够看到一步一步的迭代。
注:这个演示的连接也有一个不错的K Means Tutorial。
K-Means++算法
K-Means主要有两个最重大的缺陷——都和初始值有关:
- K是事先给定的,这个K值的选定是很是难以估计的。不少时候,事先并不知道给定的数据集应该分红多少个类别才最合适。(ISODATA算法经过类的自动合并和分裂,获得较为合理的类型数目K)
- K-Means算法须要用初始随机种子点来搞,这个随机种子点过重要,不一样的随机种子点会有获得彻底不一样的结果。(K-Means++算法能够用来解决这个问题,其能够有效地选择初始点)
我在这里重点说一下K-Means++算法步骤:
- 先从咱们的数据库随机挑个随机点当“种子点”。
- 对于每一个点,咱们都计算其和最近的一个“种子点”的距离D(x)并保存在一个数组里,而后把这些距离加起来获得Sum(D(x))。
- 而后,再取一个随机值,用权重的方式来取计算下一个“种子点”。这个算法的实现是,先取一个能落在Sum(D(x))中的随机值Random,而后用Random -= D(x),直到其<=0,此时的点就是下一个“种子点”。
- 重复第(2)和第(3)步直到全部的K个种子点都被选出来。
- 进行K-Means算法。
相关的代码你能够在这里找到“implement the K-means++ algorithm”(墙)另,Apache的通用数据学库也实现了这一算法
K-Means算法应用
看到这里,你会说,K-Means算法看来很简单,并且好像就是在玩坐标点,没什么真实用处。并且,这个算法缺陷不少,还不如人工呢。是的,前面的例子只是玩二维坐标点,的确没什么意思。可是你想一下下面的几个问题:
1)若是不是二维的,是多维的,如5维的,那么,就只能用计算机来计算了。
2)二维坐标点的X,Y 坐标,实际上是一种向量,是一种数学抽象。现实世界中不少属性是能够抽象成向量的,好比,咱们的年龄,咱们的喜爱,咱们的商品,等等,能抽象成向量的目的就是可让计算机知道某两个属性间的距离。如:咱们认为,18岁的人离24岁的人的距离要比离12岁的距离要近,鞋子这个商品离衣服这个商品的距离要比电脑要近,等等。
只要能把现实世界的物体的属性抽象成向量,就能够用K-Means算法来归类了。
在《k均值聚类(K-means)》 这篇文章中举了一个很不错的应用例子,做者用亚洲15支足球队的2005年到1010年的战绩作了一个向量表,而后用K-Means把球队归类,得出了下面的结果,呵呵。
- 亚洲一流:日本,韩国,伊朗,沙特
- 亚洲二流:乌兹别克斯坦,巴林,朝鲜
- 亚洲三流:中国,伊拉克,卡塔尔,阿联酋,泰国,越南,阿曼,印尼
其实,这样的业务例子还有不少,好比,分析一个公司的客户分类,这样能够对不一样的客户使用不一样的商业策略,或是电子商务中分析商品类似度,归类商品,从而可使用一些不一样的销售策略,等等。
最后给一个挺好的算法的幻灯片:http://www.cs.cmu.edu/~guestrin/Class/10701-S07/Slides/clustering.pdf
下面是个人MATLAB代码,效果不是特别好,可能须要改进,由于找中心的方式有好多种,这种方式可能会出现最终找不到最好的中心点的状况:
主函数:
另外,MATLAB中有自带的kmeans函数,能够直接使用:
K-means聚类算法采用的是将N*P的矩阵X划分为K个类,使得类内对象之间的距离最大,而类之间的距离最小。
使用方法:
Idx=Kmeans(X,K)
[Idx,C]=Kmeans(X,K)
[Idc,C,sumD]=Kmeans(X,K)
[Idx,C,sumD,D]=Kmeans(X,K)
各输入输出参数介绍:
X---N*P的数据矩阵
K---表示将X划分为几类,为整数
Idx---N*1的向量,存储的是每一个点的聚类标号
C---K*P的矩阵,存储的是K个聚类质心位置
sumD---1*K的和向量,存储的是类内全部点与该类质心点距离之和
D---N*K的矩阵,存储的是每一个点与全部质心的距离
[┈]=Kmeans(┈,’Param1’,’Val1’,’Param2’,’Val2’,┈)
其中参数Param一、Param2等,主要能够设置为以下:
一、’Distance’---距离测度
‘sqEuclidean’---欧氏距离
‘cityblock’---绝对偏差和,又称L1
‘cosine’---针对向量
‘correlation’---针对有时序关系的值
‘Hamming’---只针对二进制数据
二、’Start’---初始质心位置选择方法
‘sample’---从X中随机选取K个质心点
‘uniform’---根据X的分布范围均匀的随机生成K个质心
‘cluster’---初始聚类阶段随机选取10%的X的子样本(此方法初始使用’sample’方法)
Matrix提供一K*P的矩阵,做为初始质心位置集合
三、’Replicates’---聚类重复次数,为整数
使用案例:
data= 5.0 3.5 1.3 0.3 -1 5.5 2.6 4.4 1.2 0 6.7 3.1 5.6 2.4 1 5.0 3.3 1.4 0.2 -1 5.9 3.0 5.1 1.8 1 5.8 2.6 4.0 1.2 0
[Idx,C,sumD,D]=Kmeans(data,3,’dist’,’sqEuclidean’,’rep’,4)
运行结果:
Idx = 1 2 3 1 3 2
C = 5.0000 3.4000 1.3500 0.2500 -1.0000 5.6500 2.6000 4.2000 1.2000 0 6.3000 3.0500 5.3500 2.1000 1.0000
sumD = 0.0300 0.1250 0.6300
D = 0.0150 11.4525 25.5350 12.0950 0.0625 3.5550 29.6650 5.7525 0.3150 0.0150 10.7525 24.9650 21.4350 2.3925 0.3150 10.2050 0.0625 4.0850
另外这个连接里面讲kmeans和kmeans++都很是好,还有MATLAB和python的代码:http://www.jb51.net/article/49395.htm,看完了这个里面的内容,kmeans和kmeans++ 的MATLAB和python实现就都懂了,强力推荐
下面是python中实现kmeans++的程序,在以前给的链接里也有:
from math import pi, sin, cos from collections import namedtuple from random import random, choice from copy import copy try: import psyco psyco.full() except ImportError: pass FLOAT_MAX = 1e100 class Point: __slots__ = ["x", "y", "group"] def __init__(self, x=0.0, y=0.0, group=0): self.x, self.y, self.group = x, y, group def generate_points(npoints, radius): points = [Point() for _ in xrange(npoints)] # note: this is not a uniform 2-d distribution for p in points: r = random() * radius ang = random() * 2 * pi p.x = r * cos(ang) p.y = r * sin(ang) return points def nearest_cluster_center(point, cluster_centers): """Distance and index of the closest cluster center""" def sqr_distance_2D(a, b): return (a.x - b.x) ** 2 + (a.y - b.y) ** 2 min_index = point.group min_dist = FLOAT_MAX for i, cc in enumerate(cluster_centers): d = sqr_distance_2D(cc, point) if min_dist > d: min_dist = d min_index = i return (min_index, min_dist) def kpp(points, cluster_centers): cluster_centers[0] = copy(choice(points)) d = [0.0 for _ in xrange(len(points))] for i in xrange(1, len(cluster_centers)): sum = 0 for j, p in enumerate(points): d[j] = nearest_cluster_center(p, cluster_centers[:i])[1] sum += d[j] sum *= random() for j, di in enumerate(d): sum -= di if sum > 0: continue cluster_centers[i] = copy(points[j]) break for p in points: p.group = nearest_cluster_center(p, cluster_centers)[0] def lloyd(points, nclusters): cluster_centers = [Point() for _ in