上一节:Spark数据挖掘-基于 K 均值聚类的网络流量异常检测(1): 数据探索模型初步实验算法
经过上一节的介绍,已经对数据集长什么样子,模型如何工做的有了一个基本的了解,本节重点就是探讨如何优化 K-means 聚类模型。微信
首先探讨的第一个问题是 K-means 的类别 K 该如何肯定?为了回答这个问题,须要先回答下面的问题:网络
第一个想到的答案就是:当K肯定下来以后,模型获得K个类中心,每一个样本也归属到本身的类,那么每一个样本距离类中心的距离也是知道的,将全部样本距离类中心的距离相加, 这个总距离数值越小越好(固然看总距离的平均值也是同样的,由于样本数量是相同的)。
这彷佛颇有道理,可是细细一想就发现,这个有点不靠谱,为何?当你的类别数目等于样本数量的时候每个样本都是类中心,那这个距离相加为0,是否是最小的?也就是说 这个总距离会随着类个数增长而减小。那这个K值如何取?
很简单,取总距离降低拐点处的 K 值。由于总距离随着 K 值的增长而减小可是减小的幅度不是每次都会很大,总会有一个K值以后,距离降低趋于平缓,这个点就是拐点。
这个思路其实和主成份分析找主成份的思路是一致的:也是找碎石图中的拐点。
下面将会以实战的方式,来具体求出这个最佳的 K 值,具体含义代码都有相应注释:机器学习
/** * 欧几里德距离计算 * zip 先将两个相同长度的向量按照对应的索引位置合为一个 * 计算(a - b)的 平方和在求根 * @param a 向量a * @param b 向量b * @return */ def distance(a: Vector, b: Vector): Double = { val s = a.toArray.zip(b.toArray).map(p => p._1 - p._2) .map(d => d * d).sum Math.sqrt(s) } /** * 计算每个数据点离类中心的距离 * @param datum * @param model */ def distToCentroid(datum: Vector, model: KMeansModel): Double = { val cluster = model.predict(datum) val centroid = model.clusterCenters(cluster) distance(datum, centroid) } /** * 从新指定聚类的个数从新聚类 * @param data 训练样本 * @param k 聚类类别个数 */ def clusteringScore(data: RDD[Vector], k: Int): Double = { val kmeans = new KMeans() kmeans.setK(k) val model = kmeans.run(data) //计算每个点离中心点的距离 data.map { datum => distToCentroid(datum, model) }.mean() } //驱动代码:对不一样K值计算总距离平均值 (5 to 40 by 5).map(k => (k, clusteringScore(data, k))).sortBy(_._2).foreach(println)
上面的结果每次运行都有可能不同,由于 K-means 算法是随机初始化类中心的,下面是某次运行的结果:分布式
(5,1938.858341805931) (10,1689.4950178959496) (15,1381.315620528147) (20,1318.256644582388) (25,932.0599419255919) (30,594.2334547238697) (35,829.5361226176625) (40,424.83023056838846)
从上面的结果中能够发现,随着 K 值的增长,总距离确实是在减小,可是 35 这个 K 值对应的距离却比 30 对应的距离大,这是为何? 其实 K 均值聚类算法并不会尝试去找到全局最优,它还受到其余参数的影响,请看下面的分析。ide
实际上 Spark 实现的是 K-means|| 初始质心选择算法。 K-means++ and K-means|| 都是尽量选择 多样的分离的初始类中心的算法的变体,目的都是为了获得更加可靠的好的聚类结果。可是它们里面仍是存在 随机的因素,致使得不到全局最优解,而在某个局部最优解就提早中止了计算。固然能够调整其余参数使得小狗狗更好, 下面分布介绍另外几个重要的参数:学习
下面从新调整参数,而且增长测试的次数,为了增长测试速度,每个参数能够并行启动,而不是等另外一个结束才启动, 这就是分布式上的分布式,下面直接给出代码:测试
/** * 从新指定聚类的个数从新聚类 * @param data 训练样本 * @param k 聚类类别个数 */ def clusteringScore(data: RDD[Vector], k: Int): Double = { val kmeans = new KMeans() kmeans.setRuns(10) kmeans.setEpsilon(1.0e-6) kmeans.setK(k) val model = kmeans.run(data) data.map { datum => distToCentroid(datum, model) }.mean() } //驱动代码 (30 to 100 by 10).par.map(k => (k, clusteringScore(data, k))) .toList.sortBy(_._2).foreach(println)
K-means 算法原理大数据
欢迎关注本人微信公众号,会定时发送关于大数据、机器学习、Java、Linux 等技术的学习文章,并且是一个系列一个系列的发布,无任何广告,纯属我的兴趣。
优化