分布式集群如何实现高效的数据分布

1、前言

随着互联网的发展,用户产生的数据愈来愈多,企业面临着庞大数据的存储问题,目前市面上主流的分布式大数据文件系统,都是对数据切片打散,经过离散方法将数据散列在集群的全部节点上,本文将带你了解DHT(Distributed Hash Table):分布式哈希表是如何实现数据的分布式离散存储的。算法

DHT(Distributed Hash Table):分布式哈希表

2、技术背景

互联网发展早期,数据一般存储在单个服务器上,初期数据增加较为缓慢,能够经过提高单机的存储能力知足数据的增加需求;随着互联网普及程度的推动,用户数、用户产生和访问的数据呈指数增加;单机已没法存储用户须要的数据。为此,迫切须要多个服务器共同协做,存储量级更大的数据。服务器

3、传统 Hash

传统 Hash 经过算法 hash()=X mod S 来对数据进行分散,在元数据比较分散的状况下,数据可以很好的散列在集群节点中。因为S表明了集群的节点数,当进行集群的扩容缩容时,S的变化会影响到历史数据的命中问题,所以为了提升数据命中率,会产生大量测数据迁移,性能较差。负载均衡

4、一个简单的 DHT

分布式 Hash 经过构造一个长度为2的32次方(ipv4地址的数量)的环,将节点散列在 Hash环上,根据不一样的 Hash算法计算出来的 Hash值有所不一样,本文采用FNV Hash算法来计算 Hash值。分布式

如图所示,先将存储节点经过 Hash计算后添加到 DHT 环上,每一个节点距离上一个节点间的这段区间,做为该节点的数据分区,Hash值落在这个分区的数据将存储到这个节点上;性能

而后将数据经过 Hash算法散列到DHT环上,数据落到DHT环上后,按照顺时针方向找到离本身最近的节点做为数据存储节点,以下所示,数据 ObjectA 落到节点 NodeA上,数据 ObjectB 落到节点 NodeB 上;大数据

初始化DHT的源码以下:spa

首先定义了一个存放集群节点元数据的Map,用来存储接入到DHT环中的物理节点数据。而后定义了一个DHT环——vNodes,用来存储DHT环中的节点位置信息。这样咱们就实现了一个简单的DHT环,经过addPhysicalNode方法能够模拟集群节点的加入。加入时会计算节点的Hash值并存放到vNodes中。3d

初始化4个存储节点。blog

经过countNodeValue方法插入100条数据,在写数据的过程当中,根据数据的 Hash值找到DHT环上最近的一个节点,而后将数据写入该节点中。ip

插入100条数据后,各个节点的数据分布以下,能够看见4个节点的数据并不均匀,只有一个节点分配到了数据(这与写入的数据也有必定关系)。

插入100万条数据后,各个节点的数据分布以下,虽然每一个节点都分配到了数据,但仍然出现了较大的数据倾斜。这将致使99%的请求都会由Node3进行处理,出现一核有难三核围观的状况。

出现如上问题是什么缘由呢?经过查看DHT环上各节点的hash值不难看出,各节点间距不均匀,插入的数据按顺时针查找节点时都找到了Node3,所以数据都写到了Node3里面,因此节点区间不均匀会使某些节点能覆盖更多的数据,致使数据不均衡。

说了一个简单DHT环的基本原理后,再来思考一个问题:简单的DHT环数据离散,但仍然存在数据倾斜的状况,还不如用传统的hash方式分配数据。

前面提到传统的hash方式在当时在节点故障后,整个集群的数据会进行大量的迁移,影响集群性能,那么DHT能解决这一问题吗?

咱们仍是用以前分配好的100万条数据,模拟节点4故障,以下图所示,Node4上的数据只迁移到了Node1,对Node2和Node3不产生数据迁移,从而下降了节点故障致使每一个节点都须要进行数据迁移带来的影响。

5、DHT 的改进

一、虚拟节点

你们思考一下,解决数据倾斜的问题能够如何解决?

经过增长集群节点的方式最简单直接,目的是将更多的节点散列到DHT环上,使得环上全部节点分布更加均匀,节点间的区间间隔尽量的均衡,如下是10个节点和20个节点集群的数据分布状况。

能够发现,经过增长节点的方式,仍然没法从根本上解决数据倾斜的问题。而且增长节点会提升集群的设备成本和维护成本。同时,这种方案还引出了一个严重的问题,若是Node20故障了,那么Node20的数据会全数迁移到下一个节点上,最终致使集群出现数据倾斜,数据较多的节点还将处理更多的IO请求,容易造成数据热点,成为性能瓶颈,引起集群总体的性能降低。

(2) 引入虚拟节点

为了解决数据倾斜的问题,引入了虚拟节点的概念。虚拟节点也就是真实节点的一个逻辑副本,如图所示,对节点NodeA进行3次虚拟节点hash分布,造成了虚拟节点NodeA一、NodeA二、NodeA3。当NodeA故障后,指向NodeA的数据会指向NodeB、NodeC。

当引入虚拟节点数量为100时,数据已经分散在各个节点上了,若是虚拟节点足够多,最终将达到数据均衡的状态。

虚拟节点数据1万时的数据分布:

虚拟节点数量为100万时的数据分布:

当Node3故障后,Node3上的数据被均匀的分散到其余节点上,不会出现数据倾斜的状况。

二、负载边界因子

这样就完美了吗?咱们初始化一个4个节点的DHT环,虚拟节点设置为100,而后插入100条数据,并打印DHT环的元数据信息以下:

能够发现,虽然设置的虚拟节点,可是仍然没法均衡的将节点散列到DHT环上,致使Node2过载,Node空闲。咱们再思考一种极端场景,当咱们的数据刚好计算hash值后都在区间A,而这个区间只有NodeA,那么仍然出现了数据倾斜。如何解决这个问题呢,这里咱们引入一个叫负载边界因子的概念。DHT环部署了4个节点,总共有100条数据要插入,那么平均下来每一个节点的权重就是100/4+1=26,当数据映射过程当中达到了该节点的权重,则映射到下一个节点,下面是代码实现。

打开负载边界因子开关的状况:

在打开负载边界因子开关后,数据获得了较好的均衡。

6、DHT 引起的思考

上述的只是一个简单的DHT,数据也作了简化,数据的存储和读取都须要查询DHT环,如何提高DHT的读写性能?如何提高DHT的高可靠?当节点故障后,如何将故障节点的数据迁移到新的节点?如何作好数据备份?如何保证副本数据不集中在一个节点上?也是须要去思考的,本文只是抛砖引玉简单的介绍了DHT基本的思想,更多生产环境面临的挑战,在此不作展开。

能够看到,DHT提供了一种负载均衡的思路。利用hash算法的特性,将数据或业务请求分散到集群中的各个节点上,提升系统容错性。

vivo  用户运营开发团队