经典好文:一致性HASH算法详解,看不懂你打我

基本场景

好比你有 N 个 cache 服务器(后面简称 cache ),那么如何将一个对象 object 映射到 N 个 cache 上呢,你极可能会采用相似下面的通用方法计算 object 的 hash 值,而后均匀的映射到到 N 个 cache ;node

求余算法: hash(object)%Npython

一切都运行正常,再考虑以下的两种状况; 1 一个 cache 服务器 m down 掉了(在实际应用中必需要考虑这种状况),这样全部映射到 cache m 的对象都会失效,怎么办,须要把 cache m 从 cache 中移除,这时候 cache 是 N-1 台,映射公式变成了 hash(object)%(N-1) ; 2 因为访问加剧,须要添加 cache ,这时候 cache 是 N+1 台,映射公式变成了 hash(object)%(N+1) ; 1 和 2 意味着什么?这意味着忽然之间几乎全部的 cache 都失效了。对于服务器而言,这是一场灾难,洪水般的访问都会直接冲向后台服务器; 再来考虑第三个问题,因为硬件能力愈来愈强,你可能想让后面添加的节点多作点活,显然上面的 hash 算法也作不到。   有什么方法能够改变这个情况呢,这就是 consistent hashing...算法

hash 算法和单调性

   Hash 算法的一个衡量指标是单调性( Monotonicity ),定义以下: 单调性是指若是已经有一些内容经过哈希分派到了相应的缓冲中,又有新的缓冲加入到系统中。哈希的结果应可以保证原有已分配的内容能够被映射到新的缓冲中去,而不会被映射到旧的缓冲集合中的其余缓冲区。 容易看到,上面的简单求余算法 hash(object)%N 难以知足单调性要求。缓存

Consistent Hashing 一致性hash的原理

consistent hashing 是一种 hash 算法,简单的说,在移除 / 添加一个 cache 时,它可以尽量小的改变已存在key 映射关系,尽量的知足单调性的要求。服务器

1. 环形hash 空间

考虑一般的 hash 算法都是将 value 映射到一个 32 为的 key 值,也便是 0~2^32-1 次方的数值空间;咱们能够将这个空间想象成一个首( 0 )尾( 2^32-1 )相接的圆环,以下面图 1 所示的那样。 app

circle space

2.  把须要缓存的内容(对象)映射到hash 空间

接下来考虑 4 个对象 object1~object4 ,经过 hash 函数计算出的 hash 值 key 在环上的分布如图 2 所示。 hash(object1) = key1; … … hash(object4) = key4; 函数

object

3 .把服务器(节点)映射到hash 空间

Consistent hashing 的基本思想就是将对象和 cache 都映射到同一个 hash 数值空间中,而且使用相同的 hash算法。 假设当前有 A,B 和 C 共 3 台服务器(节点),那么其映射结果将如图 3 所示,他们在 hash 空间中,以对应的 hash 值排列。 通常的方法可使用 服务器(节点) 机器的 IP 地址或者机器名做为 hash输入。 hash(cache A) = key A; … … hash(cache C) = key C; spa

cache

4 .把对象映射到cache

如今cache和对象都已经经过同一个 hash 算法映射到 hash 数值空间中了,接下来要考虑的就是如何将对象映射到 cache 上面了。 在这个环形空间中,若是沿着顺时针方向从对象的 key 值出发,直到碰见一个 cache ,那么就将该对象存储在这个 cache 上,由于对象和 cache 的 hash 值是固定的,所以这个 cache 必然是惟一和肯定的。这样不就找到了对象和 cache 的映射方法了吗?! 依然继续上面的例子,那么根据上面的方法,对象 object1 将被存储到 cache A 上; object2 和object3 对应到 cache C ; object4 对应到 cache B ;debug

5. 考察cache 的变更

前面讲过,经过 hash 而后求余的方法带来的最大问题就在于不能知足单调性,当 cache 有所变更时, cache会失效,进而对后台服务器形成巨大的冲击,如今就来分析分析 consistent hashing 算法。3d

  • 5.1 移除 cache 考虑假设 cache B 挂掉了,根据上面讲到的映射方法,这时受影响的将仅是那些沿 cache B 逆时针遍历直到下一个 cache ( cache C )之间的对象,也便是原本映射到 cache B 上的那些对象。 所以这里仅须要变更对象 object4 ,将其从新映射到 cache C 上便可;参见图 4 。

    图 4 Cache B 被移除后的 cache 映射

  • 5.2 添加 cache 再考虑添加一台新的 cache D 的状况,假设在这个环形 hash 空间中, cache D 被映射在对象 object2 和object3 之间。这时受影响的将仅是那些沿 cache D 逆时针遍历直到下一个 cache ( cache B )之间的对象(它们是也原本映射到 cache C 上对象的一部分),将这些对象从新映射到 cache D 上便可。   所以这里仅须要变更对象 object2 ,将其从新映射到 cache D 上;参见图 5 。

    图 5 添加 cache D 后的映射关系

6 .虚拟节点

考量 Hash 算法的另外一个指标是平衡性 (Balance) ,定义以下: 平衡性   平衡性是指哈希的结果可以尽量分布到全部的缓冲中去,这样可使得全部的缓冲空间都获得利用。 hash 算法并非保证绝对的平衡,若是 cache 较少的话,对象并不能被均匀的映射到 cache 上,好比在上面的例子中,仅部署 cache A 和 cache C 的状况下,在 4 个对象中, cache A 仅存储了 object1 ,而 cache C 则存储了object2 、 object3 和 object4 ;分布是很不均衡的。 为了解决这种状况, consistent hashing 引入了“虚拟节点”的概念,它能够以下定义: “虚拟节点”( virtual node )是实际节点在 hash 空间的复制品( replica ),一实际个节点对应了若干个“虚拟节点”,这个对应个数也成为“复制个数”,“虚拟节点”在 hash 空间中以 hash 值排列。 仍以仅部署 cache A 和 cache C 的状况为例,在图 4 中咱们已经看到, cache 分布并不均匀。如今咱们引入虚拟节点,并设置“复制个数”为 2 ,这就意味着一共会存在 4 个“虚拟节点”, cache A1, cache A2 表明了 cache A; cache C1, cache C2 表明了 cache C ;假设一种比较理想的状况,参见图 6 。

图 6 引入“虚拟节点”后的映射关系
  此时,对象到“虚拟节点”的映射关系为: objec1->cache A2 ; objec2->cache A1 ; objec3->cache C1 ; objec4->cache C2 ; 所以对象 object1 和 object2 都被映射到了 cache A 上,而 object3 和 object4 映射到了 cache C 上;平衡性有了很大提升。 引入“虚拟节点”后,映射关系就从 { 对象 -> 节点 } 转换到了 { 对象 -> 虚拟节点 } 。查询物体所在 cache 时的映射关系如图 7 所示。
图 7 查询对象所在 cache

“虚拟节点”的 hash 计算能够采用对应节点的 IP 地址加数字后缀的方式。例如假设 cache A 的 IP 地址为202.168.14.241 。 引入“虚拟节点”前,计算 cache A 的 hash 值: Hash(“202.168.14.241”); 引入“虚拟节点”后,计算“虚拟节”点 cache A1 和 cache A2 的 hash 值: Hash(“202.168.14.241#1”);  // cache A1 Hash(“202.168.14.241#2”);  // cache A2

代码实现DEMO

#!/usr/bin/env python
# -*- coding: utf-8 -*-
from zlib import crc32
import memcache

class HashConsistency(object):
    def __init__(self, nodes=None, replicas=5):
        # 虚拟节点与真实节点对应关系
        self.nodes_map = []
        # 真实节点与虚拟节点的字典映射
        self.nodes_replicas = {}
        # 真实节点
        self.nodes = nodes
        # 每一个真实节点建立的虚拟节点的个数
        self.replicas = replicas

        if self.nodes:
            for node in self.nodes:
                self._add_nodes_map(node)
            self._sort_nodes()

    def get_node(self, key):
        """ 根据KEY值的hash值,返回对应的节点 算法是: 返回最先比key_hash大的节点 """
        key_hash = abs(crc32(key))
        #print '(%s' % key_hash
        for node in self.nodes_map:
            if key_hash > node[0]:
                continue
            return node
        return None

    def add_node(self, node):
        # 添加节点
        self._add_nodes_map(node)
        self._sort_nodes()

    def remove_node(self, node):
        # 删除节点
        if node not in self.nodes_replicas.keys():
            pass
        discard_rep_nodes = self.nodes_replicas[node]
        self.nodes_map = filter(lambda x: x[0] not in discard_rep_nodes, self.nodes_map)

    def _add_nodes_map(self, node):
        # 增长虚拟节点到nodes_map列表
        nodes_reps = []
        for i in xrange(self.replicas):
            rep_node = '%s_%d' % (node, i)
            node_hash = abs(crc32(rep_node))
            self.nodes_map.append((node_hash, node))
            nodes_reps.append(node_hash)
        # 真实节点与虚拟节点的字典映射
        self.nodes_replicas[node] = nodes_reps

    def _sort_nodes(self):
        # 按顺序排列虚拟节点
        self.nodes_map = sorted(self.nodes_map, key=lambda x:x[0])


memcache_servers = [
    '127.0.0.1:7001',
    '127.0.0.1:7002',
    '127.0.0.1:7003',
    '127.0.0.1:7004',
]

h = HashConsistency(memcache_servers)

for k in h.nodes_map:
    print k

mc_servers_dict = {}
for ms in  memcache_servers:
    mc = memcache.Client([ms], debug=0)
    mc_servers_dict[ms] = mc

# 循环10此给memcache 添加key,这里使用了一致性hash,那么key将会根据hash值落点到对应的虚拟节点上
for i in xrange(10):
    key = 'key_%s' % i
    print key
    server = h.get_node(key)[1]
    mc = mc_servers_dict[server]
    mc.set(key, i)
    print 'SERVER :%s' % server
    print mc
复制代码

关于我

若是文章对你有收获,能够收藏转发,这会给我一个大大鼓励哟! 另外能够关注我公众号【码农富哥】 (coder2025),我会持续输出原创的算法,计算机基础文章!

相关文章
相关标签/搜索