jump consistent hash是一种一致性哈希算法, 此算法零内存消耗,均匀分配,快速,而且只有5行代码。 java
此算法适合使用在分shard的分布式存储系统中 。 git
此算法的做者是 Google 的 John Lamping 和 Eric Veach,论文原文在 http://arxiv.org/ftp/arxiv/papers/1406/1406.2294.pdf github
完整代码: 算法
JumpConsistentHash 1 2 3 4 5 6 7 8 9 |
int32_t JumpConsistentHash(uint64_t key, int32_t num_buckets) { int64_t b = -1, j = 0; while (j < num_buckets) { b = j; key = key * 2862933555777941757ULL + 1; j = (b + 1) * (double(1LL << 31) / double((key >> 33) + 1)); } return b; } |
输入是一个64位的key,和桶的数量(通常对应服务器的数量),输出是一个桶的编号。 服务器
下面byron根据论文的推导过程,作个翻译: dom
jump consistent hash的设计目标是: 分布式
jump consistent hash的设计思路是:计算当bucket数量变化时,有哪些输出须要变化。 函数
让咱们按部就班地思考: ui
所以,咱们能够用一个随机数生成器,来决定每次要不要跳变,而且让这个随机数生成器的状态仅仅依赖于key。就获得下面这个初步代码: google
1 2 3 4 5 6 7 8 |
int ch(int key, int num_buckets) { random.seed(key) ; int b = 0; // This will track ch(key, j +1) . for (int j = 1; j < num_buckets; j ++) { if (random.next() < 1.0/(j+1) ) b = j ; } return b; } |
显而易见,这个算法是O(n)的。同时咱们能够发现,大多数状况下b=j 是不会执行的,并且随着 j 愈来愈大,这个几率愈来愈低。 那么有没有办法根据一个随机数,直接得出下一个跳变的 j ,下降时间复杂度呢?
ok,请把你的大脑切换到几率论模式。
咱们能够把 ch(key,bum_buckets) 看作一个随机变量,
上述算法,追踪了桶编号的的跳变过程,咱们记上一个跳变结果是b,假设下一个结果以必定几率是 j ,那么从b+1到j-1,这中间的屡次增长桶都不能跳变。 对于在区间 (b, j) 内的任意整数 i ,j是下一个结果的几率能够记为:
P( j>=i ) = P( ch(k,i)==ch(k,b+1) )
其中 ch(k,i)==ch(k,b+1) 意即从b+1到i的过程当中,连续屡次增长桶的时候都没有跳变,这个几率也就是连续屡次不跳变事件几率的乘积,所以:
P(j>=i) = P( ch(k,b+1)==ch(k,b+2)) * P( ch(k,b+2)==ch(k,b+3)) * P( ch(k,b+3)==ch(k,b+4)) * …… * P( ch(k,i-1)==ch(k,i))
因为单次不跳变的几率:
P( ch(k,i)==ch(k,i+1) ) = i/(i+1)
因此连续屡次不跳变的几率
P(j>=i) = (b+1)/(b+2) * (b+2)/(b+3) * … * (i-1)/i
先后项分子分母相互抵消,获得:
P(j>=i) = (b+1)/i
意即:j>=i的几率为(b+1)/i
此时,咱们取一个在[0,1]区间均匀分布的随机数r,规定 r<(b+1)/i,就有j>=i, 因此有 i<(b+1)/r,这样就获得了i的上界是 (b+1)/r,因为对任意的i都要有j>=i,因此 j=floor( (b+1)/r ),这样咱们用一个随机数r获得了j。
所以,代码能够改进为:
1 2 3 4 5 6 7 8 9 10 11 |
int ch(int key, int num_buckets) { random. seed(key) ; int b = -1; // bucket number before the previous jump int j = 0; // bucket number before the current jump while(j<num_buckets){ b=j; double r=random.next(); // 0<r<1.0 j = floor( (b+1) /r); } return b; } |
这个算法的时间复杂度,能够假设每次r都取0.5,则能够认为每次 j=2*j,所以时间复杂度为O(log(n))。
此处须要一个均匀的伪随机数生成器,论文中使用了一个64位的线性同余随机数生成器。
须要指出的是:不像割环法,jump consistent hash不须要对key作hash,这是因为jump consistent hash使用内置的伪随机数生成器,来对每一次key作再hash,(byron的理解:因此结果分布的均匀性与输入key的分布无关,由伪随机数生成器的均匀性保证)。
consistent hash的概念出自David Karger的论文,经典而且应用普遍的割环法即出自这篇论文:http://www.ra.ethz.ch/cdstore/www8/data/2181/pdf/pd1.pdf
Karger提出2种实现:
这两种实现的查找时间复杂度也都是O(log(n))
jump consistent hash的论文中,用jump consistent hash和Karger的割环算法作了对比,结果以下:
直接从论文中摘录以下表格:
从标准差(Standard Error)这一列可见,jump consistent hash的均匀性要赛过割环法。
而且显而易见,jump consistent hash,当 扩/缩容 时,跳变key数量已是理论最少值 1/n。
下面是论文中的执行耗时对比图,其中k=1000。
显而易见,请自行脑补
显而易见,请自行脑补
在 Hacker News上面的讨论:https://news.ycombinator.com/item?id=8136408
这个算法最先在Google的guava库里面开源:https://github.com/google/guava/blob/master/guava/src/com/google/common/hash/Hashing.java#L392