Redis 集合统计(HyperLogLog)

统计功能是一类极为常见的需求,好比下面这个场景:redis

为了决定某个功能是否在下个迭代版本中保留,产品会要求统计页面在上新先后的 UV 做为决策依据。
简单来讲就是统计一天内,某个页面的访问用户量,若是相同的用户再次访问,也只算记为一次访问。
下面咱们将从这个场景出发,讨论如何选择的合适的 Redis 数据结构实现统计功能。

Redis与统计

聚合统计

要完成这个统计任务,最直观的方式是使用一个SET保存页面在某天的访问用户 ID,而后经过对集合求差SDIFF和求交SINTER完成统计:数据结构

# 2020-01-01 当日的 UV
SADD page:uv:20200101 "Alice" "Bob" "Tom" "Jerry"

# 2020-01-02 当日的 UV
SADD page:uv:20200102 "Alice" "Bob" "Jerry" "Nancy"

# 2020-01-02 新增用户
SDIFFSTORE page:new:20200102 page:uv:20200102 page:uv:20200101

# 2020-01-02 新增用户数量
SCARD page:new:20200102

# 2020-01-02 留存用户
SINTERSTORE page:rem:20200102 page:uv:20200102 page:uv:20200101

# 2020-01-02 留存用户数量
SCARD page:rem:20200102

优势:函数

  • 操做直观易理解,能够复用现有的数据集合
  • 保留了用户的访问细节,能够作更细粒度的统计

缺点:大数据

  • 内存开销大,假设每一个用户ID长度均小于 44 字节(使用 embstr 编码),记录 1 亿用户也至少须要 6G 的内存
  • SUNIONSINTERSDIFF计算复杂度高,大数据量状况下会致使 Redis 实例阻塞,可选的优化方式有:
    • 从集群中选择一个从库专门负责聚合计算
    • 把数据读取到客户端,在客户端来完成聚合统计

二值统计

当用户 ID 是连续的整数时,可使用BITMAP实现二值统计:优化

# 2020-01-01 当日的 UV
SETBIT page:uv:20200101 0 1 # "Alice"
SETBIT page:uv:20200101 1 1 # "Bob"
SETBIT page:uv:20200101 2 1 # "Tom"
SETBIT page:uv:20200101 3 1 # "Jerry"

# 2020-01-02 当日的 UV
SETBIT page:uv:20200102 0 1 # "Alice"
SETBIT page:uv:20200102 1 1 # "Bob"
SETBIT page:uv:20200102 3 1 # "Jerry"
SETBIT page:uv:20200102 4 1 # "Nancy"

# 2020-01-02 新增用户
BITOP NOT page:not:20200101 page:uv:20200101
BITOP AND page:new:20200102 page:uv:20200102 page:not:20200101 

# 2020-01-02 新增用户数量
BITCOUNT page:new:20200102

# 2020-01-02 留存用户
BITOP AND page:rem:20200102 page:uv:20200102 page:uv:20200101

# 2020-01-02 留存用户数量
BITCOUNT page:new:20200102

优势:编码

  • 内存开销低,记录 1 亿个用户只须要 12MB 内存
  • 统计速度快,计算机对比特位的异或运算十分高效

缺点:spa

  • 对数据类型有要求,只能处理整数集合

基数统计

前面两种方式都能提供准确的统计结果,可是也存在如下问题:code

  • 当统计集合变大时,所需的存储内存也会线性增加
  • 当集合变大时,判断其是否包含新加入元素的成本变大

考虑下面这一场景:blog

产品可能只关心 UV 增量,此时咱们最终要的结果是访问用户集合的数量,并不关心访问集合里面包含哪些访问用户
只统计一个集合中 不重复的元素个数,而并不关心集合元素内容的统计方式,咱们将其称为 基数计数 cardinality counting

针对这一特定的统计场景,Redis 提供了HyperLogLog类型支持基数统计:内存

# 2020-01-01 当日的 UV
PFADD page:uv:20200101 "Alice" "Bob" "Tom" "Jerry"
PFCOUNT page:uv:20200101

# 2020-01-02 当日的 UV
PFADD page:uv:20200102 "Alice" "Bob" "Tom" "Jerry" "Nancy"
PFCOUNT page:uv:20200102

# 2020-01-01 与 2020-01-02 的 UV 总和
PFMERGE page:uv:union page:uv:20200101 page:uv:20200102
PFCOUNT page:uv:union

优势:
HyperLogLog计算基数所需的空间是固定的。只须要 12KB 内存就能够计算接近 \(2^{64}\) 个元素的基数。

缺点:
HyperLogLog的统计是基于几率完成的,其统计结果是有必定偏差。不适用于精确统计的场景。

HyperLogLog 解析

几率估计

HyperLogLog是一种基于几率的统计方式,该如何理解?

咱们来作一个实验:不停地抛一个均匀的双面硬币,直到结果是正面为止
用 0 和 1 分别表示正面与反面,则实验结果能够表示为以下二进制串:

+-+
第 1 次抛到正面   |1|
                +-+
                +--+
第 2 次抛到正面   |01|
                +--+
                +---+
第 3 次抛到正面   |001|
                +---+
                +---------+
第 k 次抛到正面   |000...001|  (总共 k-1 个 0)
                +---------+
因为每次抛硬币获得正面的几率均为$\frac{1}{2}$,所以实验在第 k 次结束的可能性为 $(\frac{1}{2})^k$(二进制串中首个 1 出如今第 k 位的几率)。

进行 n 实验后,将每次实验抛硬币的次数记为 \(k_1, k_3,\cdots,k_n\),其中的最大值记为 \(k_{max}\)

理想状况下有 \(k_{max} = log_2(n)\),反过来也能够经过 \(k_{max}\) 来估计总的实验次数 \(n = 2^{k_{max}}\)

处理极端状况

实际进行实验时,极端状况总会出现,好比在第 1 次实验时就连续抛出了 10 次反面。
若是按照前面的公式进行估计,会认为已经进行了 1000 次实验,这显然与事实不符。

为了提升估计的准确性,能够同时使用 m 枚硬币进行 分组实验
而后计算这 m 组实验的平均值 \(\hat{k}_{max} = \frac{\sum_{i=0}^{m}{k_{max}}}{m}\),此时能更准确的估计实际的实验次数 \(\hat{n}=2^{\hat{k}_{max}}\)

基数统计

经过前面的分析,咱们能够总结出如下经验:

能够经过二进制串中首个 1 出现的位置 \(k_{max}\) 来估计实际实验发生的次数 \(n\)

HyperLogLog借鉴上述思想来统计集合中不重复元素的个数:

  • 使用 hash 函数集合中的每一个元素映射为定长二进制串
  • 利用 分组统计 的方式提升准确性,将二进制串分到 \(m\) 个不一样的桶bucket中分别统计
    • 二进制串的前 \(log_2{m}\) 位用于计算该元素所属的桶
    • 剩余二进制位中,首个 1 出现的比特位记为 \(k\),每一个桶中的只保存最大值 \(k_{max}\)
  • 当须要估计集合中包含的元素个数时,使用公式 \(\hat{n}=2^{\hat{k}_{max}}\) 计算便可

下面来看一个例子:
某个 HyperLogLog实现,使用 8bit 输出的 hash 函数并以 4 个桶进行分组统计
使用该 HLL 统计 Alice,Bob,Tom,Jerry,Nancy 这 5 个用户访问页后的 UV
映射为二进制串     分组    计算k
                      |            |       |
                      V            V       V
                 +---------+
hash("Alice") => |01|101000| => bucket=1, k=1
                 +---------+                                           分组统计 k_max
                 +---------+                 
hash("Bob")   => |11|010010| => bucket=3, k=2           +----------+----------+----------+----------+
                 +---------+                            | bucket_0 | bucket_1 | bucket_2 | bucket_3 |
                 +---------+                     ==>    +----------+----------+----------+----------+
hash("Tom")   => |10|001000| => bucket=2, k=3           | k_max= 1 | k_max= 2 | k_max= 3 | k_max= 2 |
                 +---------+                            +----------+----------+----------+----------+
                 +---------+                                         
hash("Jerry") => |00|111010| => bucket=0, k=1                
                 +---------+                                            
                 +---------+                               
hash("Nancy") => |01|010001| => bucket=1, k=2
                 +---------+

分组计数完成后,用以前的公式估计集合基数为 \(2^{\hat{k}_{max}}= 2^{(\frac{1+2+3+2}{4})} = 4\)

偏差分析

在 Redis 的实现中,对于一个输入的字符串,首先获得 64 位的 hash 值:

  • 前 14 位来定位桶的位置(共有16384个桶)
  • 后 50 位用做元素对应的二进制串(用于更新首次出现 1 的比特位的最大值 \(k_{max}\)

因为使用了 64 位输出的 hash 函数,所以能够计数的集合的基数没有实际限制。

HyperLogLog的标准偏差计算公式为 \(\frac{1.04}{\sqrt{m}}\)\(m\) 为分组数量),据此计算 Redis 实现的标准偏差为 \(0.81\%\)

下面这幅图展现了统计偏差与基数大小的关系:

  • 红线和绿线分别表明两个不一样分布的数据集
  • x 轴表示集合实际基数
  • y 轴表示相对偏差(百分比)

分析该图能够得出如下结论:

  • 统计偏差与数据自己的分布特征无关
  • 集合基数越小,偏差越小(小基数时精度高)
  • 集合基数越大,偏差越大(大基数时省资源)

参考资料

相关文章
相关标签/搜索