本文将以“帖子中心”为例,介绍“1对多”类业务,随着数据量的逐步增大,数据库性能显著下降,数据库水平切分相关的架构实践:算法
如何来实施水平切分数据库
水平切分后常见的问题缓存
典型问题的优化思路及实践微信
1、什么是1对多关系架构
所谓的“1对1”,“1对多”,“多对多”,来自数据库设计中的“实体-关系”ER模型,用来描述实体之间的映射关系。并发
1对1app
一个用户只有一个登陆名,一个登陆名只对应一个用户数据库设计
一个uid对应一个login_name,一个login_name只对应一个uid分布式
这是一个1对1的关系。性能
1对多
一个用户能够发多条微博,一条微博只有一个发送者
一个uid对应多个msg_id,一个msg_id只对应一个uid
这是一个1对多的关系。
多对多
一个用户能够关注多个用户
一个用户也能够被多个粉丝关注
这是一个多对多的关系。
2、帖子中心业务分析
帖子中心是一个典型的1对多业务。
一个用户能够发布多个帖子,一个帖子只对应一个发布者。
任何脱离业务的架构设计都是耍流氓,先来看看帖子中心对应的业务需求。
帖子中心,是一个提供帖子发布/修改/删除/查看/搜索的服务。
写操做:
发布(insert)帖子
修改(update)帖子
删除(delete)帖子
读操做:
经过tid查询(select)帖子实体,单行查询
经过uid查询(select)用户发布过的帖子,列表查询
帖子检索(search),例如经过时间、标题、内容搜索符合条件的帖子
在数据量较大,并发量较大的时候,一般经过元数据与索引数据分离的架构来知足不一样类型的需求:
架构中的几个关键点:
tiezi-center:帖子服务
tiezi-db:提供元数据存储
tiezi-search:帖子搜索服务
tiezi-index:提供索引数据存储
MQ:tiezi-center与tiezi-search通信媒介,通常不直接使用RPC调用,而是经过MQ对两个子系统解耦(为什么这么解耦,请参见《到底何时该使用MQ?》)
其中,tiezi-center和tiezi-search分别知足两类不一样的读需求:
如上图所示:
tid和uid上的查询需求,能够由tiezi-center从元数据读取并返回
其余类检索需求,能够由tiezi-search从索引数据检索并返回
对于写需求:
如上图所示:
增长,修改,删除的操做都会从tiezi-center发起
tiezi-center修改元数据
tiezi-center将信息修改通知发送给MQ
tiezi-search从MQ接受修改信息
tiezi-search修改索引数据
tiezi-search,搜索架构不是本文的重点(外置索引架构设计,请参见《100亿数据1万属性数据架构设计》),后文将重点描述帖子中心元数据这一块的水平切分设计。
3、帖子中心元数据设计
经过帖子中心业务分析,很容易了解到,其核心元数据为:
Tiezi(tid, uid, time, title, content, …);
其中:
tid为帖子ID,主键
uid为用户ID,发帖人
time, title, content …等为帖子属性
数据库设计上,在业务初期,单库就能知足元数据存储要求,其典型的架构设计为:
tiezi-center:帖子中心服务,对调用者提供友好的RPC接口
tiezi-db:对帖子数据进行存储
在相关字段上创建索引,就能知足相关业务需求:
帖子记录查询,经过tid查询,约占读请求量90%
select * from t_tiezi where tid=$tid
帖子列表查询,经过uid查询其发布的全部帖子,约占读请求量10%
select * from t_tiezi where uid=$uid
4、帖子中心水平切分-tid切分法
当数据量愈来愈大时,须要对帖子数据的存储进行线性扩展。
既然是帖子中心,而且帖子记录查询量占了总请求的90%,很容易想到经过tid字段取模来进行水平切分:
这个方法简单直接,优势:
100%写请求能够直接定位到库
90%的读请求能够直接定位到库
缺点:
一个用户发布的全部帖子可能会落到不一样的库上,10%的请求经过uid来查询会比较麻烦
如上图,一个uid访问须要遍历全部库。
5、帖子中心水平切分-uid切分法
有没有一种切分方法,确保同一个用户发布的全部帖子都落在同一个库上,而在查询一个用户发布的全部帖子时,不须要去遍历全部的库呢?
答:使用uid来分库能够解决这个问题。
新出现的问题:若是使用uid来分库,确保了一个用户的帖子数据落在同一个库上,那经过tid来查询,就不知道这个帖子落在哪一个库上了,岂不是还须要遍历全库,须要怎么优化呢?
答:tid的查询是单行记录查询,只要在数据库(或者缓存)记录tid到uid的映射关系,就能解决这个问题。
新增一个索引库:
t_mapping(tid, uid);
这个库只有两列,能够承载不少数据
即便数据量过大,索引库能够利用tid水平切分
这类kv形式的索引结构,能够很好的利用cache优化查询性能
一旦帖子发布,tid和uid的映射关系就不会发生变化,cache的命中率会很是高
使用uid分库,并增长索引库记录tid到uid的映射关系以后,每当有uid上的查询:
能够经过uid直接定位到库。
每当有tid上的查询:
先查询索引表,经过tid查询到对应的uid
再经过uid定位到库
这个方法的优势:
一个用户发布的因此帖子落在同一个库上
10%的请求过过uid来查询列表,能够直接定位到库
索引表cache命中率很是高,由于tid与uid的映射关系不会变
缺点:
90%的tid请求,以及100%的修改请求,不能直接定位到库,须要先进行一次索引表的查询,固然这个查询很是块,一般在5ms内能够返回
数据插入时须要操做元数据与索引表,可能引起潜在的一致性问题
6、帖子中心水平切分-基因法
有没有一种方法,既可以经过uid定位到库,又不须要创建索引表来进行二次查询呢,这就是本文要叙述的“1对多”业务分库最佳实践,基因法。
什么是分库基因?
经过uid分库,假设分为16个库,采用uid%16的方式来进行数据库路由,这里的uid%16,其本质是uid的最后4个bit决定这行数据落在哪一个库上,这4个bit,就是分库基因。
什么是基因法分库?
在“1对多”的业务场景,使用“1”分库,在“多”的数据id生成时,id末端加入分库基因,就能同时知足“1”和“多”的分库查询需求。
如上图所示,uid=666的用户发布了一条帖子(666的二进制表示为:1010011010):
使用uid%16分库,决定这行数据要插入到哪一个库中
分库基因是uid的最后4个bit,即1010
在生成tid时,先使用一种分布式ID生成算法生成前60bit(上图中绿色部分)
将分库基因加入到tid的最后4个bit(上图中粉色部分)
拼装成最终的64bit帖子tid(上图中蓝色部分)
(怎么生成60bit分布式惟一ID,请参见《分布式ID生成算法》)
这般,保证了同一个用户发布的全部帖子的tid,都落在同一个库上,tid的最后4个bit都相同,因而:
经过uid%16可以定位到库
经过tid%16也能定位到库
潜在问题一:同一个uid发布的tid落在同一个库上,会不会出现数据不均衡?
答:只要uid是均衡的,每一个用户发布的平均帖子数是均衡的,每一个库的数据就是均衡的。
潜在问题二:最开始分16库,分库基因是4bit,将来要扩充成32库,分库基因变成了5bit,那怎么办?
答:须要提早作好容量预估,例如事先规划好5年内数据增加256库足够,就提早预留8bit基因。
7、总结
将以“帖子中心”为典型的“1对多”类业务,在架构上,采用元数据与索引数据分离的架构设计方法:
帖子服务,元数据知足uid和tid的查询需求
搜索服务,索引数据知足复杂搜索寻求
对于元数据的存储,在数据量较大的状况下,有三种常见的切分方法:
tid切分法,按照tid分库,同一个用户发布的帖子落在不一样的库上,经过uid来查询要遍历全部库
uid切分法,按照uid分库,同一个用户发布的帖子落在同一个库上,须要经过索引表或者缓存来记录tid与uid的映射关系,经过tid来查询时,先查到uid,再经过uid定位库
基因法,按照uid分库,在生成tid里加入uid上的分库基因,保证经过uid和tid都能直接定位到库
对于1对多的业务场景,分库架构再也不是瓶颈。
相关推荐
关于“搜索架构”,请参考系列文章:
本文分享自微信公众号 - 架构师之路(road5858)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。