粉丝与关注,社交好友,都是典型的“多对多关系”的业务,这类业务的核心服务是好友中心,当关系链达到百亿以后,好友中心架构设计要考虑哪些因素,是本文将要分享的内容。
所谓的“多对多”,来自数据库设计中的“实体-关系”ER模型,用来描述实体之间的关联关系,一个学生能够选修多个课程,一个课程能够被多个学生选修,这里学生与课程时间的关系,就是多对多关系。
弱好友关系的创建,不须要双方彼此赞成
:用户A关注用户B,不须要用户B赞成,此时用户A与用户B为弱好友关系,对A而言,他多“关注”了一我的,对B而言,他多了一个“粉丝”。
强好友关系的创建,须要好友关系双方彼此赞成
:用户A请求添加用户B为好友,用户B赞成,此时用户A与用户B则互为强好友关系,即A是B的好友,B也是A的好友。
好友中心是一个典型的多对多业务
,一个用户能够添加多个好友,也能够被多个好友添加。
(1)friend-service:好友中心服务,对调用者提供友好的RPC接口;
服务的接口,不外乎:关注,取关,增长好友,删除好友,赞成好友申请,不一样意好友申请。其核心,在于元数据的设计。
经过弱好友关系业务分析,很容易了解到,其核心元数据为:
(1)guanzhu(uid, guanzhu_uid);
(2)fensi(uid, fensi_uid);
(1)guanzhu表,用户记录uid全部关注用户guanzhu_uid;
(2)fensi表,用来记录uid全部粉丝用户fensi_uid;
须要强调的是,一条弱关系的产生,会产生两条记录,一条关注记录,一条粉丝记录。
例如:用户A(uid=1)关注了用户B(uid=2),A多关注了一个用户,B多了一个粉丝,因而:
(1)guanzhu表要插入{1, 2}这一条记录,1关注了2;
(2)fensi表要插入{2, 1}这一条记录,2粉了1;
select * from guanzhu where uid=1;
select * from fensi where uid=2;
经过强好友关系业务分析,很容易了解到,其核心元数据为:
uid=1的用户添加了uid=2的用户,双方都赞成加彼此为好友,强好友关系,在数据库中应该插入记录{1, 2}仍是记录{2,1}呢?
均可以,为了不歧义,能够人为约定,插入记录时uid1的值必须小于uid2。
例如:有uid=1,2,3三个用户,他们互为强好友关系,那边数据库中多是这样的三条记录:
假设要查询uid=2的全部好友,只需在uid1和uid2上创建索引,而后:
select * from friend where uid1=2
select * from friend where uid2=2
select * from friend uid1=2 or uid2=2
使用一个表记录全部关系链,若是数据量大了,数据库进行分库之后,不久没法同时知足uid1和uid2上的查询了么,此时要怎么办呢?
此时,可使用相似于弱关系实现的方案,用数据冗余的方式,即便分库后,依然可以知足两种查询需求。
(1)guanzhu(uid, guanzhu_uid);
(2)fensi(uid, fensi_uid);
例如:用户A(uid=1)和用户B(uid=2)为强好友关系,即相互关注:
用户A(uid=1)关注了用户B(uid=2),A多关注了一个用户,B多了一个粉丝,因而:
(1)guanzhu表要插入{1, 2}这一条记录;
同时,用户B(uid=2)也关注了用户A(uid=1),B多关注了一个用户,A多了一个粉丝,因而:
(1)guanzhu表要插入{2, 1}这一条记录;
强调一下:数据冗余,是多对多关系,知足不一样维度的查询需求,在数据量大时,数据水平切分的经常使用实践。
第一类
:friend(uid1, uid2)表;
第二类
:数据冗余guanzhu表与fensi表(后文称正表T1与反表T2);
在数据量小时,看似无差别,
但数据量大时,只有后者,才能知足两类查询需求
:
(1)friend表,数据量大时,若是使用uid1来分库,那么uid2上的查询就须要遍历多库;
(2)正表T1与反表T2经过数据冗余来实现好友关系,{1, 2}{2,1}分别存在于两表中,故两个表都使用uid来分库,均只须要进行一次查询,就能找到对应的关注与粉丝,而不须要多个库扫描;
问题转化为,T1和T2正反表,如何进行数据冗余呢?
顾名思义,
由好友中心服务同步写冗余数据
,如上图1-4流程:
(2)数据仍可能不一致,例如第二步写入T1完成后服务重启,则数据不会写入T2;
若是系统对处理时间比较敏感,引出经常使用的第二种方案。
数据的双写并再也不由好友中心服务来完成,服务层
异步发出一个消息,经过消息总线发送给一个专门的数据复制服务来写入冗余数据
,如上图1-6流程:
(3)服务向消息总线发送一个异步消息(发出便可,不用等返回,一般很快就能完成);
(1)系统的复杂性增长了,多引入了一个组件(消息总线)和一个服务(专用的数据复制服务);
(2)由于返回业务线数据插入成功时,数据还不必定插入到T2中,所以数据有一个不一致时间窗口(这个窗口很短,最终是一致的);
若是想解除“数据冗余”对系统的耦合,引出经常使用的第三种方案。
数据的
双写再也不由好友中心服务来完成,而是由线下的一个服务或者任务来完成
,如上图1-6流程:
(1)返回业务线数据插入成功时,数据还不必定插入到T2中,所以数据有一个不一致时间窗口(这个窗口很短,最终是一致的);
(2)数据的一致性依赖于线下服务或者任务的可靠性;
数据冗余当然可以解决多对多关系的数据库水平切分问题,但又带来了新的问题,如何保证正表T1与反表T2的数据一致性呢?
能够看到,无论哪一种方案,
由于两步操做不能保证原子性,总有出现数据不一致的可能
,高吞吐分布式事务是业内还没有解决的难题,此时的架构优化方向,并非彻底保证数据的一致,而是尽早的发现不一致,并修复不一致。
须要强调的是,
最终一致性
,是高吞吐互联网业务一致性的经常使用实践
。
如上图所示,
线下启动一个离线的扫描工具,不停的比对正表T1和反表T2,若是发现数据不一致,就进行补偿修复。
(1)扫描效率低,会扫描大量的“已经可以保证一致”的数据;
(2)因为扫描的数据量大,扫描一轮的时间比较长,即数据若是不一致,不一致的时间窗口比较长;
有没有只扫描“可能存在不一致可能性”的数据,而不是每次扫描所有数据,以提升效率的优化方法呢?
每次只扫描增量的日志数据
,就可以极大提升效率,缩短数据不一致的时间窗口,如上图1-4流程所示:
固然,咱们仍是须要一个离线的扫描工具,不停的比对日志log1和日志log2,若是发现数据不一致,就进行补偿修复。
(1)线上服务略有修改(代价不高,多写了2条日志);
(2)虽然比方法一更实时,但时效性仍是不高,不一致窗口取决于扫描的周期;
此次不是写日志了,而是向消息总线发送消息,如上图1-4流程所示:
此次不是须要一个周期扫描的离线工具了,而是
一个实时订阅消息的服务不停的收消息。
假设正常状况下,msg1和msg2的接收时间应该在3s之内,若是检测服务在收到msg1后没有收到msg2,就尝试检测数据的一致性,不一致时进行补偿修复。
however,技术方案自己就是一个投入产出比的折衷,能够根据业务对一致性的需求程度决定使用哪种方法。
(1)好友业务是一个典型的多对多关系,又分为强好友与弱好友;
(2)数据冗余是一个常见的多对多业务数据水平切分实践;
(4)数据冗余会带来一致性问题,高吞吐互联网业务,要想彻底保证事务一致性很难,常见的实践是最终一致性;
(5)最终一致性的常见实践是,尽快找到不一致,并修复数据,常见方案有三种:

新尝试,视频讲架构数据库
本文分享自微信公众号 - 架构师之路(road5858)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。微信