整理了一些Java方面的架构、面试资料(微服务、集群、分布式、中间件等),有须要的小伙伴能够关注公众号【程序员内点事】,无套路自行领取javascript
更多优选html
前几天写过一篇《一口气说出 9种 分布式ID生成方式,面试官有点懵了》,里边简单的介绍了九种分布式ID生成方式,可是对于像美团(Leaf)
、滴滴(Tinyid)
、百度(uid-generator)
都是一笔带过。而经过读者留言发现,你们广泛对他们哥三更感兴趣,因此后边会结合实战,详细的对三种分布式ID生成器学习,今天先啃下美团(Leaf)
。java
不了解分布式ID的同窗,先行去看《一口气说出 9种 分布式ID生成方式,面试官有点懵了》温习一下基础知识,这里就再也不赘述了mysql
Leaf
是美团推出的一个分布式ID生成服务,名字取自德国哲学家、数学家莱布尼茨的一句话:“There are no two identical leaves in the world.”(“世界上没有两片相同的树叶”),取个名字都这么有寓意,美团程序员牛掰啊!git
Leaf
的优点:高可靠
、低延迟
、全局惟一
等特色。程序员
目前主流的分布式ID生成方式,大体都是基于数据库号段模式
和雪花算法(snowflake)
,而美团(Leaf)恰好同时兼具了这两种方式,能够根据不一样业务场景灵活切换。github
接下来结合实战,详细的介绍一下Leaf
的Leaf-segment号段模式
和Leaf-snowflake模式
面试
Leaf-segment
号段模式是对直接用数据库自增ID
充当分布式ID
的一种优化,减小对数据库的频率操做。至关于从数据库批量的获取自增ID,每次从数据库取出一个号段范围,例如 (1,1000] 表明1000个ID,业务服务将号段在本地生成1~1000的自增ID并加载到内存.。算法
大体的流程入下图所示: 号段耗尽以后再去数据库获取新的号段,能够大大的减轻数据库的压力。对
max_id
字段作一次update
操做,update max_id= max_id + step
,update成功则说明新号段获取成功,新的号段范围是(max_id ,max_id +step
]。sql
因为依赖数据库,咱们先设计一下表结构:
CREATE TABLE `leaf_alloc` ( `biz_tag` varchar(128) NOT NULL DEFAULT '' COMMENT '业务key', `max_id` bigint(20) NOT NULL DEFAULT '1' COMMENT '当前已经分配了的最大id', `step` int(11) NOT NULL COMMENT '初始步长,也是动态调整的最小步长', `description` varchar(256) DEFAULT NULL COMMENT '业务key的描述', `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '数据库维护的更新时间', PRIMARY KEY (`biz_tag`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
预先插入一条测试的业务数据
INSERT INTO `leaf_alloc` (`biz_tag`, `max_id`, `step`, `description`, `update_time`) VALUES ('leaf-segment-test', '0', '10', '测试', '2020-02-28 10:41:03');
biz_tag
:针对不一样业务需求,用biz_tag字段来隔离,若是之后须要扩容时,只需对biz_tag分库分表便可
max_id
:当前业务号段的最大值,用于计算下一个号段
step
:步长,也就是每次获取ID的数量
description
:对于业务的描述,没啥好说的
将Leaf项目下载到本地:https://github.com/Meituan-Dianping/Leaf
修改一下项目中的leaf.properties
文件,添加数据库配置
leaf.name=com.sankuai.leaf.opensource.test leaf.segment.enable=true leaf.jdbc.url=jdbc:mysql://127.0.0.1:3306/xin-master?useUnicode=true&characterEncoding=utf8 leaf.jdbc.username=junkang leaf.jdbc.password=junkang leaf.snowflake.enable=false
注意:leaf.snowflake.enable
与 leaf.segment.enable
是没法同时开启的,不然项目将没法启动。
配置至关的简单,直接启动LeafServerApplication
后就OK了,接下来测试一下,leaf
是基于Http请求
的发号服务, LeafController
中只有两个方法,一个号段接口,一个snowflake接口,key
就是数据库中预先插入的业务biz_tag
。
@RestController public class LeafController { private Logger logger = LoggerFactory.getLogger(LeafController.class); @Autowired private SegmentService segmentService; @Autowired private SnowflakeService snowflakeService; /** * 号段模式 * @param key * @return */ @RequestMapping(value = "/api/segment/get/{key}") public String getSegmentId(@PathVariable("key") String key) { return get(key, segmentService.getId(key)); } /** * 雪花算法模式 * @param key * @return */ @RequestMapping(value = "/api/snowflake/get/{key}") public String getSnowflakeId(@PathVariable("key") String key) { return get(key, snowflakeService.getId(key)); } private String get(@PathVariable("key") String key, Result id) { Result result; if (key == null || key.isEmpty()) { throw new NoKeyException(); } result = id; if (result.getStatus().equals(Status.EXCEPTION)) { throw new LeafServerException(result.toString()); } return String.valueOf(result.getId()); } }
访问:http://127.0.0.1:8080/api/segment/get/leaf-segment-test
,结果正常返回,感受没毛病,但当查了一下数据库表中数据时发现了一个问题。
一般在用号段模式的时候,取号段的时机是在前一个号段消耗完的时候进行的,可刚刚才取了一个ID,数据库中却已经更新了
max_id
,也就是说leaf
已经多获取了一个号段,这是什么鬼操做?
Leaf
为啥要这么设计呢?
Leaf
但愿能在DB中取号段的过程当中作到无阻塞!
当号段耗尽时再去DB中取下一个号段,若是此时网络发生抖动,或者DB发生慢查询,业务系统拿不到号段,就会致使整个系统的响应时间变慢,对流量巨大的业务,这是不可容忍的。
因此Leaf
在当前号段消费到某个点时,就异步的把下一个号段加载到内存中。而不须要等到号段用尽的时候才去更新号段。这样作很大程度上的下降了系统的风险。
那么某个点
究竟是何时呢?
这里作了一个实验,号段设置长度为step=10
,max_id=1
, 当我拿第一个ID时,看到号段增长了,1/10
当我拿第三个Id时,看到号段又增长了,3/10
Leaf
采用双buffer
的方式,它的服务内部有两个号段缓存区segment
。当前号段已消耗10%时,还没能拿到下一个号段,则会另启一个更新线程去更新下一个号段。
简而言之就是Leaf
保证了老是会多缓存两个号段,即使哪一时刻数据库挂了,也会保证发号服务能够正常工做一段时间。
一般推荐号段(
segment
)长度设置为服务高峰期发号QPS的600倍(10分钟),这样即便DB宕机,Leaf仍能持续发号10-20分钟不受影响。
优势:
缺点:
Leaf-snowflake
基本上就是沿用了snowflake的设计,ID组成结构:正数位
(占1比特)+ 时间戳
(占41比特)+ 机器ID
(占5比特)+ 机房ID
(占5比特)+ 自增值
(占12比特),总共64比特组成的一个Long类型。
Leaf-snowflake
不一样于原始snowflake算法地方,主要是在workId的生成上,Leaf-snowflake
依靠Zookeeper
生成workId
,也就是上边的机器ID
(占5比特)+ 机房ID
(占5比特)。Leaf
中workId是基于ZooKeeper的顺序Id
来生成的,每一个应用在使用Leaf-snowflake时,启动时都会都在Zookeeper中生成一个顺序Id,至关于一台机器对应一个顺序节点,也就是一个workId。
Leaf-snowflake
启动服务的过程大体以下:
但Leaf-snowflake
对Zookeeper是一种弱依赖关系,除了每次会去ZK拿数据之外,也会在本机文件系统上缓存一个workerID
文件。一旦ZooKeeper出现问题,刚好机器出现故障需重启时,依然可以保证服务正常启动。
启动Leaf-snowflake
模式也比较简单,起动本地ZooKeeper,修改一下项目中的leaf.properties
文件,关闭leaf.segment模式
,启用leaf.snowflake
模式便可。
leaf.segment.enable=false #leaf.jdbc.url=jdbc:mysql://127.0.0.1:3306/xin-master?useUnicode=true&characterEncoding=utf8 #leaf.jdbc.username=junkang #leaf.jdbc.password=junkang leaf.snowflake.enable=true leaf.snowflake.zk.address=127.0.0.1 leaf.snowflake.port=2181
/** * 雪花算法模式 * @param key * @return */ @RequestMapping(value = "/api/snowflake/get/{key}") public String getSnowflakeId(@PathVariable("key") String key) { return get(key, snowflakeService.getId(key)); }
测试一下,访问:http://127.0.0.1:8080/api/snowflake/get/leaf-segment-test
优势:
缺点:
请求地址:http://127.0.0.1:8080/cache
针对服务自身的监控,Leaf提供了Web层的内存数据映射界面,能够实时看到全部号段的下发状态。好比每一个号段双buffer的使用状况,当前ID下发到了哪一个位置等信息均可以在Web界面上查看。
对于Leaf具体使用哪一种模式,仍是根据具体的业务场景使用,本文并无对Leaf源码作过多的分析,由于Leaf 代码量简洁很好阅读。后续还会把其余几种分布式ID生成器,依次结合实战介绍给你们,欢迎你们关注。
今天就说这么多,若是本文对您有一点帮助,但愿能获得您一个点赞👍哦
您的承认才是我写做的动力!
整理了一些Java方面的架构、面试资料(微服务、集群、分布式、中间件等),有须要的小伙伴能够关注公众号【程序员内点事】,无套路自行领取
原文出处:https://www.cnblogs.com/chengxy-nds/p/12377352.html