限流简介
如今说到高可用系统,都会说到高可用的保护手段:缓存、降级和限流,本博文就主要说说限流。限流是流量限速(Rate Limit)的简称,是指只容许指定的事件进入系统,超过的部分将被拒绝服务、排队或等待、降级等处理。html
对于server服务而言,限流为了保证一部分的请求流量能够获得正常的响应,总好过所有的请求都不能获得响应,甚至致使系统雪崩。限流与熔断常常被人弄混,博主认为它们最大的区别在于限流主要在server实现,而熔断主要在client实现,固然了,一个服务既能够充当server也能够充当client,这也是让限流与熔断同时存在一个服务中,这两个概念才容易被混淆,关注公众号码猿技术专栏获取更多面试资源。git
那为何须要限流呢?不少人第一反应就是服务扛不住了因此须要限流。这是不全面的说法,博主认为限流是由于资源的稀缺或出于安全防范的目的,采起的自我保护的措施。限流能够保证使用有限的资源提供最大化的服务能力,按照预期流量提供服务,超过的部分将会拒绝服务、排队或等待、降级等处理。github
如今的系统对限流的支持各有不一样,可是存在一些标准。在HTTP RFC 6585标准中规定了『429 Too Many Requests 』,429状态码表示用户在给定时间内发送了太多的请求,须要进行限流(“速率限制”),同时包含一个 Retry-After 响应头用于告诉客户端多长时间后能够再次请求服务,关注公众号码猿技术专栏获取更多面试资源。golang
HTTP/1.1 429 Too Many Requests Content-Type: text/html Retry-After: 3600 <title>Too Many Requests</title> <h1>Too Many Requests</h1> <p>I only allow 50 requests per hour to this Web site per logged in user. Try again soon.</p>
不少应用框架一样集成了,限流功能而且在返回的Header中给出明确的限流标识。面试
- X-Rate-Limit-Limit:同一个时间段所容许的请求的最大数目;
- X-Rate-Limit-Remaining:在当前时间段内剩余的请求的数量;
- X-Rate-Limit-Reset:为了获得最大请求数所等待的秒数。
这是经过响应头告诉调用方服务端的限流频次是怎样的,保证后端的接口访问上限,客户端也能够根据响应的Header调整请求。redis
限流分类
限流,拆分来看,就两个字限和流,限就是动词限制,很好理解。可是流在不一样的场景之下就是不一样资源或指标,多样性就在流中体现。在网络流量中能够是字节流,在数据库中能够是TPS,在API中能够是QPS亦能够是并发请求数,在商品中还能够是库存数... ...可是无论是哪种『流』,这个流必须能够被量化,能够被度量,能够被观察到、能够统计出来。咱们把限流的分类基于不一样的方式分为不一样的类别,关注公众号码猿技术专栏获取更多面试资源,以下图。算法

限流分类数据库
由于篇幅有限,本文只会挑选几个常见的类型分类进行说明。后端
限流粒度分类
根据限流的粒度分类:缓存
- 单机限流
- 分布式限流
现状的系统基本上都是分布式架构,单机的模式已经不多了,这里说的单机限流更加准确一点的说法是单服务节点限流。单机限流是指请求进入到某一个服务节点后超过了限流阈值,服务节点采起了一种限流保护措施。

单机限流示意图
分布式限流狭义的说法是在接入层实现多节点合并限流,好比NGINX+redis,分布式网关等,广义的分布式限流是多个节点(能够为不一样服务节点)有机整合,造成总体的限流服务。

分布式限流示意图
单机限流防止流量压垮服务节点,缺少对总体流量的感知。分布式限流适合作细粒度不一样的限流控制,能够根据场景不一样匹配不一样的限流规则。与单机限流最大的区别,分布式限流须要中心化存储,常见的使用redis实现。引入了中心化存储,就须要解决如下问题:
- 数据一致性在限流模式中理想的模式为时间点一致性。时间点一致性的定义中要求全部数据组件的数据在任意时刻都是彻底一致的,可是通常来讲信息传播的速度最大是光速,其实并不能达到任意时刻一致,总有必定的时间不一致,对于咱们CAP中的一致性来讲只要达到读取到最新数据便可,达到这种状况并不须要严格的任意时间一致。这只能是理论当中的一致性模型,能够在限流中达到线性一致性便可。
- 时间一致性这里的时间一致性与上述的时间点一致性不同,这里就是指各个服务节点的时间一致性。一个集群有3台机器,可是在某一个A/B机器的时间为Tue Dec 3 16:29:28 CST 2019,C为Tue Dec 3 16:29:28 CST 2019,那么它们的时间就不一致。那么使用ntpdate进行同步也会存在必定的偏差,对于时间窗口敏感的算法就是偏差点。
- 超时在分布式系统中就须要网络进行通讯,会存在网络抖动问题,或者分布式限流中间件压力过大致使响应变慢,甚至是超时时间阈值设置不合理,致使应用服务节点超时了,此时是放行流量仍是拒绝流量?
- 性能与可靠性分布式限流中间件的资源老是有限的,甚至多是单点的(写入单点),性能存在上限。若是分布式限流中间件不可用时候如何退化为单机限流模式也是一个很好的降级方案。
限流对象类型分类
按照对象类型分类:
- 基于请求限流
- 基于资源限流
基于请求限流,通常的实现方式有限制总量和限制QPS。限制总量就是限制某个指标的上限,好比抢购某一个商品,放量是10w,那么最多只能卖出10w件。微信的抢红包,群里发一个红包拆分为10个,那么最多只能有10人能够抢到,第十一我的打开就会显示『手慢了,红包派完了』。

红包抢完了
限制QPS,也是咱们常说的限流方式,只要在接口层级进行,某一个接口只容许1秒只能访问100次,那么它的峰值QPS只能为100。限制QPS的方式最难的点就是如何预估阈值,如何定位阈值,下文中会说到,关注公众号码猿技术专栏获取更多面试资源。
基于资源限流是基于服务资源的使用状况进行限制,须要定位到服务的关键资源有哪些,并对其进行限制,如限制TCP链接数、线程数、内存使用量等。限制资源更能有效地反映出服务当前地清理,但与限制QPS相似,面临着如何确认资源的阈值为多少。这个阈值须要不断地调优,不停地实践才能够获得一个较为满意地值。
限流算法分类
不管是按照什么维度,基于什么方式的分类,其限流的底层均是须要算法来实现。下面介绍实现常见的限流算法:
- 计数器
- 令牌桶算法
- 漏桶算法
计数器
固定窗口计数器
计数限流是最为简单的限流算法,平常开发中,咱们说的限流不少都是说固定窗口计数限流算法,好比某一个接口或服务1s最多只能接收1000个请求,那么咱们就会设置其限流为1000QPS。该算法的实现思路很是简单,维护一个固定单位时间内的计数器,若是检测到单位时间已通过去就重置计数器为零。

固定窗口计数器原理
其操做步骤:
- 时间线划分为多个独立且固定大小窗口;
- 落在每个时间窗口内的请求就将计数器加1;
- 若是计数器超过了限流阈值,则后续落在该窗口的请求都会被拒绝。但时间达到下一个时间窗口时,计数器会被重置为0。
下面实现一个简单的代码。
package limit import ( "sync/atomic" "time" ) type Counter struct { Count uint64 // 初始计数器 Limit uint64 // 单位时间窗口最大请求频次 Interval int64 // 单位ms RefreshTime int64 // 时间窗口 } func NewCounter(count, limit uint64, interval, rt int64) *Counter { return &Counter{ Count: count, Limit: limit, Interval: interval, RefreshTime: rt, } } func (c *Counter) RateLimit() bool { now := time.Now().UnixNano() / 1e6 if now < (c.RefreshTime + c.Interval) { atomic.AddUint64(&c.Count, 1) return c.Count <= c.Limit } else { c.RefreshTime = now atomic.AddUint64(&c.Count, -c.Count) return true } }
测试代码:
package limit import ( "fmt" "testing" "time" ) func Test_Counter(t *testing.T) { counter := NewCounter(0, 5, 100, time.Now().Unix()) for i := 0; i < 10; i++ { go func(i int) { for k := 0; k <= 10; k++ { fmt.Println(counter.RateLimit()) if k%3 == 0 { time.Sleep(102 * time.Millisecond) } } }(i) } time.Sleep(10 * time.Second) }
看了上面的逻辑,有没有以为固定窗口计数器很简单,对,就是这么简单,这就是它的一个优势实现简单。同时也存在两个比较严重缺陷。试想一下,固定时间窗口1s限流阈值为100,可是前100ms,已经请求来了99个,那么后续的900ms只能经过一个了,就是一个缺陷,基本上没有应对突发流量的能力。第二个缺陷,在00:00:00这个时间窗口的后500ms,请求经过了100个,在00:00:01这个时间窗口的前500ms还有100个请求经过,对于服务来讲至关于1秒内请求量达到了限流阈值的2倍。
滑动窗口计数器
滑动时间窗口算法是对固定时间窗口算法的一种改进,这词被大众所知实在TCP的流量控制中。固定窗口计数器能够说是滑动窗口计数器的一种特例,滑动窗口的操做步骤:
- 将单位时间划分为多个区间,通常都是均分为多个小的时间段;
- 每个区间内都有一个计数器,有一个请求落在该区间内,则该区间内的计数器就会加一;
- 每过一个时间段,时间窗口就会往右滑动一格,抛弃最老的一个区间,并归入新的一个区间;
- 计算整个时间窗口内的请求总数时会累加全部的时间片断内的计数器,计数总和超过了限制数量,则本窗口内全部的请求都被丢弃。
时间窗口划分的越细,而且按照时间"滑动",这种算法避免了固定窗口计数器出现的上述两个问题。缺点是时间区间的精度越高,算法所需的空间容量就越大。
常见的实现方式主要有基于redis zset的方式和循环队列实现。基于redis zset可将Key为限流标识ID,Value保持惟一,能够用UUID生成,Score 也记为同一时间戳,最好是纳秒级的。使用redis提供的 ZADD、EXPIRE、ZCOUNT 和 zremrangebyscore 来实现,并同时注意开启 Pipeline 来尽量提高性能。实现很简单,可是缺点就是zset的数据结构会愈来愈大。
漏桶算法
漏桶算法是水先进入到漏桶里,漏桶再以必定的速率出水,当流入水的数量大于流出水时,多余的水直接溢出。把水换成请求来看,漏桶至关于服务器队列,但请求量大于限流阈值时,多出来的请求就会被拒绝服务。漏桶算法使用队列实现,能够以固定的速率控制流量的访问速度,能够作到流量的“平整化”处理。
你们能够经过网上最流行的一张图来理解。

漏桶算法原理
漏桶算法实现步骤:
- 将每一个请求放入固定大小的队列进行存储;
- 队列以固定速率向外流出请求,若是队列为空则中止流出;
- 如队列满了则多余的请求会被直接拒绝·
漏桶算法有一个明显的缺陷:当短期内有大量的突发请求时,即便服务器负载不高,每一个请求也都得在队列中等待一段时间才能被响应。
令牌桶算法
令牌桶算法的原理是系统会以一个恒定的速率往桶里放入令牌,而若是请求须要被处理,则须要先从桶里获取一个令牌,当桶里没有令牌可取时,则拒绝服务。从原理上看,令牌桶算法和漏桶算法是相反的,前者为“进”,后者为“出”。
漏桶算法与令牌桶算法除了“方向”上的不一样还有一个更加主要的区别:令牌桶算法限制的是平均流入速率(容许突发请求,只要有足够的令牌,支持一次拿多个令牌),并容许必定程度突发流量;
令牌桶算法的实现步骤:
- 令牌以固定速率生成并放入到令牌桶中;
- 若是令牌桶满了则多余的令牌会直接丢弃,当请求到达时,会尝试从令牌桶中取令牌,取到了令牌的请求能够执行;
- 若是桶空了,则拒绝该请求。

令牌桶算法原理
四种策略该如何选择?
- 固定窗口:实现简单,可是过于粗暴,除非状况紧急,为了能快速止损眼前的问题能够做为临时应急的方案。
- 滑动窗口:限流算法简单易实现,能够应对有少许突增流量场景。
- 漏桶:对于流量绝对均匀有很强的要求,资源的利用率上不是极致,但其宽进严出模式,保护系统的同时还留有部分余量,是一个通用性方案。
- 令牌桶:系统常常有突增流量,并尽量的压榨服务的性能。
怎么作限流?
不论使用上述的哪种分类或者实现方式,系统都会面临一个共同的问题:如何确认限流阈值。有人团队根据经验先设定一个小的阈值,后续慢慢进行调整;有的团队是经过进行压力测试后总结出来。这种方式的问题在于压测模型与线上环境不必定一致,接口的单压不能反馈整个系统的状态,全链路压测又难以真实反应实际流量场景流量比例。
再换一个思路是经过压测+各应用监控数据。根据系统峰值的QPS与系统资源使用状况,进行等水位放大预估限流阈值,问题在于系统性能拐点未知,单纯的预测不必定准确甚至极大偏离真实场景。正如《Overload Control for Scaling WeChat Microservices》所说,在具备复杂依赖关系的系统中,对特定服务的进行过载控制可能对整个系统有害或者服务的实现有缺陷。
但愿后续能够出现一个更加AI的运行反馈自动设置限流阈值的系统,能够根据当前QPS、资源状态、RT状况等多种关联数据动态地进行过载保护。
不管是哪种方式给出的限流阈值,系统都应该关注如下几点:
- 运行指标状态,好比当前服务的QPS、机器资源使用状况、数据库的链接数、线程的并发数等;
- 资源间的调用关系,外部链路请求、内部服务之间的关联、服务之间的强弱依赖等;
- 控制方式,达到限流后对后续的请求直接拒绝、快速失败、排队等待等处理方式
go限流类库使用
限流的类库有不少,不一样语言的有不一样的类库,如大Java的有concurrency-limits、Sentinel、Guava 等,这些类库都有不少的分析和使用方式了,本文主要介绍Golang的限流类库就是Golang的扩展库:
https://github.com/golang/time/rate
能够进去语言类库的代码都值得去研读一番,学习过Java的同窗是否对AQS的设计之精妙而感叹呢! time/rate 也有其精妙的部分,下面开始进入类库学习阶段。
github.com/golang/time/rate
进行源码分析前的,最应该作的是了解类库的使用方式、使用场景和API。对业务有了初步的了解,阅读代码就能够事半功倍。由于篇幅有限后续的博文在对多个限流类库源码作分析。
类库的API文档:
https://godoc.org/golang.org/x/time/rate%E3%80%82
time/rate类库是基于令牌桶算法实现的限流功能。前面说令牌桶算法的原理是系统会以一个恒定的速率往桶里放入令牌,那么桶就有一个固定的大小,往桶中放入令牌的速率也是恒定的,而且容许突发流量。查看文档发现一个函数:
func NewLimiter(r Limit, b int) *Limiter
newLimiter返回一个新的限制器,它容许事件的速率达到r,并容许最多突发b个令牌。也就是说Limter限制时间的发生频率,但这个桶一开始容量就为b,而且装满b个令牌(令牌池中最多有b个令牌,因此一次最多只能容许b个事件发生,一个事件花费掉一个令牌),而后每个单位时间间隔(默认1s)往桶里放入r个令牌。
limter := rate.NewLimiter(10, 5)
上面的例子表示,令牌桶的容量为5,而且每一秒中就往桶里放入10个令牌。细心的读者都会发现函数NewLimiter第一个参数是Limit类型,能够看源码就会发现Limit实际上就是float64的别名。
// Limit defines the maximum frequency of some events. // Limit is represented as number of events per second. // A zero Limit allows no events. type Limit float64
限流器还能够指定往桶里放入令牌的时间间隔,实现方式以下:
limter := rate.NewLimiter(rate.Every(100*time.Millisecond), 5)
这两个例子的效果是同样的,使用第一种方式不会出如今每一秒间隔一会儿放入10个令牌,也是均匀分散在100ms的间隔放入令牌。rate.Limiter提供了三类方法用来限速:
- Allow/AllowN
- Wait/WaitN
- Reserve/ReserveN
下面对比这三类限流方式的使用方式和适用场景。先看第一类方法:
func (lim *Limiter) Allow() bool func (lim *Limiter) AllowN(now time.Time, n int) bool
Allow 是AllowN(time.Now(), 1)的简化方法。那么重点就在方法 AllowN上了,API的解释有点抽象,说得云里雾里的,能够看看下面的API文档解释:
AllowN reports whether n events may happen at time now. Use this method if you intend to drop / skip events that exceed the rate limit. Otherwise use Reserve or Wait.
实际上就是为了说,方法 AllowN在指定的时间时是否能够从令牌桶中取出N个令牌。也就意味着能够限定N个事件是否能够在指定的时间同时发生。这个两个方法是无阻塞,也就是说一旦不知足,就会跳过,不会等待令牌数量足够才执行。
也就是文档中的第二行解释,若是打算丢失或跳过超出速率限制的时间,那么久请使用该方法。好比使用以前实例化好的限流器,在某一个时刻,服务器同时收到超过了8个请求,若是令牌桶内令牌小于8个,那么这8个请求就会被丢弃。一个小示例:
func AllowDemo() { limter := rate.NewLimiter(rate.Every(200*time.Millisecond), 5) i := 0 for { i++ if limter.Allow() { fmt.Println(i, "====Allow======", time.Now()) } else { fmt.Println(i, "====Disallow======", time.Now()) } time.Sleep(80 * time.Millisecond) if i == 15 { return } } }
执行结果:
1 ====Allow====== 2019-12-14 15:54:09.9852178 +0800 CST m=+0.005998001 2 ====Allow====== 2019-12-14 15:54:10.1012231 +0800 CST m=+0.122003301 3 ====Allow====== 2019-12-14 15:54:10.1823056 +0800 CST m=+0.203085801 4 ====Allow====== 2019-12-14 15:54:10.263238 +0800 CST m=+0.284018201 5 ====Allow====== 2019-12-14 15:54:10.344224 +0800 CST m=+0.365004201 6 ====Allow====== 2019-12-14 15:54:10.4242458 +0800 CST m=+0.445026001 7 ====Allow====== 2019-12-14 15:54:10.5043101 +0800 CST m=+0.525090301 8 ====Allow====== 2019-12-14 15:54:10.5852232 +0800 CST m=+0.606003401 9 ====Disallow====== 2019-12-14 15:54:10.6662181 +0800 CST m=+0.686998301 10 ====Disallow====== 2019-12-14 15:54:10.7462189 +0800 CST m=+0.766999101 11 ====Allow====== 2019-12-14 15:54:10.8272182 +0800 CST m=+0.847998401 12 ====Disallow====== 2019-12-14 15:54:10.9072192 +0800 CST m=+0.927999401 13 ====Allow====== 2019-12-14 15:54:10.9872224 +0800 CST m=+1.008002601 14 ====Disallow====== 2019-12-14 15:54:11.0672253 +0800 CST m=+1.088005501 15 ====Disallow====== 2019-12-14 15:54:11.1472946 +0800 CST m=+1.168074801
第二类方法:由于ReserveN比较复杂,第二类先说WaitN。
func (lim *Limiter) Wait(ctx context.Context) (err error) func (lim *Limiter) WaitN(ctx context.Context, n int) (err error)
相似Wait 是WaitN(ctx, 1)的简化方法。与AllowN不一样的是WaitN会阻塞,若是令牌桶内的令牌数不足N个,WaitN会阻塞一段时间,阻塞时间的时长能够用第一个参数ctx进行设置,把 context 实例为context.WithDeadline或context.WithTimeout进行制定阻塞的时长。
func WaitNDemo() { limter := rate.NewLimiter(10, 5) i := 0 for { i++ ctx, canle := context.WithTimeout(context.Background(), 400*time.Millisecond) if i == 6 { // 取消执行 canle() } err := limter.WaitN(ctx, 4) if err != nil { fmt.Println(err) continue } fmt.Println(i, ",执行:", time.Now()) if i == 10 { return } } }
执行结果:
1 ,执行:2019-12-14 15:45:15.538539 +0800 CST m=+0.011023401 2 ,执行:2019-12-14 15:45:15.8395195 +0800 CST m=+0.312003901 3 ,执行:2019-12-14 15:45:16.2396051 +0800 CST m=+0.712089501 4 ,执行:2019-12-14 15:45:16.6395169 +0800 CST m=+1.112001301 5 ,执行:2019-12-14 15:45:17.0385893 +0800 CST m=+1.511073701 context canceled 7 ,执行:2019-12-14 15:45:17.440514 +0800 CST m=+1.912998401 8 ,执行:2019-12-14 15:45:17.8405152 +0800 CST m=+2.312999601 9 ,执行:2019-12-14 15:45:18.2405402 +0800 CST m=+2.713024601 10 ,执行:2019-12-14 15:45:18.6405179 +0800 CST m=+3.113002301
适用于容许阻塞等待的场景,好比消费消息队列的消息,能够限定最大的消费速率,过大了就会被限流避免消费者负载太高。
第三类方法:
func (lim *Limiter) Reserve() *Reservation func (lim *Limiter) ReserveN(now time.Time, n int) *Reservation
与以前的两类方法不一样的是Reserve/ReserveN返回了Reservation实例。Reservation在API文档中有5个方法:
func (r *Reservation) Cancel() // 至关于CancelAt(time.Now()) func (r *Reservation) CancelAt(now time.Time) func (r *Reservation) Delay() time.Duration // 至关于DelayFrom(time.Now()) func (r *Reservation) DelayFrom(now time.Time) time.Duration func (r *Reservation) OK() bool
经过这5个方法可让开发者根据业务场景进行操做,相比前两类的自动化,这样的操做显得复杂多了。经过一个小示例来学习Reserve/ReserveN:
func ReserveNDemo() { limter := rate.NewLimiter(10, 5) i := 0 for { i++ reserve := limter.ReserveN(time.Now(), 4) // 若是为flase说明拿不到指定数量的令牌,好比须要的令牌数大于令牌桶容量的场景 if !reserve.OK() { return } ts := reserve.Delay() time.Sleep(ts) fmt.Println("执行:", time.Now(),ts) if i == 10 { return } } }
执行结果:
执行:2019-12-14 16:22:26.6446468 +0800 CST m=+0.008000201 0s 执行:2019-12-14 16:22:26.9466454 +0800 CST m=+0.309998801 247.999299ms 执行:2019-12-14 16:22:27.3446473 +0800 CST m=+0.708000701 398.001399ms 执行:2019-12-14 16:22:27.7456488 +0800 CST m=+1.109002201 399.999499ms 执行:2019-12-14 16:22:28.1456465 +0800 CST m=+1.508999901 398.997999ms 执行:2019-12-14 16:22:28.5456457 +0800 CST m=+1.908999101 399.0003ms 执行:2019-12-14 16:22:28.9446482 +0800 CST m=+2.308001601 399.001099ms 执行:2019-12-14 16:22:29.3446524 +0800 CST m=+2.708005801 399.998599ms 执行:2019-12-14 16:22:29.7446514 +0800 CST m=+3.108004801 399.9944ms 执行:2019-12-14 16:22:30.1446475 +0800 CST m=+3.508000901 399.9954ms
若是在执行Delay()以前操做Cancel()那么返回的时间间隔就会为0,意味着能够当即执行操做,不进行限流。
func ReserveNDemo2() { limter := rate.NewLimiter(5, 5) i := 0 for { i++ reserve := limter.ReserveN(time.Now(), 4) // 若是为flase说明拿不到指定数量的令牌,好比须要的令牌数大于令牌桶容量的场景 if !reserve.OK() { return } if i == 6 || i == 5 { reserve.Cancel() } ts := reserve.Delay() time.Sleep(ts) fmt.Println(i, "执行:", time.Now(), ts) if i == 10 { return } } }
执行结果:
1 执行:2019-12-14 16:25:45.7974857 +0800 CST m=+0.007005901 0s 2 执行:2019-12-14 16:25:46.3985135 +0800 CST m=+0.608033701 552.0048ms 3 执行:2019-12-14 16:25:47.1984796 +0800 CST m=+1.407999801 798.9722ms 4 执行:2019-12-14 16:25:47.9975269 +0800 CST m=+2.207047101 799.0061ms 5 执行:2019-12-14 16:25:48.7994803 +0800 CST m=+3.009000501 799.9588ms 6 执行:2019-12-14 16:25:48.7994803 +0800 CST m=+3.009000501 0s 7 执行:2019-12-14 16:25:48.7994803 +0800 CST m=+3.009000501 0s 8 执行:2019-12-14 16:25:49.5984782 +0800 CST m=+3.807998401 798.0054ms 9 执行:2019-12-14 16:25:50.3984779 +0800 CST m=+4.607998101 799.0075ms 10 执行:2019-12-14 16:25:51.1995131 +0800 CST m=+5.409033301 799.0078ms
看到这里time/rate的限流方式已经完成,除了上述的三类限流方式,time/rate还提供了动态调整限流器参数的功能。相关API以下:
func (lim *Limiter) SetBurst(newBurst int) // 至关于SetBurstAt(time.Now(), newBurst). func (lim *Limiter) SetBurstAt(now time.Time, newBurst int)// 重设令牌桶的容量 func (lim *Limiter) SetLimit(newLimit Limit) // 至关于SetLimitAt(time.Now(), newLimit) func (lim *Limiter) SetLimitAt(now time.Time, newLimit Limit)// 重设放入令牌的速率
这四个方法可让程序根据自身的状态动态的调整令牌桶速率和令牌桶容量。
结尾
经过上述一系列讲解,相信你们对各个限流的应用场景和优缺点也有了大体的掌握,但愿在平常开发中有所帮助。限流仅仅是整个服务治理中的一个小环节,须要与多种技术结合使用,才能够更好的提高服务的稳定性的同时提升用户体验。
原文:https://mp.weixin.qq.com/s/HTQoAo1hVNBn7sNOveReCA