话说,有这样一个场景,就是客户送不断发送消息,须要服务端异步处理。git
一个一个的处理未免有些浪费资源,更好的方法是批量处理。github
当消息量特别大时,使用kafka之类的message queue天然是首选,但更多的时候,咱们想用更加轻量的方案来解决这个问题。golang
下面来详细分析一下技术需求,这个方案须要实现如下几点:并发
基于这样的需求,我快速的实现了第一步,消息聚合后处理。app
var (
eventQueue = make(chan interface{}, 4)
batchSize = 8
workers = 2
batchProcessor = func(messages []interface{}) {
fmt.Printf("%+v \n", messages)
}
)
for i := 0; i < workers; i++ {
go func() {
var batch []interface{}
for {
msg := <-eventQueue
batch = append(batch, msg)
if len(batch) == batchSize {
batchProcessor(batch)
batch = make([]interface{}, 0)
}
}
}()
}
for i := 0; i < 100; i++ {
eventQueue <- i
}
复制代码
代码虽然简单,可是核心已经有了。异步
下一步就是添加延迟处理,和错误处理了。高并发
var (
eventQueue = make(chan interface{}, 4)
batchSize = 8
workers = 2
lingerTime = 14 * time.Millisecond
batchProcessor = func(batch []interface{}) error {
fmt.Printf("%+v \n", batch)
return nil
}
errHandler = func(err error, batch []interface{}) {
fmt.Println("some error happens")
}
)
for i := 0; i < workers; i++ {
go func() {
var batch []interface{}
lingerTimer := time.NewTimer(0)
if !lingerTimer.Stop() {
<-lingerTimer.C
}
defer lingerTimer.Stop()
for {
select {
case msg := <-eventQueue:
batch = append(batch, msg)
if len(batch) != batchSize {
if len(batch) == 1 {
lingerTimer.Reset(lingerTime)
}
break
}
if err := batchProcessor(batch); err != nil {
errHandler(err, batch)
}
if !lingerTimer.Stop() {
<-lingerTimer.C
}
batch = make([]interface{}, 0)
case <-lingerTimer.C:
if err := batchProcessor(batch); err != nil {
errHandler(err, batch)
}
batch = make([]interface{}, 0)
}
}
}()
}
for i := 0; i < 100; i++ {
eventQueue <- i
time.Sleep(1 * time.Millisecond)
}
复制代码
虽然只多加了两个点,代码明显复杂了许多,这其实也是不少库的成长过程吧。工具
一开始专一解决核心问题时,代码还很清晰,当功能逐渐扩展后,代码行数快速增长。ui
这时,若是抓不住核心,很容易迷失在代码中。关于这一点,相信你们在加入一个新的项目,或者看一些成熟项目的源码时都有同感。(这也是为何我把不一样阶段的代码都列出来的缘由,不知各位看官意下如何)spa
言归正传,关于代码中为何使用time.Timer而不是time.After,是由于time.After在for select中使用时,会发生内存泄露。 具体分析,请查看golang time.After内存泄露问题分析和GOLANG中time.After释放的问题。
因此说呀,代码写的越多,越容易出bug,可是功能不完善,代码仍是要写的。
实现到这里,当个原型是绰绰有余了,可是要做为一个通用的库,还有不少功能要作,好比说:自定义配置。
最终版的代码,很少很多,正好200行,就不贴过来。有兴趣的同窗,请点击Aggregator.go查看。
最后,Aggregator收录在我开源的channelx仓库中,这个库目的是使用channel实现各类好用的轻量级工具。若是有你喜欢用的工具,欢迎点个赞或者star :)