美团技术分享:深度解密美团的分布式ID生成算法

本文来自美团技术团队“照东”的分享,原题《Leaf——美团点评分布式ID生成系统》,收录时有勘误、修订并从新排版,感谢原做者的分享。html

一、引言

鉴于IM系统中聊天消息ID生成算法和生成策略的重要性(由于某种意义上来讲:聊天消息ID的优劣决定了IM应用层某些功能实现的难易度),因此即时通信网近期正在着重整理有关IM中的聊天消息ID算法方面的文章,包括微信团队的这篇《微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)》,以及融云分享的《融云技术分享:解密融云IM产品的聊天消息ID生成策略》一文。node

本文分享了美团系统中正在使用的两种ID生成算法:git

1)Leaf-segment方案:可生成全局惟1、全局有序的ID;
2)Leaf-snowflake方案:可生成全局惟1、局部有序的ID。github

对于美团的Leaf-segment这个ID生成方案,由于生成的ID全局惟1、全局有序,因此很是适合IM这种应用场景,这也是即时通信网整理并分享给社区的缘由。算法

友情提示:IM系统中的消息ID不一样于电商等传统信息系统,IM中的消息ID一般较少用于服务端架构中的检索目的(例外是:消息撤回等使用频率较低的功能中会用到),因此服务端架构中的ID查询性能上能够没必要追求极致(必竟IM消息对应于人的天然沟通,一般都是以时间为检索条件,好比离线消息拉取、群消息拉取、漫游消息拉取等),因此在学习诸如美团的ID生成算法时,没有必要生搬硬套,适度借鉴,按照IM系统的特性进行融会贯通地设计才是最佳实践。数据库

免责申明:本文来自美团官方技术团队的分享,仅用于技术交流学习和研究目的,请勿用于非法用途,文中如涉及商业秘密,请告之我处理!缓存

(本文同步发布于:http://www.52im.net/thread-27...安全

二、关于做者

照东:美团点评基础架构团队成员,主要参与美团大型分布式链路跟踪系统Mtrace和美团点评分布式ID生成系统Leaf的开发工做。曾就任于阿里巴巴,2016年7月加入美团。微信

三、相关文章

《融云技术分享:解密融云IM产品的聊天消息ID生成策略》
《微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)》
《微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)》网络

四、正文概述

在复杂分布式系统中,每每须要对大量的数据和消息进行惟一标识。如在美团点评的金融、支付、餐饮、酒店、猫眼电影等产品的系统中,数据日渐增加,对数据分库分表后须要有一个惟一ID来标识一条数据或消息,数据库的自增ID显然不能知足需求;特别一点的如订单、骑手、优惠券也都须要有惟一ID作标识。此时一个可以生成全局惟一ID的系统是很是必要的。

归纳下来,那业务系统对ID号的要求有哪些呢?

1)全局惟一性:不能出现重复的ID号,既然是惟一标识,这是最基本的要求;

2)趋势递增:在MySQL InnoDB引擎中使用的是汇集索引,因为多数RDBMS使用B-tree的数据结构来存储索引数据,在主键的选择上面咱们应该尽可能使用有序的主键保证写入性能;

3)单调递增:保证下一个ID必定大于上一个ID,例如事务版本号、IM聊天中的增量消息、排序等特殊需求;

4)信息安全:若是ID是连续的,恶意用户的扒取工做就很是容易作了,直接按照顺序下载指定URL便可;若是是订单号就更危险了,竞对能够直接知道咱们一天的单量。因此在一些应用场景下,会须要ID无规则、不规则。

上述123对应三类不一样的场景,3和4需求仍是互斥的,没法使用同一个方案知足。

同时除了对ID号码自身的要求,业务还对ID号生成系统的可用性要求极高,想象一下,若是ID生成系统瘫痪,整个美团点评支付、优惠券发券、骑手派单等关键动做都没法执行,这就会带来一场灾难。

由此总结下一个分布式ID生成系统应作到以下几点:

1)平均延迟和TP999延迟都要尽量低;

2)可用性5个9;

3)高QPS。

五、美团为何没用UUID?

UUID(Universally Unique Identifier)的标准型式包含32个16进制数字,以连字号分为五段,形式为8-4-4-4-12的36个字符,示例:550e8400-e29b-41d4-a716-446655440000,到目前为止业界一共有5种方式生成UUID,详情见IETF发布的UUID规范:《A Universally Unique IDentifier (UUID) URN Namespace》。

对于美团点评这些具体的业务系统来讲,UUID有如下优势和缺点。

优势:

性能很是高:本地生成,没有网络消耗。

缺点:

1)不易于存储:UUID太长,16字节128位,一般以36长度的字符串表示,不少场景不适用;

2)信息不安全:基于MAC地址生成UUID的算法可能会形成MAC地址泄露,这个漏洞曾被用于寻找梅丽莎病毒的制做者位置。

ID做为主键时在特定的环境会存在一些问题,好比作DB主键的场景下,UUID就很是不适用:

① MySQL官方有明确的建议主键要尽可能越短越好[4],36个字符长度的UUID不符合要求:

All indexes other than the clustered index are known as secondary indexes. In InnoDB, each record in a secondary index contains the primary key columns for the row, as well as the columns specified for the secondary index. InnoDB uses this primary key value to search for the row in the clustered index. If the primary key is long, the secondary indexes use more space, so it is advantageous to have a short primary key.

② 对MySQL索引不利:若是做为数据库主键,在InnoDB引擎下,UUID的无序性可能会引发数据位置频繁变更,严重影响性能。

总之,UUID有不少合适的应用场景,但对于美团点评相关的业务系统来讲,UUID显然不是最佳选择。

六、美团为何不直接用Snowflake算法?

6.1 SnowFlake算法原理
SnowFlake 算法,是 Twitter 开源的分布式 ID 生成算法。其核心思想就是:使用一个 64 bit 的 long 型的数字做为全局惟一 ID。

这 64 个 bit 中,其中 1 个 bit 是不用的,而后用其中的 41 bit 做为毫秒数,用 10 bit 做为工做机器 ID,12 bit 做为序列号。

SnowFlake的ID构成:
图片描述

SnowFlake的ID样本:
图片描述

给你们举个例子吧,如上图所示,好比下面那个 64 bit 的 long 型数字:

1)第一个部分,是 1 个 bit:0,这个是无心义的;

2)第二个部分,是 41 个 bit:表示的是时间戳;

3)第三个部分,是 5 个 bit:表示的是机房 ID,10001;

4)第四个部分,是 5 个 bit:表示的是机器 ID,1 1001;

5)第五个部分,是 12 个 bit:表示的序号,就是某个机房某台机器上这一毫秒内同时生成的 ID 的序号,0000 00000000。

① 1 bit:是不用的,为啥呢?

由于二进制里第一个 bit 为若是是 1,那么都是负数,可是咱们生成的 ID 都是正数,因此第一个 bit 统一都是 0。

② 41 bit:表示的是时间戳,单位是毫秒。

41 bit 能够表示的数字多达 2^41 - 1,也就是能够标识 2 ^ 41 - 1 个毫秒值,换算成年就是表示 69 年的时间。

③ 10 bit:记录工做机器 ID,表明的是这个服务最多能够部署在 2^10 台机器上,也就是 1024 台机器。

可是 10 bit 里 5 个 bit 表明机房 id,5 个 bit 表明机器 ID。意思就是最多表明 2 ^ 5 个机房(32 个机房),每一个机房里能够表明 2 ^ 5 个机器(32 台机器)。

④12 bit:这个是用来记录同一个毫秒内产生的不一样 ID。

12 bit 能够表明的最大正整数是 2 ^ 12 - 1 = 4096,也就是说能够用这个 12 bit 表明的数字来区分同一个毫秒内的 4096 个不一样的 ID。理论上snowflake方案的QPS约为409.6w/s,这种分配方式能够保证在任何一个IDC的任何一台机器在任意毫秒内生成的ID都是不一样的。

简单来讲,你的某个服务假设要生成一个全局惟一 ID,那么就能够发送一个请求给部署了 SnowFlake 算法的系统,由这个 SnowFlake 算法系统来生成惟一 ID。

1)这个 SnowFlake 算法系统首先确定是知道本身所在的机房和机器的,好比机房 ID = 17,机器 ID = 12;

2)接着 SnowFlake 算法系统接收到这个请求以后,首先就会用二进制位运算的方式生成一个 64 bit 的 long 型 ID,64 个 bit 中的第一个 bit 是无心义的;

3)接着 41 个 bit,就能够用当前时间戳(单位到毫秒),而后接着 5 个 bit 设置上这个机房 id,还有 5 个 bit 设置上机器 ID;

4)最后再判断一下,当前这台机房的这台机器上这一毫秒内,这是第几个请求,给此次生成 ID 的请求累加一个序号,做为最后的 12 个 bit。

最终一个 64 个 bit 的 ID 就出来了,相似于:
图片描述

这个算法能够保证说,一个机房的一台机器上,在同一毫秒内,生成了一个惟一的 ID。可能一个毫秒内会生成多个 ID,可是有最后 12 个 bit 的序号来区分开来。

下面咱们简单看看这个 SnowFlake 算法的一个代码实现,这就是个示例,你们若是理解了这个意思以后,之后能够本身尝试改造这个算法。

总之就是用一个 64 bit 的数字中各个 bit 位来设置不一样的标志位,区分每个 ID。

SnowFlake 算法的一个典型Java实现代码,能够参见文章中的第“6.5 方案四:SnowFlake 算法的思想分析”节:《通俗易懂:如何设计能支撑百万并发的数据库架构?》。

6.2 对于美团来讲,SnowFlake算法的优缺点
对于美团的业务系统来讲,这种方式的优缺点以下。

► 优势:

1)毫秒数在高位,自增序列在低位,整个ID都是趋势递增的;

2)不依赖数据库等第三方系统,以服务的方式部署,稳定性更高,生成ID的性能也是很是高的;

3)能够根据自身业务特性分配bit位,很是灵活。

► 缺点:

强依赖机器时钟,若是机器上时钟回拨,会致使发号重复或者服务会处于不可用状态。

► 应用举例——Mongdb的objectID:

MongoDB官方文档 ObjectID 能够算做是和snowflake相似方法,经过“时间+机器码+pid+inc”共12个字节,经过4+3+2+3的方式最终标识成一个24长度的十六进制字符。

七、数据库的自增ID对于美团来讲,也不合适
以MySQL举例,利用给字段设置auto_increment_increment和auto_increment_offset来保证ID自增,每次业务使用下列SQL读写MySQL获得ID号。

begin;

REPLACEINTOTickets64 (stub) VALUES('a');

SELECTLAST_INSERT_ID();

commit;

这种方案的优缺点以下。

优势:

1)很是简单,利用现有数据库系统的功能实现,成本小,有DBA专业维护;

2)ID号单调自增,能够实现一些对ID有特殊要求的业务。

缺点:

1)强依赖DB,当DB异常时整个系统不可用,属于致命问题。配置主从复制能够尽量的增长可用性,可是数据一致性在特殊状况下难以保证。主从切换时的不一致可能会致使重复发号;

2)ID发号性能瓶颈限制在单台MySQL的读写性能。

对于MySQL性能问题,可用以下方案解决:在分布式系统中能够多部署几台机器,每台机器设置不一样的初始值,且步长和机器数相等。好比有两台机器。设置步长step为2,TicketServer1的初始值为1(1,3,5,7,9,11…)、TicketServer2的初始值为2(2,4,6,8,10…)。这是Flickr团队在2010年撰文介绍的一种主键生成策略(详见:《Ticket Servers: Distributed Unique Primary Keys on the Cheap》)。以下所示,为了实现上述方案分别设置两台机器对应的参数,TicketServer1从1开始发号,TicketServer2从2开始发号,两台机器每次发号以后都递增2。

TicketServer1:

auto-increment-increment = 2

auto-increment-offset = 1

TicketServer2:

auto-increment-increment = 2

auto-increment-offset = 2

假设咱们要部署N台机器,步长需设置为N,每台的初始值依次为0,1,2…N-1那么整个架构就变成了以下图所示:

这种必读是后的架构貌似可以知足性能的需求,但有如下几个缺点:

1)系统水平扩展比较困难:好比定义好了步长和机器台数以后,若是要添加机器该怎么作?假设如今只有一台机器发号是1,2,3,4,5(步长是1),这个时候须要扩容机器一台。能够这样作:把第二台机器的初始值设置得比第一台超过不少,好比14(假设在扩容时间以内第一台不可能发到14),同时设置步长为2,那么这台机器下发的号码都是14之后的偶数。而后摘掉第一台,把ID值保留为奇数,好比7,而后修改第一台的步长为2。让它符合咱们定义的号段标准,对于这个例子来讲就是让第一台之后只能产生奇数。扩容方案看起来复杂吗?貌似还好,如今想象一下若是咱们线上有100台机器,这个时候要扩容该怎么作?简直是噩梦。因此系统水平扩展方案复杂难以实现;

2)ID没有了单调递增的特性:只能趋势递增,这个缺点对于通常业务需求不是很重要,能够容忍;

3)数据库压力仍是很大:每次获取ID都得读写一次数据库,只能靠堆机器来提升性能。

综合对比上述几种方案,每种方案都不彻底符合咱们的要求。因此美团创建了Leaf工程(Leaf这个名字是来自德国哲学家、数学家莱布尼茨的一句话: >There are no two identical leaves in the world > “世界上没有两片相同的树叶”),分别在上述第二种(Snowflake)和第三种(数据库自增ID)方案上作了相应的优化,实现了Leaf-snowflake和Leaf-segment方案。接下来,咱们详细介绍这两种方案的实现思路。

八、美团的Leaf-segment方案:可生成全局惟1、全局有序的ID

8.1 基本原理
美团的Leaf-segment方案,其实是在上面介绍的数据库自增ID方案上的一种改进方案,它可生成全局惟1、全局有序的ID,能够用于:事务版本号、IM聊天中的增量消息、全局排序等业务中。

美团的Leaf-segment对数据库自增ID方案作了以下改变:

1)原方案每次获取ID都得读写一次数据库,形成数据库压力大。改成利用proxy server批量获取,每次获取一个segment(step决定大小)号段的值。用完以后再去数据库获取新的号段,能够大大的减轻数据库的压力;

2)各个业务不一样的发号需求用biz_tag字段来区分,每一个biz-tag的ID获取相互隔离,互不影响。若是之后有性能需求须要对数据库扩容,不须要上述描述的复杂的扩容操做,只须要对biz_tag分库分表就行。

数据库表设计以下:

| Field | Type | Null| Key| Default| Extra |

| biz_tag | varchar(128) | NO| PRI | | |

| max_id | bigint(20) | NO| | 1 | |

| step | int(11) | NO| | NULL| |

| desc| varchar(256) | YES | | NULL| |

| update_time | timestamp| NO| | CURRENT_TIMESTAMP| onupdateCURRENT_TIMESTAMP|

重要字段说明:

biz_tag:用来区分业务;

max_id:表示该biz_tag目前所被分配的ID号段的最大值;

step:表示每次分配的号段长度。

原来获取ID每次都须要写数据库,如今只须要把step设置得足够大,好比1000。那么只有当1000个号被消耗完了以后才会去从新读写一次数据库。

读写数据库的频率从1减少到了1/step,大体架构以下图所示:

test_tag在第一台Leaf机器上是1~1000的号段,当这个号段用完时,会去加载另外一个长度为step=1000的号段,假设另外两台号段都没有更新,这个时候第一台机器新加载的号段就应该是3001~4000。

同时数据库对应的biz_tag这条数据的max_id会从3000被更新成4000,更新号段的SQL语句以下:

Begin

UPDATEtableSETmax_id=max_id+step WHEREbiz_tag=xxx

SELECTtag, max_id, step FROMtableWHEREbiz_tag=xxx

Commit

这种模式有如下优缺点。

优势:

1)Leaf服务能够很方便的线性扩展,性能彻底可以支撑大多数业务场景;

2)ID号码是趋势递增的8byte的64位数字,知足上述数据库存储的主键要求;

3)容灾性高:Leaf服务内部有号段缓存,即便DB宕机,短期内Leaf仍能正常对外提供服务;

4)能够自定义max_id的大小,很是方便业务从原有的ID方式上迁移过来。

缺点:

1)ID号码不够随机,可以泄露发号数量的信息,不太安全;

2)TP999数据波动大,当号段使用完以后仍是会hang在更新数据库的I/O上,tg999数据会出现偶尔的尖刺;

3)DB宕机会形成整个系统不可用。

8.2 双buffer优化
对于上述第二个缺点,Leaf-segment方案作了一些优化,简单的说就是:

Leaf 取号段的时机是在号段消耗完的时候进行的,也就意味着号段临界点的ID下发时间取决于下一次从DB取回号段的时间,而且在这期间进来的请求也会由于DB号段没有取回来,致使线程阻塞。若是请求DB的网络和DB的性能稳定,这种状况对系统的影响是不大的,可是假如取DB的时候网络发生抖动,或者DB发生慢查询就会致使整个系统的响应时间变慢。

为此,咱们但愿DB取号段的过程可以作到无阻塞,不须要在DB取号段的时候阻塞请求线程,即当号段消费到某个点时就异步的把下一个号段加载到内存中。而不须要等到号段用尽的时候才去更新号段。这样作就能够很大程度上的下降系统的TP999指标。

详细实现以下图所示:

采用双buffer的方式,Leaf服务内部有两个号段缓存区segment。当前号段已下发10%时,若是下一个号段未更新,则另启一个更新线程去更新下一个号段。当前号段所有下发完后,若是下个号段准备好了则切换到下个号段为当前segment接着下发,循环往复。

主要特性以下:

1)每一个biz-tag都有消费速度监控,一般推荐segment长度设置为服务高峰期发号QPS的600倍(10分钟),这样即便DB宕机,Leaf仍能持续发号10-20分钟不受影响;

2)每次请求来临时都会判断下个号段的状态,从而更新此号段,因此偶尔的网络抖动不会影响下个号段的更新。

8.3 高可用容灾
对于上述Leaf-segment算法缺点的第三点“DB可用性”问题:咱们目前采用一主两从的方式,同时分机房部署,Master和Slave之间采用半同步方式同步数据。同时使用公司Atlas数据库中间件(已开源,更名为 DBProxy)作主从切换。

固然这种方案在一些状况会退化成异步模式,甚至在很是极端状况下仍然会形成数据不一致的状况,可是出现的几率很是小。若是你的系统要保证100%的数据强一致,能够选择使用“类Paxos算法”实现的强一致MySQL方案,如MySQL 5.7前段时间刚刚GA的MySQL Group Replication。可是运维成本和精力都会相应的增长,根据实际状况选型便可。

同时Leaf服务分IDC部署,内部的服务化框架是“MTthrift RPC”。服务调用的时候,根据负载均衡算法会优先调用同机房的Leaf服务。在该IDC内Leaf服务不可用的时候才会选择其余机房的Leaf服务。同时服务治理平台OCTO还提供了针对服务的过载保护、一键截流、动态流量分配等对服务的保护措施。

不过,Leaf-segment方案虽好,但必竟不适用于全部场景。

Leaf-segment方案能够生成趋势递增的ID,同时ID号是可计算的,但不适用于订单ID生成场景。好比竞对在两天中午12点分别下单,经过订单id号相减就能大体计算出公司一天的订单量,这个是不能忍受的。面对这一问题,美团技术团队实现了 Leaf-snowflake这个方案,请继续读下文。

九、美团的Leaf-snowflake方案:可生成全局惟1、局部有序的ID

鉴于上节所说:Leaf-segment方案不适用于美团的订单号这种场景(Leaf-segment方案能够生成趋势递增的ID,同时ID号是可计算的,很容易被猜出美团每日的订单量这种商业秘密),因此Leaf-snowflake方案就应运而生了。

9.1 基本原理

严格来讲,Leaf-snowflake方案是Twittersnowflake改进版,它彻底沿用snowflake方案的bit位设计(如上图所示),便是“1+41+10+12”的方式组装ID号。

对于workerID的分配,当服务集群数量较小的状况下,彻底能够手动配置。Leaf服务规模较大,动手配置成本过高。因此使用Zookeeper持久顺序节点的特性自动对snowflake节点配置wokerID。

Leaf-snowflake是按照下面几个步骤启动的:

1)启动Leaf-snowflake服务,链接Zookeeper,在leaf_forever父节点下检查本身是否已经注册过(是否有该顺序子节点);

2)若是有注册过直接取回本身的workerID(zk顺序节点生成的int类型ID号),启动服务;

3)若是没有注册过,就在该父节点下面建立一个持久顺序节点,建立成功后取回顺序号当作本身的workerID号,启动服务。

9.2 弱依赖ZooKeeper
除了每次会去ZK拿数据之外,也会在本机文件系统上缓存一个workerID文件。当ZooKeeper出现问题,刚好机器出现问题须要重启时,能保证服务可以正常启动。这样作到了对三方组件的弱依赖。必定程度上提升了SLA。

9.3 解决时钟问题
由于这种方案依赖时间(见本文“六、美团为何不直接用Snowflake算法?”一节),若是机器的时钟发生了回拨,那么就会有可能生成重复的ID号,须要解决时钟回退的问题。

图片描述

参见上图整个启动流程图,服务启动时首先检查本身是否写过ZooKeeper leaf_forever节点:

1)若写过,则用自身系统时间与leaf_forever/${self}节点记录时间作比较,若小于leaf_forever/${self}时间则认为机器时间发生了大步长回拨,服务启动失败并报警;

2)若未写过,证实是新服务节点,直接建立持久节点leaf_forever/${self}并写入自身系统时间,接下来综合对比其他Leaf节点的系统时间来判断自身系统时间是否准确,具体作法是取leaf_temporary下的全部临时节点(全部运行中的Leaf-snowflake节点)的服务IP:Port,而后经过RPC请求获得全部节点的系统时间,计算sum(time)/nodeSize;

3)若abs( 系统时间-sum(time)/nodeSize ) < 阈值,认为当前系统时间准确,正常启动服务,同时写临时节点leaf_temporary/${self} 维持租约;

4)不然认为本机系统时间发生大步长偏移,启动失败并报警;

5)每隔一段时间(3s)上报自身系统时间写入leaf_forever/${self}。

因为强依赖时钟,对时间的要求比较敏感,在机器工做时NTP同步也会形成秒级别的回退,建议能够直接关闭NTP同步。要么在时钟回拨的时候直接不提供服务直接返回ERROR_CODE,等时钟追上便可。或者作一层重试,而后上报报警系统,更或者是发现有时钟回拨以后自动摘除自己节点并报警。

实现代码以下:

//发生了回拨,此刻时间小于上次发号时间

if(timestamp < lastTimestamp) {

longoffset = lastTimestamp - timestamp;

       if(offset <= 5) {

           try{

                   //时间误差大小小于5ms,则等待两倍时间

               wait(offset << 1);//wait

               timestamp = timeGen();

               if(timestamp < lastTimestamp) {

                  //仍是小于,抛异常并上报

                   throwClockBackwardsEx(timestamp);

                 }   

           } catch(InterruptedException e) { 

              throwe;

           }

       } else{

           //throw

           throwClockBackwardsEx(timestamp);

       }

   }

//分配ID

从上线状况来看,在2017年闰秒出现那一次出现过部分机器回拨,因为Leaf-snowflake的策略保证,成功避免了对业务形成的影响。

PS:网上已有人按照文章中Leaf-snowflake方案作了一个开源版本,能够学习一下,项目地址:https://github.com/weizhenyi/...。做者宣称的测试状况,TPS:1W+/sec,单机190秒生成了200W无重复,单调递增的long型整数ID。

十、本文小结

Leaf在美团点评公司内部服务包含金融、支付交易、餐饮、外卖、酒店旅游、猫眼电影等众多业务线。

目前Leaf的性能在4C8G的机器上QPS能压测到近5w/s,TP999 1ms,已经可以知足大部分的业务的需求。天天提供亿数量级的调用量,做为公司内部公共的基础技术设施,必须保证高SLA和高性能的服务,咱们目前还仅仅达到了及格线,还有不少提升的空间。

附录:更多IM开发热门技术文章

《新手入门一篇就够:从零开发移动端IM》
《移动端IM开发者必读(一):通俗易懂,理解移动网络的“弱”和“慢”》
《移动端IM开发者必读(二):史上最全移动弱网络优化方法总结》
《从客户端的角度来谈谈移动端IM的消息可靠性和送达机制》
《现代移动端网络短链接的优化手段总结:请求速度、弱网适应、安全保障》
《腾讯技术分享:社交网络图片的带宽压缩技术演进之路》
《小白必读:闲话HTTP短链接中的Session和Token》
《IM开发基础知识补课:正确理解前置HTTP SSO单点登录接口的原理》
《移动端IM中大规模群消息的推送如何保证效率、实时性?》
《移动端IM开发须要面对的技术问题》
《开发IM是本身设计协议用字节流好仍是字符流好?》
《请问有人知道语音留言聊天的主流实现方式吗?》
《IM消息送达保证机制实现(一):保证在线实时消息的可靠投递》
《IM消息送达保证机制实现(二):保证离线消息的可靠投递》
《如何保证IM实时消息的“时序性”与“一致性”?》
《一个低成本确保IM消息时序的方法探讨》
《IM单聊和群聊中的在线状态同步应该用“推”仍是“拉”?》
《IM群聊消息如此复杂,如何保证不丢不重?》
《谈谈移动端 IM 开发中登陆请求的优化》
《移动端IM登陆时拉取数据如何做到省流量?》
《浅谈移动端IM的多点登录和消息漫游原理》
《彻底自已开发的IM该如何设计“失败重试”机制?》
《通俗易懂:基于集群的移动端IM接入层负载均衡方案分享》
《微信对网络影响的技术试验及分析(论文全文)》
《即时通信系统的原理、技术和应用(技术论文)》
《开源IM工程“蘑菇街TeamTalk”的现状:一场虎头蛇尾的开源秀》
《QQ音乐团队分享:Android中的图片压缩技术详解(上篇)》
《QQ音乐团队分享:Android中的图片压缩技术详解(下篇)》
《腾讯原创分享(一):如何大幅提高移动网络下手机QQ的图片传输速度和成功率》
《腾讯原创分享(二):如何大幅压缩移动网络下APP的流量消耗(上篇)》
《腾讯原创分享(三):如何大幅压缩移动网络下APP的流量消耗(下篇)》
《如约而至:微信自用的移动端IM网络层跨平台组件库Mars已正式开源》
《基于社交网络的Yelp是如何实现海量用户图片的无损压缩的?》
《腾讯技术分享:腾讯是如何大幅下降带宽和网络流量的(图片压缩篇)》
《腾讯技术分享:腾讯是如何大幅下降带宽和网络流量的(音视频技术篇)》
《字符编码那点事:快速理解ASCII、Unicode、GBK和UTF-8》
《全面掌握移动端主流图片格式的特色、性能、调优等》
《子弹短信光鲜的背后:网易云信首席架构师分享亿级IM平台的技术实践》
《IM开发基础知识补课(五):通俗易懂,正确理解并用好MQ消息队列》
《微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)》
《自已开发IM有那么难吗?手把手教你自撸一个Andriod版简易IM (有源码)》
《融云技术分享:解密融云IM产品的聊天消息ID生成策略》

(本文同步发布于:http://www.52im.net/thread-27...

相关文章
相关标签/搜索