亿级Web系统搭建――单机到分布式集群 转载

当一个Web系统从日访问量10万逐步增加到1000万,甚至超过1亿的过程当中,Web系统承受的压力会愈来愈大,在这个过程当中,咱们会遇到不少的问题。为了解决这些性能压力带来问题,咱们须要在Web系统架构层面搭建多个层次的缓存机制。在不一样的压力阶段,咱们会遇到不一样的问题,经过搭建不一样的服务和架构来解决。html

Web负载均衡 

Web负载均衡(Load Balancing),简单地说就是给咱们的服务器集群分配“工做任务”,而采用恰当的分配方式,对于保护处于后端的Web服务器来讲,很是重要。前端

负载均衡的策略有不少,咱们从简单的讲起哈。redis

1. HTTP重定向sql

当用户发来请求的时候,Web服务器经过修改HTTP响应头中的Location标记来返回一个新的url,而后浏览器再继续请求这个新url,实际上就是页面重定向。经过重定向,来达到“负载均衡”的目标。例如,咱们在下载PHP源码包的时候,点击下载连接时,为了解决不一样国家和地域下载速度的问题,它会返回一个离咱们近的下载地址。重定向的HTTP返回码是302,数据库

若是使用PHP代码来实现这个功能后端

这个重定向很是容易实现,而且能够自定义各类策略。可是,它在大规模访问量下,性能不佳。并且,给用户的体验也很差,实际请求发生重定向,增长了网络延时。浏览器

2. 反向代理负载均衡缓存

反向代理服务的核心工做主要是转发HTTP请求,扮演了浏览器端和后台Web服务器中转的角色。由于它工做在HTTP层(应用层),也就是网络七层结构中的第七层,所以也被称为“七层负载均衡”。能够作反向代理的软件不少,比较常见的一种是Nginx。服务器

Nginx是一种很是灵活的反向代理软件,能够自由定制化转发策略,分配服务器流量的权重等。反向代理中,常见的一个问题,就是Web服务器存储的session数据,由于通常负载均衡的策略都是随机分配请求的。同一个登陆用户的请求,没法保证必定分配到相同的Web机器上,会致使没法找到session的问题。swoole

解决方案主要有两种:

  1. 配置反向代理的转发规则,让同一个用户的请求必定落到同一台机器上(经过分析cookie),复杂的转发规则将会消耗更多的CPU,也增长了代理服务器的负担。
  2. 将session这类的信息,专门用某个独立服务来存储,例如redis/memchache,这个方案是比较推荐的。

反向代理服务,也是能够开启缓存的,若是开启了,会增长反向代理的负担,须要谨慎使用。这种负载均衡策略实现和部署很是简单,并且性能表现也比较好。可是,它有“单点故障”的问题,若是挂了,会带来不少的麻烦。并且,到了后期Web服务器继续增长,它自己可能成为系统的瓶颈。

3. IP负载均衡

IP负载均衡服务是工做在网络层(修改IP)和传输层(修改端口,第四层),比起工做在应用层(第七层)性能要高出很是多。原理是,他是对IP层的数据包的IP地址和端口信息进行修改,达到负载均衡的目的。这种方式,也被称为“四层负载均衡”。常见的负载均衡方式,是LVS(Linux Virtual Server,Linux虚拟服务),经过IPVS(IP Virtual Server,IP虚拟服务)来实现。

 

在负载均衡服务器收到客户端的IP包的时候,会修改IP包的目标IP地址或端口,而后原封不动地投递到内部网络中,数据包会流入到实际Web服务器。实际服务器处理完成后,又会将数据包投递回给负载均衡服务器,它再修改目标IP地址为用户IP地址,最终回到客户端。 

上述的方式叫LVS-NAT,除此以外,还有LVS-RD(直接路由),LVS-TUN(IP隧道),三者之间都属于LVS的方式,可是有必定的区别,篇幅问题,不赘叙。

IP负载均衡的性能要高出Nginx的反向代理不少,它只处理到传输层为止的数据包,并不作进一步的组包,而后直接转发给实际服务器。不过,它的配置和搭建比较复杂。

4. DNS负载均衡

DNS(Domain Name System)负责域名解析的服务,域名url其实是服务器的别名,实际映射是一个IP地址,解析过程,就是DNS完成域名到IP的映射。而一个域名是能够配置成对应多个IP的。所以,DNS也就能够做为负载均衡服务。


这种负载均衡策略,配置简单,性能极佳。可是,不能自由定义规则,并且,变动被映射的IP或者机器故障时很麻烦,还存在DNS生效延迟的问题。 

5. DNS/GSLB负载均衡

咱们经常使用的CDN(Content Delivery Network,内容分发网络)实现方式,其实就是在同一个域名映射为多IP的基础上更进一步,经过GSLB(Global Server Load Balance,全局负载均衡)按照指定规则映射域名的IP。通常状况下都是按照地理位置,将离用户近的IP返回给用户,减小网络传输中的路由节点之间的跳跃消耗。 


图中的“向上寻找”,实际过程是LDNS(Local DNS)先向根域名服务(Root Name Server)获取到顶级根的Name Server(例如.com的),而后获得指定域名的受权DNS,而后再得到实际服务器IP。

CDN在Web系统中,通常状况下是用来解决大小较大的静态资源(html/Js/Css/图片等)的加载问题,让这些比较依赖网络下载的内容,尽量离用户更近,提高用户体验。

例如,我访问了一张imgcache.gtimg.cn上的图片(腾讯的自建CDN,不使用qq.com域名的缘由是防止http请求的时候,带上了多余的cookie信息),我得到的IP是183.60.217.90。 

这种方式,和前面的DNS负载均衡同样,不只性能极佳,并且支持配置多种策略。可是,搭建和维护成本很是高。互联网一线公司,会自建CDN服务,中小型公司通常使用第三方提供的CDN。 

Web系统的缓存机制的创建和优化

刚刚咱们讲完了Web系统的外部网络环境,如今咱们开始关注咱们Web系统自身的性能问题。咱们的Web站点随着访问量的上升,会遇到不少的挑战,解决这些问题不只仅是扩容机器这么简单,创建和使用合适的缓存机制才是根本。

最开始,咱们的Web系统架构多是这样的,每一个环节,均可能只有1台机器。 

咱们从最根本的数据存储开始看哈。

1、 MySQL数据库内部缓存使用

MySQL的缓存机制,就从先从MySQL内部开始,下面的内容将以最多见的InnoDB存储引擎为主。

1. 创建恰当的索引

最简单的是创建索引,索引在表数据比较大的时候,起到快速检索数据的做用,可是成本也是有的。首先,占用了必定的磁盘空间,其中组合索引最突出,使用须要谨慎,它产生的索引甚至会比源数据更大。其次,创建索引以后的数据insert/update/delete等操做,由于须要更新原来的索引,耗时会增长。固然,实际上咱们的系统从整体来讲,是以select查询操做居多,所以,索引的使用仍然对系统性能有大幅提高的做用。

2. 数据库链接线程池缓存

若是,每个数据库操做请求都须要建立和销毁链接的话,对数据库来讲,无疑也是一种巨大的开销。为了减小这类型的开销,能够在MySQL中配置thread_cache_size来表示保留多少线程用于复用。线程不够的时候,再建立,空闲过多的时候,则销毁。 

其实,还有更为激进一点的作法,使用pconnect(数据库长链接),线程一旦建立在很长时间内都保持着。可是,在访问量比较大,机器比较多的状况下,这种用法极可能会致使“数据库链接数耗尽”,由于创建链接并不回收,最终达到数据库的max_connections(最大链接数)。所以,长链接的用法一般须要在CGI和MySQL之间实现一个“链接池”服务,控制CGI机器“盲目”建立链接数。 

创建数据库链接池服务,有不少实现的方式,PHP的话,我推荐使用swoole(PHP的一个网络通信拓展)来实现。

3. Innodb缓存设置(innodb_buffer_pool_size)

innodb_buffer_pool_size这是个用来保存索引和数据的内存缓存区,若是机器是MySQL独占的机器,通常推荐为机器物理内存的80%。在取表数据的场景中,它能够减小磁盘IO。通常来讲,这个值设置越大,cache命中率会越高。

4. 分库/分表/分区。

MySQL数据库表通常承受数据量在百万级别,再往上增加,各项性能将会出现大幅度降低,所以,当咱们预见数据量会超过这个量级的时候,建议进行分库/分表/分区等操做。最好的作法,是服务在搭建之初就设计为分库分表的存储模式,从根本上杜绝中后期的风险。不过,会牺牲一些便利性,例如列表式的查询,同时,也增长了维护的复杂度。不过,到了数据量千万级别或者以上的时候,咱们会发现,它们都是值得的。 

2、 MySQL数据库多台服务搭建

1台MySQL机器,其实是高风险的单点,由于若是它挂了,咱们Web服务就不可用了。并且,随着Web系统访问量继续增长,终于有一天,咱们发现1台MySQL服务器没法支撑下去,咱们开始须要使用更多的MySQL机器。当引入多台MySQL机器的时候,不少新的问题又将产生。

1. 创建MySQL主从,从库做为备份

这种作法纯粹为了解决“单点故障”的问题,在主库出故障的时候,切换到从库。不过,这种作法实际上有点浪费资源,由于从库实际上被闲着了。

2. MySQL读写分离,主库写,从库读。

两台数据库作读写分离,主库负责写入类的操做,从库负责读的操做。而且,若是主库发生故障,仍然不影响读的操做,同时也能够将所有读写都临时切换到从库中(须要注意流量,可能会由于流量过大,把从库也拖垮)。 

3. 主主互备。

两台MySQL之间互为彼此的从库,同时又是主库。这种方案,既作到了访问量的压力分流,同时也解决了“单点故障”问题。任何一台故障,都还有另一套可供使用的服务。 

不过,这种方案,只能用在两台机器的场景。若是业务拓展仍是很快的话,能够选择将业务分离,创建多个主主互备。

3、 MySQL数据库机器之间的数据同步

每当咱们解决一个问题,新的问题必然诞生在旧的解决方案上。当咱们有多台MySQL,在业务高峰期,极可能出现两个库之间的数据有延迟的场景。而且,网络和机器负载等,也会影响数据同步的延迟。咱们曾经遇到过,在日访问量接近1亿的特殊场景下,出现,从库数据须要数日才能同步追上主库的数据。这种场景下,从库基本失去效用了。

因而,解决同步问题,就是咱们下一步须要关注的点。

1. MySQL自带多线程同步

MySQL5.6开始支持主库和从库数据同步,走多线程。可是,限制也是比较明显的,只能以库为单位。MySQL数据同步是经过binlog日志,主库写入到binlog日志的操做,是具备顺序的,尤为当SQL操做中含有对于表结构的修改等操做,对于后续的SQL语句操做是有影响的。所以,从库同步数据,必须走单进程。

2. 本身实现解析binlog,多线程写入。

以数据库的表为单位,解析binlog多张表同时作数据同步。这样作的话,的确可以加快数据同步的效率,可是,若是表和表之间存在结构关系或者数据依赖的话,则一样存在写入顺序的问题。这种方式,可用于一些比较稳定而且相对独立的数据表。 

国内一线互联网公司,大部分都是经过这种方式,来加快数据同步效率。还有更为激进的作法,是直接解析binlog,忽略以表为单位,直接写入。可是这种作法,实现复杂,使用范围就更受到限制,只能用于一些场景特殊的数据库中(没有表结构变动,表和表之间没有数据依赖等特殊表)。 

4、 在Web服务器和数据库之间创建缓存

实际上,解决大访问量的问题,不能仅仅着眼于数据库层面。根据“二八定律”,80%的请求只关注在20%的热点数据上。所以,咱们应该创建Web服务器和数据库之间的缓存机制。这种机制,能够用磁盘做为缓存,也能够用内存缓存的方式。经过它们,将大部分的热点数据查询,阻挡在数据库以前。 

1. 页面静态化

用户访问网站的某个页面,页面上的大部份内容在很长一段时间内,可能都是没有变化的。例如一篇新闻报道,一旦发布几乎是不会修改内容的。这样的话,经过CGI生成的静态html页面缓存到Web服务器的磁盘本地。除了第一次,是经过动态CGI查询数据库获取以外,以后都直接将本地磁盘文件返回给用户。


在Web系统规模比较小的时候,这种作法看似完美。可是,一旦Web系统规模变大,例如当我有100台的Web服务器的时候。那样这些磁盘文件,将会有100份,这个是资源浪费,也很差维护。这个时候有人会想,能够集中一台服务器存起来,呵呵,不如看看下面一种缓存方式吧,它就是这样作的。

2. 单台内存缓存

经过页面静态化的例子中,咱们能够知道将“缓存”搭建在Web机器本机是很差维护的,会带来更多问题(实际上,经过PHP的apc拓展,可经过Key/value操做Web服务器的本机内存)。所以,咱们选择搭建的内存缓存服务,也必须是一个独立的服务。

内存缓存的选择,主要有redis/memcache。从性能上说,二者差异不大,从功能丰富程度上说,Redis更胜一筹。 

3. 内存缓存集群

当咱们搭建单台内存缓存完毕,咱们又会面临单点故障的问题,所以,咱们必须将它变成一个集群。简单的作法,是给他增长一个slave做为备份机器。可是,若是请求量真的不少,咱们发现cache命中率不高,须要更多的机器内存呢?所以,咱们更建议将它配置成一个集群。例如,相似redis cluster。

Redis cluster集群内的Redis互为多组主从,同时每一个节点均可以接受请求,在拓展集群的时候比较方便。客户端能够向任意一个节点发送请求,若是是它的“负责”的内容,则直接返回内容。不然,查找实际负责Redis节点,而后将地址告知客户端,客户端从新请求。 

对于使用缓存服务的客户端来讲,这一切是透明的。

 

内存缓存服务在切换的时候,是有必定风险的。从A集群切换到B集群的过程当中,必须保证B集群提早作好“预热”(B集群的内存中的热点数据,应该尽可能与A集群相同,不然,切换的一瞬间大量请求内容,在B集群的内存缓存中查找不到,流量直接冲击后端的数据库服务,极可能致使数据库宕机)。

4. 减小数据库“写”

上面的机制,都实现减小数据库的“读”的操做,可是,写的操做也是一个大的压力。写的操做,虽然没法减小,可是能够经过合并请求,来起到减轻压力的效果。这个时候,咱们就须要在内存缓存集群和数据库集群之间,创建一个修改同步机制。

先将修改请求生效在cache中,让外界查询显示正常,而后将这些sql修改放入到一个队列中存储起来,队列满或者每隔一段时间,合并为一个请求到数据库中更新数据库。 


除了上述经过改变系统架构的方式提高写的性能外,MySQL自己也能够经过配置参数innodb_flush_log_at_trx_commit来调整写入磁盘的策略。若是机器成本容许,从硬件层面解决问题,能够选择老一点的RAID(Redundant Arrays of independent Disks,磁盘列阵)或者比较新的SSD(Solid State Drives,固态硬盘)。

5. NoSQL存储

无论数据库的读仍是写,当流量再进一步上涨,终会达到“人力有穷时”的场景。继续加机器的成本比较高,而且不必定能够真正解决问题的时候。这个时候,部分核心数据,就能够考虑使用NoSQL的数据库。NoSQL存储,大部分都是采用key-value的方式,这里比较推荐使用上面介绍过Redis,Redis自己是一个内存cache,同时也能够当作一个存储来使用,让它直接将数据落地到磁盘。

这样的话,咱们就将数据库中某些被频繁读写的数据,分离出来,放在咱们新搭建的Redis存储集群中,又进一步减轻原来MySQL数据库的压力,同时由于Redis自己是个内存级别的Cache,读写的性能都会大幅度提高。 

 

国内一线互联网公司,架构上采用的解决方案不少是相似于上述方案,不过,使用的cache服务却不必定是Redis,他们会有更丰富的其余选择,甚至根据自身业务特色开发出本身的NoSQL服务。

6. 空节点查询问题

当咱们搭建完前面所说的所有服务,认为Web系统已经很强的时候。咱们仍是那句话,新的问题仍是会来的。空节点查询,是指那些数据库中根本不存在的数据请求。例如,我请求查询一个不存在人员信息,系统会从各级缓存逐级查找,最后查到到数据库自己,而后才得出查找不到的结论,返回给前端。由于各级cache对它无效,这个请求是很是消耗系统资源的,而若是大量的空节点查询,是能够冲击到系统服务的。

在我曾经的工做经历中,曾深受其害。所以,为了维护Web系统的稳定性,设计适当的空节点过滤机制,很是有必要。

咱们当时采用的方式,就是设计一张简单的记录映射表。将存在的记录存储起来,放入到一台内存cache中,这样的话,若是还有空节点查询,则在缓存这一层就被阻挡了。 

 

异地部署(地理分布式)

完成了上述架构建设以后,咱们的系统是否就已经足够强大了呢?答案固然是否认的哈,优化是无极限的。Web系统虽然表面上看,彷佛比较强大了,可是给予用户的体验却不必定是最好的。由于东北的同窗,访问深圳的一个网站服务,他仍是会感到一些网络距离上的慢。这个时候,咱们就须要作异地部署,让Web系统离用户更近。

1、 核心集中与节点分散

有玩过大型网游的同窗都会知道,网游是有不少个区的,通常都是按照地域来分,例如广东专区,北京专区。若是一个在广东的玩家,去北京专区玩,那么他会感受明显比在广东专区卡。实际上,这些大区的名称就已经说明了,它的服务器所在地,因此,广东的玩家去链接地处北京的服务器,网络固然会比较慢。

当一个系统和服务足够大的时候,就必须开始考虑异地部署的问题了。让你的服务,尽量离用户更近。咱们前面已经提到了Web的静态资源,能够存放在CDN上,而后经过DNS/GSLB的方式,让静态资源的分散“全国各地”。可是,CDN只解决的静态资源的问题,没有解决后端庞大的系统服务还只集中在某个固定城市的问题。

这个时候,异地部署就开始了。异地部署通常遵循:核心集中,节点分散。

  • 核心集中:实际部署过程当中,总有一部分的数据和服务存在不可部署多套,或者部署多套成本巨大。而对于这些服务和数据,就仍然维持一套,而部署地点选择一个地域比较中心的地方,经过网络内部专线来和各个节点通信。
  • 节点分散:将一些服务部署为多套,分布在各个城市节点,让用户请求尽量选择近的节点访问服务。

例如,咱们选择在上海部署为核心节点,北京,深圳,武汉,上海为分散节点(上海本身自己也是一个分散节点)。咱们的服务架构如图: 

须要补充一下的是,上图中上海节点和核心节点是同处于一个机房的,其余分散节点各自独立机房。 
国内有不少大型网游,都是大体遵循上述架构。它们会把数据量不大的用户核心帐号等放在核心节点,而大部分的网游数据,例如装备、任务等数据和服务放在地区节点里。固然,核心节点和地域节点之间,也有缓存机制。 

2、 节点容灾和过载保护

节点容灾是指,某个节点若是发生故障时,咱们须要创建一个机制去保证服务仍然可用。毫无疑问,这里比较常见的容灾方式,是切换到附近城市节点。假如系统的天津节点发生故障,那么咱们就将网络流量切换到附近的北京节点上。考虑到负载均衡,可能须要同时将流量切换到附近的几个地域节点。另外一方面,核心节点自身也是须要本身作好容灾和备份的,核心节点一旦故障,就会影响全国服务。

过载保护,指的是一个节点已经达到最大容量,没法继续接接受更多请求了,系统必须有一个保护的机制。一个服务已经满负载,还继续接受新的请求,结果极可能就是宕机,影响整个节点的服务,为了至少保障大部分用户的正常使用,过载保护是必要的。

解决过载保护,通常2个方向:

  • 拒绝服务,检测到满负载以后,就再也不接受新的链接请求。例如网游登入中的排队。
  • 分流到其余节点。这种的话,系统实现更为复杂,又涉及到负载均衡的问题。

小结

Web系统会随着访问规模的增加,渐渐地从1台服务器能够知足需求,一直成长为“庞然大物”的大集群。而这个Web系统变大的过程,实际上就是咱们解决问题的过程。在不一样的阶段,解决不一样的问题,而新的问题又诞生在旧的解决方案之上。

系统的优化是没有极限的,软件和系统架构也一直在快速发展,新的方案解决了老的问题,同时也带来新的挑战。

相关文章
相关标签/搜索