上一篇文章“一分钟了解负载均衡的一切”引发了很多同窗的关注,评论中你们争论的比较多的一个技术点是接入层负载均衡技术,部分同窗持这样的观点:前端
1)nginx前端加入lvs和keepalived能够替代“DNS轮询”linux
2)F5能搞定接入层高可用、扩展性、负载均衡,能够替代“DNS轮询”nginx
“DNS轮询”到底是不是过期的技术,是否是能够被其余方案替代,接入层架构技术演进,是本文将要细致讨论的内容。web
nginx、lvs、keepalived、f五、DNS轮询,往往提到这些技术,每每讨论的是接入层的这样几个问题:后端
1)可用性:任何一台机器挂了,服务受不受影响浏览器
2)扩展性:可否经过增长机器,扩充系统的性能tomcat
3)反向代理+负载均衡:请求是否均匀分摊到后端的操做单元执行服务器
因为每一个技术人的背景和知识域不一样,上面那些名词缩写(运维的同窗再熟悉不过了),仍是花1分钟简单说明一下(详细请自行“百度”):架构
1)nginx:一个高性能的web-server和实施反向代理的软件负载均衡
2)lvs:Linux Virtual Server,使用集群技术,实如今linux操做系统层面的一个高性能、高可用、负载均衡服务器
3)keepalived:一款用来检测服务状态存活性的软件,经常使用来作高可用
4)f5:一个高性能、高可用、负载均衡的硬件设备(听上去和lvs功能差很少?)
5)DNS轮询:经过在DNS-server上对一个域名设置多个ip解析,来扩充web-server性能及实施负载均衡的技术
裸奔时代的架构图如上:
1)浏览器经过DNS-server,域名解析到ip
2)浏览器经过ip访问web-server
1)非高可用,web-server挂了整个系统就挂了
2)扩展性差,当吞吐量达到web-server上限时,没法扩容
注:单机不涉及负载均衡的问题
假设tomcat的吞吐量是1000次每秒,当系统总吞吐量达到3000时,如何扩容是首先要解决的问题,DNS轮询是一个很容易想到的方案:
此时的架构图如上:
1)多部署几份web-server,1个tomcat抗1000,部署3个tomcat就能抗3000
2)在DNS-server层面,域名每次解析到不一样的ip
1)零成本:在DNS-server上多配几个ip便可,功能也不收费
2)部署简单:多部署几个web-server便可,原系统架构不须要作任何改造
3)负载均衡:变成了多机,但负载基本是均衡的
1)非高可用:DNS-server只负责域名解析ip,这个ip对应的服务是否可用,DNS-server是不保证的,假设有一个web-server挂了,部分服务会受到影响
2)扩容非实时:DNS解析有一个生效周期
3)暴露了太多的外网ip
tomcat的性能较差,但nginx做为反向代理的性能就强多了,假设线上跑到1w,就比tomcat高了10倍,能够利用这个特性来作扩容:
此时的架构图如上:
1)站点层与浏览器层之间加入了一个反向代理层,利用高性能的nginx来作反向代理
2)nginx将http请求分发给后端多个web-server
1)DNS-server不须要动
2)负载均衡:经过nginx来保证
3)只暴露一个外网ip,nginx->tomcat之间使用内网访问
4)扩容实时:nginx内部可控,随时增长web-server随时实时扩容
5)可以保证站点层的可用性:任何一台tomcat挂了,nginx能够将流量迁移到其余tomcat
1)时延增长+架构更复杂了:中间多加了一个反向代理层
2)反向代理层成了单点,非高可用:tomcat挂了不影响服务,nginx挂了怎么办?
为了解决高可用的问题,keepalived出场了(以前的文章“使用shadow-master保证系统可用性”详细介绍过):
此时:
1)作两台nginx组成一个集群,分别部署上keepalived,设置成相同的虚IP,保证nginx的高可用
2)当一台nginx挂了,keepalived可以探测到,并将流量自动迁移到另外一台nginx上,整个过程对调用方透明
1)解决了高可用的问题
1)资源利用率只有50%
2)nginx仍然是接入单点,若是接入吞吐量超过的nginx的性能上限怎么办,例如qps达到了50000咧?
【scale up扩容方案(4)lvs/f5】
nginx毕竟是软件,性能比tomcat好,但总有个上限,超出了上限,仍是扛不住。
lvs就不同了,它实施在操做系统层面;f5的性能又更好了,它实施在硬件层面;它们性能比nginx好不少,例如每秒能够抗10w,这样能够利用他们来扩容,常见的架构图以下:
此时:
1)若是经过nginx能够扩展多个tomcat同样,能够经过lvs来扩展多个nginx
2)经过keepalived+VIP的方案能够保证可用性
99.9999%的公司到这一步基本就能解决接入层高可用、扩展性、负载均衡的问题。
这就完美了嘛?还有潜在问题么?
好吧,不论是使用lvs仍是f5,这些都是scale up的方案,根本上,lvs/f5仍是会有性能上限,假设每秒能处理10w的请求,一天也只能处理80亿的请求(10w秒吞吐量*8w秒),那万一系统的日PV超过80亿怎么办呢?(好吧,没几个公司要考虑这个问题)
【scale out扩容方案(5)DNS轮询】
如以前文章所述,水平扩展,才是解决性能问题的根本方案,可以经过加机器扩充性能的方案才具有最好的扩展性。
facebook,google,baidu的PV是否是超过80亿呢,它们的域名只对应一个ip么,终点又是起点,仍是得经过DNS轮询来进行扩容:
此时:
1)经过DNS轮询来线性扩展入口lvs层的性能
2)经过keepalived来保证高可用
3)经过lvs来扩展多个nginx
4)经过nginx来作负载均衡,业务七层路由
聊了这么多,稍微作一个简要的总结:
1)接入层架构要考虑的问题域为:高可用、扩展性、反向代理+扩展均衡
2)nginx、keepalived、lvs、f5能够很好的解决高可用、扩展性、反向代理+扩展均衡的问题
3)水平扩展scale out是解决扩展性问题的根本方案,DNS轮询是不能彻底被nginx/lvs/f5所替代的
末了,上一篇文章有同窗留言问58到家采用什么方案,58到家目前部署在阿里云上,前端购买了SLB服务(能够先粗暴的认为是一个lvs+keepalived的高可用负载均衡服务),后端是nginx+tomcat。
接入层讲了这么多,下一章,准备讲讲服务层“异构服务的负载均”(牛逼的机器应该分配更多的流量,如何作到?)。
但愿你们有收获,转发一篇文章只须要3秒钟,求3秒。
==【完】==