即时通信新手入门:一文读懂什么是Nginx?它可否实现IM的负载均衡?

本文引用了“蔷薇Nina”的“Nginx 相关介绍(Nginx是什么?能干吗?)”一文部份内容,感谢做者的无私分享。php

一、引言

 

Nginx(及其衍生产品)是目前被大量使用的服务端反向代理和负载均衡方案,从某种意义上来说,Nginx几乎是低成本、高负载Web服务端代名词。html

如此深刻人心的Nginx,不少人也想固然的认为,在IM或消息推送等场景下是否也能使用Nginx来解决负载均衡问题?mysql

另外,即时通信网的论坛和QQ群里也常常有人问起,Nginx是否能支持TCP、UDP、WebSocket的负载均衡?nginx

带着上面的疑问,咱们来开始本文的学习吧!算法

学习交流:sql

- 即时通信/推送技术开发交流4群:101279154[推荐]数据库

- 移动端IM开发入门文章:《新手入门一篇就够:从零开发移动端IM编程

(本文同步发布于:http://www.52im.net/thread-2600-1-1.html后端

二、相关文章

三、Nginx的产生

没有听过Nginx?那么必定听过它的"同行"Apache吧!Nginx同Apache同样都是一种WEB服务器。基于REST架构风格,以统一资源描述符(Uniform Resources Identifier)URI或者统一资源定位符(Uniform Resources Locator)URL做为沟通依据,经过HTTP协议提供各类网络服务。浏览器

然而,这些服务器在设计之初受到当时环境的局限,例如当时的用户规模,网络带宽,产品特色等局限而且各自的定位和发展都不尽相同。这也使得各个WEB服务器有着各自鲜明的特色。

Apache的发展时期很长,并且是毫无争议的世界第一大服务器。它有着不少优势:稳定、开源、跨平台等等。它出现的时间太长了,它兴起的年代,互联网产业远远比不上如今。因此它被设计为一个重量级的。它不支持高并发的服务器。在Apache上运行数以万计的并发访问,会致使服务器消耗大量内存。操做系统对其进行进程或线程间的切换也消耗了大量的CPU资源,致使HTTP请求的平均响应速度下降。

这些都决定了Apache不可能成为高性能WEB服务器,轻量级高并发服务器Nginx就应运而生了。

俄罗斯的工程师Igor Sysoev,他在为Rambler Media工做期间,使用C语言开发了Nginx。Nginx做为WEB服务器一直为Rambler Media提供出色而又稳定的服务。

 

▲ Igor Sysoev,Nginx的创始人

而后呢,Igor Sysoev将Nginx代码开源,而且赋予自由软件许可证。

因为如下缘由:

1)Nginx使用基于事件驱动架构,使得其能够支持数以百万级别的TCP链接;

2)高度的模块化和自由软件许可证使得第三方模块层出不穷(这是个开源的时代啊~);

3)Nginx是一个跨平台服务器,能够运行在Linux,Windows,FreeBSD,Solaris,AIX,Mac OS等操做系统上;

4)这些优秀的设计带来的是极大的稳定性。

因此,Nginx火了!

四、Nginx最多见的用途、用法、使用场景

4.1 概述

简而言之,Nginx是:

1)自由的、开源的、高性能的HTTP服务器和反向代理服务器;

2)也是一个IMAP、POP三、SMTP代理服务器;

3)能够做为一个HTTP服务器进行网站的发布处理;

4)能够做为反向代理进行负载均衡的实现。

4.2 什么是代理?

说到代理,首先咱们要明确一个概念,所谓代理就是一个表明、一个渠道。

此时就涉及到两个角色,一个是被代理角色,一个是目标角色,被代理角色经过这个代理访问目标角色完成一些任务的过程称为代理操做过程;如同生活中的专卖店~客人到adidas专卖店买了一双鞋,这个专卖店就是代理,被代理角色就是adidas厂家,目标角色就是用户。

4.3 什么是正向代理?

说反向代理以前,咱们先看看正向代理,正向代理也是你们最常接触的到的代理模式,咱们会从两个方面来讲关于正向代理的处理模式,分别从软件方面和生活方面来解释一下什么叫正向代理。

在现在的网络环境下,咱们若是因为技术须要要去访问国外的某些网站,此时你会发现位于国外的某网站咱们经过浏览器是没有办法访问的,此时你们可能都会用一个操做FQ进行访问,FQ的方式主要是找到一个能够访问国外网站的代理服务器,咱们将请求发送给代理服务器,代理服务器去访问国外的网站,而后将访问到的数据传递给咱们!

上述这样的代理模式称为正向代理:

1)正向代理最大的特色是客户端很是明确要访问的服务器地址;

2)服务器只清楚请求来自哪一个代理服务器,而不清楚来自哪一个具体的客户端;

3)正向代理模式屏蔽或者隐藏了真实客户端信息。

来看个示意图(我把客户端和正向代理框在一块,同属于一个环境,后面我有介绍):

 

客户端必须设置正向代理服务器,固然前提是要知道正向代理服务器的IP地址,还有代理程序的端口。

以下图所示:

 

总结来讲:正向代理,"它代理的是客户端,代客户端发出请求",是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),而后代理向原始服务器转交请求并将得到的内容返回给客户端。客户端必需要进行一些特别的设置才能使用正向代理。

正向代理的用途:

1)访问原来没法访问的资源,如Google;

2) 能够作缓存,加速访问资源;

3)对客户端访问受权,上网进行认证;

4)代理能够记录用户访问记录(上网行为管理),对外隐藏用户信息。

4.4 什么是反向代理?

明白了什么是正向代理,咱们继续看关于反向代理的处理方式。

举例如我大天朝的某宝网站,天天同时链接到网站的访问人数已经爆表,单个服务器远远不能知足人民日益增加的购买欲望了,此时就出现了一个你们耳熟能详的名词:分布式部署。

所谓分布式部署,也就是经过部署多台服务器来解决访问人数限制的问题。某宝网站中大部分功能也是直接使用Nginx进行反向代理实现的,而且经过封装Nginx和其余的组件以后起了个高大上的名字:Tengine,有兴趣的童鞋能够访问Tengine的官网查看具体的信息:http://tengine.taobao.org/

那么反向代理具体是经过什么样的方式实现的分布式的集群操做呢,咱们先看一个示意图(我把服务器和反向代理框在一块,同属于一个环境,后面我有介绍),以下图所示。

 

经过上述的图解你们就能够看清楚了:多个客户端给服务器发送的请求,Nginx服务器接收到以后,按照必定的规则分发给了后端的业务处理服务器进行处理了。此时~请求的来源也就是客户端是明确的,可是请求具体由哪台服务器处理的并不明确了,Nginx扮演的就是一个反向代理角色。

客户端是无感知代理的存在的,反向代理对外都是透明的,访问者并不知道本身访问的是一个代理。由于客户端不须要任何配置就能够访问。

反向代理,"它代理的是服务端,代服务端接收请求",主要用于服务器集群分布式部署的状况下,反向代理隐藏了服务器的信息。

反向代理的做用:

1)保证内网的安全,一般将反向代理做为公网访问地址,Web服务器是内网;

2)负载均衡,经过反向代理服务器来优化网站的负载。

典型的项目场景:

一般状况下,咱们在实际项目操做时,正向代理和反向代理颇有可能会存在在一个应用场景中,正向代理代理客户端的请求去访问目标服务器,目标服务器是一个反向单利服务器,反向代理了多台真实的业务处理服务器。

具体的拓扑图以下:

 

4.5 正向代码和反向代理的区别

截了一张图来讲明正向代理和反向代理两者之间的区别,以下图。

 

图解以下:

1)在正向代理中,Proxy和Client同属于一个LAN(图中方框内),隐藏了客户端信息;

2)在反向代理中,Proxy和Server同属于一个LAN(图中方框内),隐藏了服务端信息。

实际上,Proxy在两种代理中作的事情都是替服务器代为收发请求和响应,不过从结构上看正好左右互换了一下,因此把后出现的那种代理方式称为反向代理了。

4.6 Nginx的负载均衡技术

咱们已经明确了所谓代理服务器的概念,那么接下来,Nginx扮演了反向代理服务器的角色,它是以依据什么样的规则进行请求分发的呢?不用的项目应用场景,分发的规则是否能够控制呢?

这里提到的客户端发送的、Nginx反向代理服务器接收到的请求数量,就是咱们说的负载量。

请求数量按照必定的规则进行分发到不一样的服务器处理的规则,就是一种均衡规则。

因此~将服务器接收到的请求按照规则分发的过程,称为负载均衡。

负载均衡在实际项目操做过程当中,有硬件负载均衡和软件负载均衡两种,硬件负载均衡也称为硬负载,如F5负载均衡,相对造价昂贵成本较高,可是数据的稳定性安全性等等有很是好的保障,如中国移动中国联通这样的公司才会选择硬负载进行操做;更多的公司考虑到成本缘由,会选择使用软件负载均衡,软件负载均衡是利用现有的技术结合主机硬件实现的一种消息队列分发机制。

 

Nginx支持的负载均衡调度算法方式以下:

1)weight轮询(默认,经常使用):接收到的请求按照权重分配到不一样的后端服务器,即便在使用过程当中,某一台后端服务器宕机,Nginx会自动将该服务器剔除出队列,请求受理状况不会受到任何影响。 这种方式下,能够给不一样的后端服务器设置一个权重值(weight),用于调整不一样的服务器上请求的分配率;权重数据越大,被分配到请求的概率越大;该权重值,主要是针对实际工做环境中不一样的后端服务器硬件配置进行调整的。

2)ip_hash(经常使用):每一个请求按照发起客户端的ip的hash结果进行匹配,这样的算法下一个固定ip地址的客户端总会访问到同一个后端服务器,这也在必定程度上解决了集群部署环境下session共享的问题。

3)fair:智能调整调度算法,动态的根据后端服务器的请求处理到响应的时间进行均衡分配,响应时间短处理效率高的服务器分配到请求的几率高,响应时间长处理效率低的服务器分配到的请求少;结合了前二者的优势的一种调度算法。可是须要注意的是Nginx默认不支持fair算法,若是要使用这种调度算法,请安装upstream_fair模块。

4)url_hash:按照访问的url的hash结果分配请求,每一个请求的url会指向后端固定的某个服务器,能够在Nginx做为静态服务器的状况下提升缓存效率。一样要注意Nginx默认不支持这种调度算法,要使用的话须要安装Nginx的hash软件包。

五、Nginx对TCP、UDP、WebSocket的负载均衡支持

5.1 概述

准确地说,对于熟悉Nginx的使用者来说,上面的章节所介绍的内容都是针对Nginx最擅长的Http协议来说的,这也是Nginx最为成功的应用场景。随着Nginx的不断升级和进化,开发者们对于Nginx能支持更为底层的TCP、UDP以及HTML5里才出现的WebSocket协议颇为期待,好在这一切已经成真!

Nginx从1.3版开始支持WebSocket协议的反向代理(负载均衡),从1.9.0版本开始支持TCP协议反向代理(负载均衡),从1.9.13开始支持UDP协议反向代理(负载均衡)。

从原理上说,Nginx对于UDP或TCP的反向代理(负载均衡)是一致的,而WebSocket协议实际是就是TCP协议的应用层协议,所以本节咱们将介绍Nginx对TCP协议反向代理(负载均衡)的支持。

Nginx对于经典的HTTP协议,也就是咱们一般所说的“七层负载均衡”,它实际上工做在第七层“应用层”。而对于更为底层的TCP协议来讲,负载均衡就是咱们一般所说的“四层负载均衡”,工做在“网络层”和“传输层”。例如,LVS(Linux Virtual Server,Linux虚拟服务)和F5(一种硬件负载均衡设备),也是属于“四层负载均衡”。

 

5.2 TCP负载均衡的执行原理

当Nginx从监听端口收到一个新的客户端连接时,马上执行路由调度算法,得到指定须要链接的服务IP,而后建立一个新的上游链接,链接到指定服务器。

 

TCP负载均衡支持Nginx原有的调度算法,包括Round Robin(默认,轮询调度),哈希(选择一致)等。同时,调度信息数据也会和健壮性检测模块一块儿协做,为每一个链接选择适当的目标上游服务器。若是使用Hash负载均衡的调度方法,你可使用$remote_addr(客户端IP)来达成简单持久化会话(同一个客户端IP的链接,老是落到同一个服务server上)。

和其余upstream模块同样,TCP的stream模块也支持自定义负载均和的转发权重(配置“weight=2”),还有backup和down的参数,用于踢掉失效的上游服务器。max_conns参数能够限制一台服务器的TCP链接数量,根据服务器的容量来设置恰当的配置数值,尤为在高并发的场景下,能够达到过载保护的目的。

Nginx监控客户端链接和上游链接,一旦接收到数据,则Nginx会马上读取而且推送到上游链接,不会作TCP链接内的数据检测。Nginx维护一分内存缓冲区,用于客户端和上游数据的写入。若是客户端或者服务端传输了量很大的数据,缓冲区会适当增长内存的大小。

 

当Nginx收到任意一方的关闭链接通知,或者TCP链接被闲置超过了proxy_timeout配置的时间,链接将会被关闭。对于TCP长链接,咱们更应该选择适当的proxy_timeout的时间,同时,关注监听socke的so_keepalive参数,防止过早地断开链接。

 

5.3 服务健壮性监控

TCP负载均衡模块支持内置健壮性检测,一台上游服务器若是拒绝TCP链接超过proxy_connect_timeout配置的时间,将会被认为已经失效。在这种状况下,Nginx马上尝试链接upstream组内的另外一台正常的服务器。链接失败信息将会记录到Nginx的错误日志中。

 

若是一台服务器,反复失败(超过了max_fails或者fail_timeout配置的参数),Nginx也会踢掉这台服务器。服务器被踢掉60秒后,Nginx会偶尔尝试重连它,检测它是否恢复正常。若是服务器恢复正常,Nginx将它加回到upstream组内,缓慢加大链接请求的比例。

之所“缓慢加大”,由于一般一个服务都有“热点数据”,也就是说,80%以上甚至更多的请求,实际都会被阻挡在“热点数据缓存”中,真正执行处理的请求只有不多的一部分。在机器刚刚启动的时候,“热点数据缓存”实际上尚未创建,这个时候爆发性地转发大量请求过来,极可能致使机器没法“承受”而再次挂掉。以mysql为例子,咱们的mysql查询,一般95%以上都是落在了内存cache中,真正执行查询的并很少。

其实,不管是单台机器或者一个集群,在高并发请求场景下,重启或者切换,都存在这个风险。

解决的途径主要是两种:

1)请求逐步增长,从少到多,逐步积累热点数据,最终达到正常服务状态;

2)提早准备好“经常使用”的数据,主动对服务作“预热”,预热完成以后,再开放服务器的访问。

TCP负载均衡原理上和LVS等是一致的,工做在更为底层,性能会高于原来HTTP负载均衡很多。可是,不会比LVS更为出色,LVS被置于内核模块,而Nginx工做在用户态,并且,Nginx相对比较重。

六、Nginx可否实现IM的负载均衡?

6.1 概述

从上一节内容来看,Nginx是能够实现TCP、UDP、WebSocket协议的反向代码(负载均衡)的,既然如此,那么基于TCP、UDP或者WebSocket协议的IM聊天系统来讲,是否能经过Nginx直接实现IM的负载均衡呢?

要回答这个问题,咱们首先来不一样的长链接场景下,具体的数据走向状况。

为了方便叙述,如下基于TCP、UDP或者WebSocket协议实现的socket长链接,咱们简称为socket长链接。

6.2 Nginx所支持的长链接反向代理数据走向能力

对于利于Nginx实现的socket长链接,数据走向以下图所示:

 

如上图,即:

1)客户端经过Nginx反向代理到一台socket长链接服务器;

2)客户端能够与创建链接的socket长链接服务器进行双向通讯(即客户端->socket长链接服务器、和socket长链接服务器->客户端两个方向)。

简而言之,Nginx能实现的长链接数据走向能力为:

1)Client to Server方向(简称c2s):即客户端向长链接服务端发送数据的能力;

2)Server to Client方向(简称s2c):即长链接服务端向客户端发送数据的能力。

6.3 IM聊天软件须要的长链接数据走向能力

对于IM聊天应用来讲,必须具有的数据走向能力为:

1)Client to Server方向(简称c2s):即客户端向长链接服务端发送数据的能力;

2)Server to Client方向(简称s2c):即长链接服务端向客户端发送数据的能力;

3)Client to Client方向(简称c2c):即客户端向客户端发送数据的能力。

IM聊天应用中的3种数据走向,对应的典型功能逻辑场景:

1)Client to Server方向(简称c2s):一般用于客户端向IM长链接服务端发起指令,好比:发起加好友请求、发送一条陌生人聊天消息、发送一条群聊消息等;

2)Server to Client方向(简称s2c):一般用于服务端主动向客户端推送指令,好比:向客户端转达加好友请求、转发陌生人聊天消息、扩散写式的发送群聊消息(给全部群成员)、系统通知等;

3)Client to Client方向(简称c2c):即客户端向客户端发送数据的能力,好比:一条正常的好友聊天消息就是由客户端A发送给客户端B(固然这不必定是P2P技术实现)。

6.4 结论

显然,如上节所讲,Nginx所实现的TCP、UDP或者WebSocket协议的反向代理(负载均衡),只能实现c2s、s2c两种数据走向,而IM聊天应用中是必须须要c2s、s2c、c2c 共3种消息走向。对于c2c这种数据走向,显然是IM特有的场景需求,要让Nginx这种通用解决方案来提供,就有点牵强了。

咱们能够得出结论:咱们是没法经过Nginx直接实现IM的负载均衡的。

换句话讲,若是真能经过Nginx直接实现IM的负载均衡,那IM的服务端在处理高并发、高吞吐时,就能够像Http协议同样安逸啦!

6.5 例外

不过,对于即时通信网所关注的另外一技术范畴——消息推送系统(或相似系统),是彻底能够经过Nginx直接实现消息推送的负载均衡的,由于刚好消息推送系统也只须要c2s、s2c两种数据走向,并不须要c2c这种横向的数据交互。

附录:有关IM架构设计的文章

浅谈IM系统的架构设计
简述移动端IM开发的那些坑:架构设计、通讯协议和客户端
一套海量在线用户的移动端IM架构设计实践分享(含详细图文)
一套原创分布式即时通信(IM)系统理论架构方案
从零到卓越:京东客服即时通信系统的技术架构演进历程
蘑菇街即时通信/IM服务器开发之架构选择
腾讯QQ1.4亿在线用户的技术挑战和架构演进之路PPT
微信后台基于时间序的海量数据冷热分级架构设计实践
微信技术总监谈架构:微信之道——大道至简(演讲全文)
如何解读《微信技术总监谈架构:微信之道——大道至简》
快速裂变:见证微信强大后台架构从0到1的演进历程(一)
17年的实践:腾讯海量产品的技术方法论
移动端IM中大规模群消息的推送如何保证效率、实时性?
现代IM系统中聊天消息的同步和存储方案探讨
IM开发基础知识补课(二):如何设计大量图片文件的服务端存储架构?
IM开发基础知识补课(三):快速理解服务端数据库读写分离原理及实践建议
IM开发基础知识补课(四):正确理解HTTP短链接中的Cookie、Session和Token
WhatsApp技术实践分享:32人工程团队创造的技术神话
微信朋友圈千亿访问量背后的技术挑战和实践总结
王者荣耀2亿用户量的背后:产品定位、技术架构、网络方案等
IM系统的MQ消息中间件选型:Kafka仍是RabbitMQ?
腾讯资深架构师干货总结:一文读懂大型分布式系统设计的方方面面
以微博类应用场景为例,总结海量社交系统的架构设计步骤
快速理解高性能HTTP服务端的负载均衡技术原理
子弹短信光鲜的背后:网易云信首席架构师分享亿级IM平台的技术实践
知乎技术分享:从单机到2000万QPS并发的Redis高性能缓存实践之路
IM开发基础知识补课(五):通俗易懂,正确理解并用好MQ消息队列
微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)
微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)
新手入门:零基础理解大型分布式架构的演进历史、技术原理、最佳实践
一套高可用、易伸缩、高并发的IM群聊、单聊架构方案设计实践
阿里技术分享:深度揭秘阿里数据库技术方案的10年变迁史
阿里技术分享:阿里自研金融级数据库OceanBase的艰辛成长之路
社交软件红包技术解密(一):全面解密QQ红包技术方案——架构、技术实现等
社交软件红包技术解密(二):解密微信摇一摇红包从0到1的技术演进
社交软件红包技术解密(三):微信摇一摇红包雨背后的技术细节
社交软件红包技术解密(四):微信红包系统是如何应对高并发的
社交软件红包技术解密(五):微信红包系统是如何实现高可用性的
社交软件红包技术解密(六):微信红包系统的存储层架构演进实践
社交软件红包技术解密(七):支付宝红包的海量高并发技术实践
社交软件红包技术解密(八):全面解密微博红包技术方案
社交软件红包技术解密(九):谈谈手Q红包的功能逻辑、容灾、运维、架构等
即时通信新手入门:一文读懂什么是Nginx?它可否实现IM的负载均衡?
>> 更多同类文章 ……

(本文同步发布于:http://www.52im.net/thread-2600-1-1.html

相关文章
相关标签/搜索