转自:http://saiyaren.iteye.com/blog/1914865前端
(1) 结论nginx
详细描述了nginx记录失效节点的6种状态(time out、connect refuse、500、50二、50三、504,后四项5XX须要配置proxy_next_upstream中的状态才能够生效)、失效节点的触发条件和节点的恢复条件、全部节点失效后nginx会进行恢复并进行从新监听。算法
(2) Nginx 负载均衡方式介绍后端
Nginx的负载均衡方式一共有4种:rr(轮询模式)、ip_hash、fair、url_hash。centos
(3) Ngxin负载均衡和相关反向代理配置内容缓存
Nginx负载均衡和与容错相关的反向代理的配置。tomcat
(4) 获取后端流程服务器
后端server的自动容错流程图。网络
(5) 测试环境和测试结果session
针对几种错误方式进行自动容错测试。
(1) nginx 判断节点失效状态
Nginx 默认判断失败节点状态以connect refuse和time out状态为准,不以HTTP错误状态进行判断失败,由于HTTP只要能返回状态说明该节点还能够正常链接,因此nginx判断其仍是存活状态;除非添加了proxy_next_upstream指令设置对40四、50二、50三、50四、500和time out等错误进行转到备机处理,在next_upstream过程当中,会对fails进行累加,若是备用机处理仍是错误则直接返回错误信息(但404不进行记录到错误数,若是不配置错误状态也不对其进行错误状态记录),综述,nginx记录错误数量只记录timeout 、connect refuse、50二、500、50三、504这6种状态,timeout和connect refuse是永远被记录错误状态,而50二、500、50三、504只有在配置proxy_next_upstream后nginx才会记录这4种HTTP错误到fails中,当fails大于等于max_fails时,则该节点失效;
(2) nginx 处理节点失效和恢复的触发条件
nginx能够经过设置max_fails(最大尝试失败次数)和fail_timeout(失效时间,在到达最大尝试失败次数后,在fail_timeout的时间范围内节点被置为失效,除非全部节点都失效,不然该时间内,节点不进行恢复)对节点失败的尝试次数和失效时间进行设置,当超过最大尝试次数或失效时间未超过配置失效时间,则nginx会对节点状会置为失效状态,nginx不对该后端进行链接,直到超过失效时间或者全部节点都失效后,该节点从新置为有效,从新探测;
(3) 全部节点失效后nginx将从新恢复全部节点进行探测
若是探测全部节点均失效,备机也为失效时,那么nginx会对全部节点恢复为有效,从新尝试探测有效节点,若是探测到有效节点则返回正确节点内容,若是仍是所有错误,那么继续探测下去,当没有正确信息时,节点失效时默认返回状态为502,可是下次访问节点时会继续探测正确节点,直到找到正确的为止。
Nginx的负载均衡方式一共有4种:rr(轮询模式)、ip_hash、fair、url_hash;
Nginx自带的2种负载均衡为rr和ip_hash,fair和url_hash为第三方的插件,nginx在不配置负载均衡的模式下,默认采用rr负载均衡模式。
l RR负载均衡模式:
每一个请求按时间顺序逐一分配到不一样的后端服务器,若是超过了最大失败次数后(max_fails,默认1),在失效时间内(fail_timeout,默认10秒),该节点失效权重变为0,超过失效时间后,则恢复正常,或者所有节点都为down后,那么将全部节点都恢复为有效继续探测,通常来讲rr能够根据权重来进行均匀分配。
l Ip_hash负载均衡模式:
每一个请求按访问ip的hash结果分配,这样每一个访客固定访问一个后端服务器,能够解决session的问题,可是ip_hash会形成负载不均,有的服务请求接受多,有的服务请求接受少,因此不建议采用ip_hash模式,session共享问题可用后端服务的session共享代替nginx的ip_hash。
l Fair(第三方)负载均衡模式:
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
l url_hash(第三方)负载均衡模式:
和ip_hash算法相似,是对每一个请求按url的hash结果分配,使每一个URL定向到一个同 一个后端服务器,可是也会形成分配不均的问题,这种模式后端服务器为缓存时比较好。
Nginx的负载均衡采用的是upstream模块
其中默认的采用的负载均衡模式是轮询模式rr(round_robin),具体配置以下:
语法:ip_hash
默认值:none
使用字段:upstream
这个指令将基于客户端链接的IP地址来分发请求。
哈希的关键字是客户端的C类网络地址,这个功能将保证这个客户端请求老是被转发到一台服务器上,可是若是这台服务器不可用,那么请求将转发到另外的服务器上,这将保证某个客户端有很大几率老是链接到一台服务器。
没法将权重(weight)与ip_hash联合使用来分发链接。若是有某台服务器不可用,你必须标记其为“down”,以下例:
upstream backend {
ip_hash;
server backend1.example.com;
server backend2.example.com;
server backend3.example.com down;
server backend4.example.com;
}
语法:server name [parameters]
默认值:none
使用字段:upstream
指定后端服务器的名称和一些参数,可使用域名,IP,端口,或者unix socket。若是指定为域名,则首先将其解析为IP。
l weight = NUMBER - 设置服务器权重,默认为1。
l max_fails = NUMBER - 在必定时间内(这个时间在fail_timeout参数中设置)检查这个服务器是否可用时产生的最多失败请求数,默认为1,将其设置为0能够关闭检查,这些错误在proxy_next_upstream或fastcgi_next_upstream(404错误不会使max_fails增长)中定义。
l fail_timeout = TIME - 在这个时间内产生了max_fails所设置大小的失败尝试链接请求后这个服务器可能不可用,一样它指定了服务器不可用的时间(在下一次尝试链接请求发起以前),默认为10秒,fail_timeout与前端响应时间没有直接关系,不过可使用proxy_connect_timeout和proxy_read_timeout来控制。
l down - 标记服务器处于离线状态,一般和ip_hash一块儿使用。
l backup - (0.6.7或更高)若是全部的非备份服务器都宕机或繁忙,则使用本服务器(没法和ip_hash指令搭配使用)。
示例配置
upstream backend {
server backend1.example.com weight=5;
server 127.0.0.1:8080 max_fails=3 fail_timeout=30s;
server unix:/tmp/backend3;
}
注意:若是你只使用一台上游服务器,nginx将设置一个内置变量为1,即max_fails和fail_timeout参数不会被处理。
结果:若是nginx不能链接到上游,请求将丢失。
解决:使用多台上游服务器。
语法:upstream name { … }
默认值:none
使用字段:http
这个字段设置一群服务器,能够将这个字段放在proxy_pass和fastcgi_pass指令中做为一个单独的实体,它们能够能够是监听不一样端口的服务器,而且也能够是同时监听TCP和Unix socket的服务器。
服务器能够指定不一样的权重,默认为1。
示例配置
upstream backend {
server backend1.example.com weight=5;
server 127.0.0.1:8080 max_fails=3 fail_timeout=30s;
server unix:/tmp/backend3;
}
请求将按照轮询的方式分发到后端服务器,但同时也会考虑权重。
在上面的例子中若是每次发生7个请求,5个请求将被发送到backend1.example.com,其余两台将分别获得一个请求,若是有一台服务器不可用,那么请求将被转发到下一台服务器,直到全部的服务器检查都经过。若是全部的服务器都没法经过检查,那么将返回给客户端最后一台工做的服务器产生的结果。
版本0.5.18之后,能够经过log_module中的变量来记录日志:
log_format timing '$remote_addr - $remote_user [$time_local] $request '
'upstream_response_time $upstream_response_time '
'msec $msec request_time $request_time';
log_format up_head '$remote_addr - $remote_user [$time_local] $request '
'upstream_http_content_type $upstream_http_content_type';
l $upstream_addr
前端服务器处理请求的服务器地址
l $upstream_cache_status
0.8.3版本中其值可能为:
MISS
EXPIRED - expired。请求被传送到后端。
UPDATING - expired。因为proxy/fastcgi_cache_use_stale正在更新,将使用旧的应答。
STALE - expired。因为proxy/fastcgi_cache_use_stale,后端将获得过时的应答。
HIT
l $upstream_status
前端服务器的响应状态。
l $upstream_response_time
前端服务器的应答时间,精确到毫秒,不一样的应答以逗号和冒号分开。
l $upstream_http_$HEADER
随意的HTTP协议头,如:$upstream_http_host
l $upstream_http_host
语法:proxy_next_upstream
[error|timeout|invalid_header|http_500|http_502|http_503|http_504|http_404|off]
默认值:proxy_next_upstream error timeout
使用字段:http, server, location
肯定在何种状况下请求将转发到下一个服务器:
error - 在链接到一个服务器,发送一个请求,或者读取应答时发生错误。
timeout - 在链接到服务器,转发请求或者读取应答时发生超时。
invalid_header - 服务器返回空的或者错误的应答。
http_500 - 服务器返回500代码。
http_502 - 服务器返回502代码。
http_503 - 服务器返回503代码。
http_504 - 服务器返回504代码。
http_404 - 服务器返回404代码。
off - 禁止转发请求到下一台服务器。
转发请求只发生在没有数据传递到客户端的过程当中。
其中记录到nginx后端错误数量的有500、50二、50三、50四、timeout,404不记录错误。
语法:proxy_connect_timeout timeout_in_seconds
默认值:proxy_connect_timeout 60s
使用字段:http, server, location
指定一个链接到代理服务器的超时时间,单位为秒,须要注意的是这个时间最好不要超过75秒。
这个时间并非指服务器传回页面的时间(这个时间由proxy_read_timeout声明)。若是你的前端代理服务器是正常运行的,可是遇到一些情况(例如没有足够的线程去处理请求,请求将被放在一个链接池中延迟处理),那么这个声明无助于服务器去创建链接。
能够经过指定时间单位以避免引发混乱,支持的时间单位有”s”(秒), “ms”(毫秒), “y”(年), “M”(月), “w”(周), “d”(日), “h”(小时),和 “m”(分钟)。
这个值不能大于597小时。
语法:proxy_read_timeout time
默认值:proxy_read_timeout 60s
使用字段:http, server, location
决定读取后端服务器应答的超时时间,单位为秒,它决定nginx将等待多久时间来取得一个请求的应答。超时时间是指完成了两次握手后而且状态为established的超时时间。
相对于proxy_connect_timeout,这个时间能够扑捉到一台将你的链接放入链接池延迟处理而且没有数据传送的服务器,注意不要将此值设置过低,某些状况下代理服务器将花很长的时间来得到页面应答(例如如当接收一个须要不少计算的报表时),固然你能够在不一样的location里面设置不一样的值。
能够经过指定时间单位以避免引发混乱,支持的时间单位有”s”(秒), “ms”(毫秒), “y”(年), “M”(月), “w”(周), “d”(日), “h”(小时),和 “m”(分钟)。
这个值不能大于597小时。
语法:proxy_send_timeout seconds
默认值:proxy_send_timeout 60s
使用字段:http, server, location
设置代理服务器转发请求的超时时间,单位为秒,一样指完成两次握手后的时间,若是超过这个时间代理服务器没有数据转发到被代理服务器,nginx将关闭链接。
能够经过指定时间单位以避免引发混乱,支持的时间单位有”s”(秒), “ms”(毫秒), “y”(年), “M”(月), “w”(周), “d”(日), “h”(小时),和 “m”(分钟)。
这个值不能大于597小时。
GET_RR_PEER: 经过RR算法获取后端流程
K:是判断peer是否宕机和判断失效状态算法
FAIL:尝试次数用尽有,跳转到失败流程,若是有备机,备机再尝试监听,若是监听失败则返回NGX_BUSY,成功则返回当前状态
操做系统:centos5.6
Cpu:16核
内存:32g
Web 服务器:nginx
Web 应用服务器:tomcat(2台)
l 设置tomcat1超时时间,形成超时状态(总有一台server为有效状态):
Tomcat1的connectionTimeout 设置为-1,永远超时,nginx设置tomcat1和tomcat2权重为10,tomcat1的max_fails为10,fail_timeout=120;在链接tomcat1的10次后,返回给nginx为10次超时,ngxin判断tomcat1为失效,而后将tomcat1超时时间恢复为1000从新启动tomcat1,在这段时间内nginx判断tomcat1仍是失效状态,因此在2分钟后,nginx继续监听到tomcat1正常后,那么nginx会将tomcat1判断为有效,将链接继续均匀分配到2个tomcat上。
l 设置tomcat1链接数量,形成超时状态(总有一台server为有效状态):
Tomcat1的线程数量设置为1,nginx设置tomcat1和tomcat2权重为10,tomcat1的max_fails为10,fail_timeout=120;在链接tomcat1超过线程接受数量后,tomcat1会返回超时状态,在返回给nginx10次超时状态后,ngxin判断tomcat1为失效,而后将tomcat线程数量恢复为700,从新启动tomcat1,在这段时间内nginx判断tomcat1仍是失效状态,超过2分钟失效后,nginx继续监听到tomcat1正常后,那么nginx会将tomcat1判断为有效,将链接继续均匀分配到2个tomcat上。
l 设置tomcat1关闭,形成拒绝状态(总有一台server为有效状态):
Tomcat1为关闭,nginx设置tomcat1和tomcat2权重为10,tomcat1的max_fails为10,fail_timeout=120;在链接tomcat1的10次后,nginx收到tomcat1返回connect refuse状态,ngxin判断tomcat1为失效,而后从新启动tomcat1,在这段时间内nginx判断tomcat1仍是失效状态,超过2分钟失效后,nginx继续监听到tomcat1正常后,那么nginx会将tomcat1判断为有效,将链接继续均匀分配到2个tomcat上。
l 设置tomcat1在nginx1标记失效,tomcat1恢复正常,在nginx失效范围内,将所有服务变为失效,而后重启:
Tomcat1为关闭,nginx设置tomcat1和tomcat2权重为10,tomcat1的max_fails为10,fail_timeout=120;在链接tomcat1的10次后,nginx收到tomcat1返回connect refuse状态,ngxin判断tomcat1为失效,而后从新启动tomcat1,在这段时间内nginx判断tomcat1仍是失效状态,而后将tomcat2关闭,而后重启tomcat2,因为全部服务均失效,因此nginx 将全部服务从新置为有效进行监听,而后将2链接均匀分布到了tomcat1和tomcat2上。
l http错误状态,nginx是否记录失效:
nginx设置tomcat1和tomcat2权重为10,tomcat1的max_fails为10,fail_timeout=120;配置proxy_next_upstream 500、40四、50二、50三、50四、timeout后,当HTTP状态为500、50二、50三、504(timeout和refuse默认是记录失效的)时,nginx会判断该次请求为失败记录失败状态,其余全部HTTP均不记录失败。