利用nginx实现负载均衡

一、安装nginx和tomcat

我这里是使用docker安装的。安装流程可参照 dockerfilehtml

这里安装了两个tomcat,端口分别是42000和42001。第二个tomcat的首页随便加了些代码区分nginx

二、nginx配置

#这里的域名要和下面proxy_pass的同样
upstream  fengzp.com {   
    server    192.168.99.100:42000  weight=1; 
    server    192.168.99.100:42001  weight=2;  
}     

server {  
    listen       80; 
    server_name  192.168.99.100;  

location / {  
        proxy_pass http://fengzp.com;  
        proxy_redirect default;  
    }  

    error_page   500 502 503 504  /50x.html;  
    location = /50x.html {  
        root   html;  
    }  
}

三、测试

刷新页面发现页面会发生变化,证实负载配置成功。由于我配的权重第二个是第一个的两倍,因此第二个出现的几率会是第一个的两倍。docker

四、后续问题

若是关了tomcat1,再屡次刷新页面,接下来出现的就会都是tomcat2的页面,可是时而快时而慢。这其中缘由是当若是nginx将请求转发到tomcat2时,服务器会立刻跳转成功,可是若是是转到tomcat1,由于tomcat1已经关闭了,因此会出现一段等待响应过程的过程,要等它失败后才会转到tomcat2。
而这个等待响应的时间咱们是能够配置的。tomcat

这个时间由如下3个参数控制:
proxy_connect_timeout:与服务器链接的超时时间,默认60s
fail_timeout:当该时间内服务器没响应,则认为服务器失效,默认10s
max_fails:容许链接失败次数,默认为1服务器

等待时间 = proxy_connect_timeout + fail_timeout * max_failssession

若是我这样配置的话,只需等待6秒就能够了。负载均衡

五、负载均衡策略

一、轮询测试

这种是默认的策略,把每一个请求按顺序逐一分配到不一样的server,若是server挂掉,能自动剔除。3d

upstream  fengzp.com {   
    server   192.168.99.100:42000; 
    server   192.168.99.100:42001;  
}

二、最少链接code

把请求分配到链接数最少的server

upstream  fengzp.com {   
    least_conn;
    server   192.168.99.100:42000; 
    server   192.168.99.100:42001;  
}

三、权重

使用weight来指定server访问比率,weight默认是1。如下配置会是server2访问的比例是server1的两倍。

upstream  fengzp.com {   
    server   192.168.99.100:42000 weight=1; 
    server   192.168.99.100:42001 weight=2;  
}

四、ip_hash

每一个请求会按照访问ip的hash值分配,这样同一客户端连续的Web请求都会被分发到同一server进行处理,能够解决session的问题。若是server挂掉,能自动剔除。

upstream  fengzp.com {   
    ip_hash;
    server   192.168.99.100:42000; 
    server   192.168.99.100:42001;  
}

ip_hash能够和weight结合使用。

相关文章
相关标签/搜索