本文为翻译文,原文地址:http://nginx.org/en/docs/http/load_balancing.htmlhtml
将请求负载均衡到多个应用实例是一个经常使用的技术,它起到优化资源使用率、最大化吞吐量、下降延迟、保证容错性。nginx
Nginx是一个很是有效的HTTP负载均衡工具,它将请求分发到多个应用服务器,从而提高Web应用的性能、扩展性、可靠性。算法
Nginx支持如下负载均衡机制:服务器
最简单的负载均衡配置以下:app
http { upstream myapp1 { server srv1.example.com; server srv2.example.com; server srv3.example.com; } server { listen 80; location / { proxy_pass http://myapp1; } } }
如上例所示,一样的应用有3个实例分别运行在服务器srv1到srv3中。当没有指定负载均衡方法,默认是循环。所有请求被代理到服务组myapp1,nginx用负载均衡去分发请求。负载均衡
Nginx的反向代理实现包括给HTTP、HTTPS、FastCGI、uwsgi、SCGI和memcached。memcached
为HTTPS配置负载均衡,只需用https便可。工具
当为FastCGI、uwsgi、SCGI、memcached配置负载均衡,分别使用fastcgi_pass、uwsgi_pass、scgi_pass、memcached_pass便可。性能
另外一个负载均衡机制是最少链接。在一些请求需耗时较长的场景下,最少链接容许更公平地调控应用实例的负载。优化
当使用最少链接机制,nginx会经过将新请求分发给不忙的应用实例,使繁忙的应用实例不超载。
当在服务组中使用least_conn指令,nginx会激活最少链接机制。
upstream myapp1 { least_conn; server srv1.example.com; server srv2.example.com; server srv3.example.com; }
咱们需注意一点,对于循环、最少链接机制,每一个客户端的请求可能被分到在不一样的服务器,不保证同一客户端的请求会被分发到同一台服务器中。
若是须要绑定一个客户端的请求总被分发到同一个服务器,可使用IP哈希机制。
在IP哈希机制中,用客户端的IP计算哈希结果,此结果用于决定应该将请求分发到服务组的哪一个服务器。此机制保证了来自同一客户端的请求会被分发到同一服务器,除非那服务器是不可用的。
配置IP哈希机制,只需在服务组中使用ip_hash指令。
upstream myapp1 { ip_hash; server srv1.example.com; server srv2.example.com; server srv3.example.com; }
咱们能够经过配置服务器的权重,去影响nginx负载均衡的算法。
在上面的例子中,没有配置服务器的权重,在指定的负载均衡机制中意味着所有服务器均被视为相同权重的。
尤为在循环机制,它意味着将请求平均地分发到不一样的服务器中。
当给服务器指定了权重,权重会被负载均衡机制归入计算因素之一。
upstream myapp1 { server srv1.example.com weight=3; server srv2.example.com; server srv3.example.com; }
在这个配置中,每5个新请求分发到应用实例的请求以下:3个请求会被分发到srv1,一个请求到srv2,一个请求到srv3。
最新版本的nginx,一样也可使用权限到最少链接机制和IP哈希机制中。
Nginx的反向代理实现包括服务器的健康检查。若是一个服务器返回的响应是错误的,nginx会标记此服务器是不可用的,而且会避免将接下来一段时间的请求分发到此服务器。
用max_fails参数设置跟服务器通讯的连续失败的次数。max_fails默认为1,当设置为0时,健康检查对此服务器不可用。fail_timeout参数定义服务器会被标记为不可用多长时间。在fail_timeout期间后,nginx会用客户端的请求优雅地试探服务器,若是探针表示成功,服务器会被标记为成功的。
此外,有不少指令和参数用来控制服务器负载均衡,好比proxy_next_upstream、backup、down、keepalive。更多信息请查阅文档。
最后但不是最不重要的,服务组的application_load_balancing、application_health_checks、activity_monitoring、onthe-fly_reconfiguration是可用的。
下列文档详细描述nginx Plus负载均衡:略