Nginx是一款轻量级的Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like 协议下发行。其特色是占有内存少,并发能力强,事实上nginx的并发能力在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等
负载均衡是高可用网络基础架构的关键组件,一般用于将工做负载分布到多个服务器来提升网站、应用、数据库或其余服务的性能和可靠性
上图来解释一下吧
html
好比我本身建立了一个网站,分享一些学习心得之类的东西,一开始的时候访问数量少,那么一台服务器就能够支撑,可是后来有一天我忽然成为大明星,那么这时候有不少人想要访问个人网站,渐渐的一台服务器不足以处理大量的请求,这时候就须要增长服务器来减缓压力,假如我增长了两台服务器,我不能让访问的人须要记住3个域名吧,就好比百度,他也有不少台服务器,可是咱们只须要记住百度就能够了,那么这是怎末作到的呢?node
这个时候呢我就能够在搭建一台新的Nginx服务器,让全部的请求都先来访问Nginx服务器,而后在由Nginx派发处理请求到其余服务器上Nginx是不处理请求的,他只是根据不一样的策略来派发到不一样的服务器上
,这样是否是就解决了问题,用户只须要记住一个域名,并且请求量增大的时候也不会致使服务器宕机linux
从上面咱们知道了Nginx是能够根据不一样的策略来派发处理请求的,那么都有什么策略呢?nginx
轮询(默认)web
每一个请求按时间顺序逐一分配到不一样的后端服务器,若是后端服务器宕机,能自动剔除
指定权重算法
指定轮询概率,weight和访问比率成正比,用于后端服务器性能不均的状况
ip_hash数据库
指定负载均衡器按照基于客户端IP的分配方式,这个方法确保了相同的客户端的请求一直发送到相同的服务器,以保证session会话。这样每一个访客都固定访问一个后端服务器,能够解决session不能跨服务器的问题
least_conn(最小链接数)apache
把请求转发给链接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大体相同;可是,有些请求占用的时间很长,会致使其所在的后端负载较高。这种状况下,least_conn这种方式就能够达到更好的负载均衡效果
第三方策略 第三方的负载均衡策略的实现须要安装第三方插件后端
fair设计模式
按照服务器端的响应时间来分配请求,响应时间短的优先分配
url_hash
访问url的hash结果来分配请求,使每一个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源屡次请求,可能会到达不一样的服务器上,致使没必要要的屡次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就能够从缓存中读取
- 轮询 这个的做用就是服务器的一个集合,全部会被Nginx派发任务的服务器在这里配置 upstream是固定值 nodes 这个是随意的名字可是要跟下面的server.ocation.proxy_pass 中http后的名字一致 upstream nodes { server 192.168.1.11; server 192.168.1.12; } server { listen 80; //监听的端口号 server_name 127.0.0.1; //Nginx 服务器地址 location / { // / 表示全部的请求 proxy_pass http://nodes; //被转发的服务器地址 } - 权重 upstream nodes { server 192.168.1.11 weight=3; //weight 默认值是1数值越大,表明被被访问的次数也会越多 server 192.168.1.12 weight=10; } server { listen 80; //监听的端口号 server_name 127.0.0.1; //Nginx 服务器地址 location / { // / 表示全部的请求 proxy_pass http://nodes; //被转发的服务器地址 } - least_conn(最小链接数) upstream nodes { least_conn; //请链接数较少的后端服务器 server 192.168.1.11; //weight 默认值是1数值越大,表明被被访问的次数也会越多 server 192.168.1.12; } server { listen 80; //监听的端口号 server_name 127.0.0.1; //Nginx 服务器地址 location / { // / 表示全部的请求 proxy_pass http://nodes; //被转发的服务器地址 } - ip_hash upstream nodes { ip_hash; //请求按访问ip的hash结果分配 server 192.168.1.11; //weight 默认值是1数值越大,表明被被访问的次数也会越多 server 192.168.1.12; } server { listen 80; //监听的端口号 server_name 127.0.0.1; //Nginx 服务器地址 location / { // / 表示全部的请求 proxy_pass http://nodes; //被转发的服务器地址 } - fair upstream nodes { server 192.168.1.11; //weight 默认值是1数值越大,表明被被访问的次数也会越多 server 192.168.1.12; fair;//后端服务器的响应时间来分配请求,响应时间短的优先分配 } server { listen 80; //监听的端口号 server_name 127.0.0.1; //Nginx 服务器地址 location / { // / 表示全部的请求 proxy_pass http://nodes; //被转发的服务器地址 } - url_hash upstream nodes { server 192.168.1.11; //weight 默认值是1数值越大,表明被被访问的次数也会越多 server 192.168.1.12; hash $request_uri; hash_method crc32;//按访问url的hash结果来分配请求,使每一个url定向到同一个后端服务器 } server { listen 80; //监听的端口号 server_name 127.0.0.1; //Nginx 服务器地址 location / { // / 表示全部的请求 proxy_pass http://nodes; //被转发的服务器地址 }
以上文件都是在nginx.conf里面配置
代理:在Java设计模式中,代理模式是这样定义的:给某个对象提供一个代理对象,并由代理对象控制原对象的引用
在说反向代理前先说一下什么是正向代理?
举个例子说明一下吧 ,有一天我要去理发,而后我到了理发店以后说,我要找王Tony给我理发 其实这就是正向代理,明确的知道本身的目标是什么
仍是举个例子,我仍是去理发店理发,不过我是第一次来,我说给我理个最便宜的,这时候我并不知道谁要来给我理发,可是只要能给理发就能够了 这就是反向代理,我不关心处理请求的是谁,你只要把我要的结果给我就行了
反向代理和正向代理的区别就是,正向代理客户端,反向代理服务器
server { listen 80; server_name localhost; //Nginx 地址 location / { proxy_pass http://123.123.123.123.com //要代理的服务器地址 index index.html index.htm index.jsp; } }
配置完这个之后,重启Nginx 在浏览器中输入localhost:80(80能够不用输入),就能够直接访问到服务器了
这就是反向代理
user nginx nginx ; Nginx用户及组:用户 组。window下不指定 worker_processes 8; 工做进程:数目。根据硬件调整,一般等于CPU数量或者2倍于CPU。 error_log logs/error.log; error_log logs/error.log notice; error_log logs/error.log info; 错误日志:存放路径。 pid logs/nginx.pid; pid(进程标识符):存放路径。 worker_rlimit_nofile 204800; 指定进程能够打开的最大描述符:数目。 这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,可是nginx分配请求并非那么均匀,因此最好与ulimit -n 的值保持一致。 如今在linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。 这是由于nginx调度时分配请求到进程并非那么的均衡,因此假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。 events { use epoll; 使用epoll的I/O 模型。linux建议epoll,FreeBSD建议采用kqueue,window下不指定。 补充说明: 与apache相类,nginx针对不一样的操做系统,有不一样的事件模型 A)标准事件模型 Select、poll属于标准事件模型,若是当前系统不存在更有效的方法,nginx会选择select或poll B)高效事件模型 Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会形成内核崩溃。 Epoll:使用于Linux内核2.6版本及之后的系统。 /dev/poll:使用于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。 Eventport:使用于Solaris 10。 为了防止出现内核崩溃的问题, 有必要安装安全补丁。 worker_connections 204800; 没个工做进程的最大链接数量。根据硬件调整,和前面工做进程配合起来用,尽可能大,可是别把cpu跑到100%就行。每一个进程容许的最多链接数,理论上每台nginx服务器的最大链接数为。worker_processes*worker_connections keepalive_timeout 60; keepalive超时时间。 client_header_buffer_size 4k; 客户端请求头部的缓冲区大小。这个能够根据你的系统分页大小来设置,通常一个请求头的大小不会超过1k,不过因为通常系统分页都要大于1k,因此这里设置为分页大小。 分页大小能够用命令getconf PAGESIZE 取得。 [root@web001 ~]# getconf PAGESIZE 4096 但也有client_header_buffer_size超过4k的状况,可是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。 open_file_cache max=65535 inactive=60s; 这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指通过多长时间文件没被请求后删除缓存。 open_file_cache_valid 80s; 这个是指多长时间检查一次缓存的有效信息。 open_file_cache_min_uses 1; open_file_cache指令中的inactive参数时间内文件的最少使用次数,若是超过这个数字,文件描述符一直是在缓存中打开的,如上例,若是有一个文件在inactive时间内一次没被使用,它将被移除。 } ##设定http服务器,利用它的反向代理功能提供负载均衡支持 http { include mime.types; 设定mime类型,类型由mime.type文件定义 default_type application/octet-stream; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location'; 日志格式设置。 $remote_addr与$http_x_forwarded_for用以记录客户端的ip地址; $remote_user:用来记录客户端用户名称; $time_local: 用来记录访问时间与时区; $request: 用来记录请求的url与http协议; $status: 用来记录请求状态;成功是200, $body_bytes_sent :记录发送给客户端文件主体内容大小; $http_referer:用来记录从那个页面连接访问过来的; $http_user_agent:记录客户浏览器的相关信息; 一般web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,经过$remote_add拿到的IP地址是反向代理服务器的iP地址。反向代理服务器在转发请求的http头信息中,能够增长x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。 access_log logs/host.access.log main; access_log logs/host.access.404.log log404; 用了log_format指令设置了日志格式以后,须要用access_log指令指定日志文件的存放路径; server_names_hash_bucket_size 128; #保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size老是等于hash表的大小,而且是一路处理器缓存大小的倍数。在减小了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。若是hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的状况下在内存中查找的次数为2。第一次是肯定存储单元的地址,第二次是在存储单元中查找键 值。所以,若是Nginx给出须要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小. client_header_buffer_size 4k; 客户端请求头部的缓冲区大小。这个能够根据你的系统分页大小来设置,通常一个请求的头部大小不会超过1k,不过因为通常系统分页都要大于1k,因此这里设置为分页大小。分页大小能够用命令getconf PAGESIZE取得。 large_client_header_buffers 8 128k; 客户请求头缓冲大小。nginx默认会用client_header_buffer_size这个buffer来读取header值,若是 header过大,它会使用large_client_header_buffers来读取。 open_file_cache max=102400 inactive=20s; 这个指令指定缓存是否启用。 例: open_file_cache max=1000 inactive=20s; open_file_cache_valid 30s; open_file_cache_min_uses 2; open_file_cache_errors on; open_file_cache_errors 语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录cache错误. open_file_cache_min_uses 语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location 这个指令指定了在open_file_cache指令无效的参数中必定的时间范围内可使用的最小文件数,若是使用更大的值,文件描述符在cache中老是打开状态. open_file_cache_valid 语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使用字段:http, server, location 这个指令指定了什么时候须要检查open_file_cache中缓存项目的有效信息. client_max_body_size 300m; 设定经过nginx上传文件的大小 sendfile on; sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为on。若是用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,下降系统uptime。 tcp_nopush on; 此选项容许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用 proxy_connect_timeout 90; 后端服务器链接的超时时间_发起握手等候响应超时时间 proxy_read_timeout 180; 链接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也能够说是后端服务器处理请求的时间) proxy_send_timeout 180; 后端服务器数据回传时间_就是在规定时间以内后端服务器必须传完全部的数据 proxy_buffer_size 256k; 设置从被代理服务器读取的第一部分应答的缓冲区大小,一般状况下这部分应答中包含一个小的应答头,默认状况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过能够将其设置为更小 proxy_buffers 4 256k; 设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认状况也为分页大小,根据操做系统的不一样多是4k或者8k proxy_busy_buffers_size 256k; proxy_temp_file_write_size 256k; 设置在写入proxy_temp_path时数据的大小,预防一个工做进程在传递文件时阻塞太长 proxy_temp_path /data0/proxy_temp_dir; proxy_temp_path和proxy_cache_path指定的路径必须在同一分区 proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g; #设置内存缓存空间大小为200MB,1天没有被访问的内容自动清除,硬盘缓存空间大小为30GB。 keepalive_timeout 120; keepalive超时时间。 tcp_nodelay on; client_body_buffer_size 512k; 若是把它设置为比较大的数值,例如256k,那么,不管使用firefox仍是IE浏览器,来提交任意小于256k的图片,都很正常。若是注释该指令,使用默认的client_body_buffer_size设置,也就是操做系统页面大小的两倍,8k或者16k,问题就出现了。 不管使用firefox4.0仍是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误 proxy_intercept_errors on; 表示使nginx阻止HTTP应答代码为400或者更高的应答。 upstream bakend { server 127.0.0.1:8027; server 127.0.0.1:8028; server 127.0.0.1:8029; hash $request_uri; } nginx的upstream目前支持4种方式的分配 一、轮询(默认) 每一个请求按时间顺序逐一分配到不一样的后端服务器,若是后端服务器down掉,能自动剔除。 二、weight 指定轮询概率,weight和访问比率成正比,用于后端服务器性能不均的状况。 例如: upstream bakend { server 192.168.0.14 weight=10; server 192.168.0.15 weight=10; } 二、ip_hash 每一个请求按访问ip的hash结果分配,这样每一个访客固定访问一个后端服务器,能够解决session的问题。 例如: upstream bakend { ip_hash; server 192.168.0.14:88; server 192.168.0.15:80; } 三、fair(第三方) 按后端服务器的响应时间来分配请求,响应时间短的优先分配。 upstream backend { server server1; server server2; fair; } 四、url_hash(第三方) 按访问url的hash结果来分配请求,使每一个url定向到同一个后端服务器,后端服务器为缓存时比较有效。 例:在upstream中加入hash语句,server语句中不能写入weight等其余的参数,hash_method是使用的hash算法 upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; } tips: upstream bakend{#定义负载均衡设备的Ip及设备状态}{ ip_hash; server 127.0.0.1:9090 down; server 127.0.0.1:8080 weight=2; server 127.0.0.1:6060; server 127.0.0.1:7070 backup; } 在须要使用负载均衡的server中增长 proxy_pass http://bakend/; 每一个设备的状态设置为: 1.down表示单前的server暂时不参与负载 2.weight为weight越大,负载的权重就越大。 3.max_fails:容许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误 4.fail_timeout:max_fails次失败后,暂停的时间。 5.backup: 其它全部的非backup机器down或者忙的时候,请求backup机器。因此这台机器压力会最轻。 nginx支持同时设置多组的负载均衡,用来给不用的server来使用。 client_body_in_file_only设置为On 能够讲client post过来的数据记录到文件中用来作debug client_body_temp_path设置记录文件的目录 能够设置最多3层目录 location对URL进行匹配.能够进行重定向或者进行新的代理 负载均衡 ##配置虚拟机 server { listen 80; 配置监听端口 server_name image.***.com; 配置访问域名 location ~* \.(mp3|exe)$ { 对以“mp3或exe”结尾的地址进行负载均衡 proxy_pass http://img_relay$request_uri; 设置被代理服务器的端口或套接字,以及URL proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 以上三行,目的是将代理服务器收到的用户的信息传到真实服务器上 } location /face { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/face.log log404; rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } location /image { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/image.log log404; rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect; } } ##其余举例 server { listen 80; server_name *.***.com *.***.cn; location ~* \.(mp3|exe)$ { proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } location / { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #error_page 404 http://i1.***img.com/help/noimg.gif; error_page 404 502 = @fetch; } location @fetch { access_log /data/logs/baijiaqi.log log404; rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect; } } server { listen 80; server_name *.***img.com; location ~* \.(mp3|exe)$ { proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } location / { if ($http_user_agent ~* "xnp") { rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif; } proxy_pass http://img_relay$request_uri; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; #error_page 404 http://i1.***img.com/help/noimg.gif; error_page 404 = @fetch; } #access_log off; location @fetch { access_log /data/logs/baijiaqi.log log404; rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect; } } server { listen 8080; server_name ngx-ha.***img.com; location / { stub_status on; access_log off; } } server { listen 80; server_name imgsrc1.***.net; root html; } server { listen 80; server_name ***.com w.***.com; # access_log /usr/local/nginx/logs/access_log main; location / { rewrite ^(.*)$ http://www.***.com/ ; } } server { listen 80; server_name *******.com w.*******.com; # access_log /usr/local/nginx/logs/access_log main; location / { rewrite ^(.*)$ http://www.*******.com/; } } server { listen 80; server_name ******.com; # access_log /usr/local/nginx/logs/access_log main; location / { rewrite ^(.*)$ http://www.******.com/; } } location /NginxStatus { stub_status on; access_log on; auth_basic "NginxStatus"; auth_basic_user_file conf/htpasswd; } #设定查看Nginx状态的地址 location ~ /\.ht { deny all; } #禁止访问.htxxx文件 } 注释:变量 Ngx_http_core_module模块支持内置变量,他们的名字和apache的内置变量是一致的。 首先是说明客户请求title中的行,例如$http_user_agent,$http_cookie等等。 此外还有其它的一些变量 $args此变量与请求行中的参数相等 $content_length等于请求行的“Content_Length”的值。 $content_type等同与请求头部的”Content_Type”的值 $document_root等同于当前请求的root指令指定的值 $document_uri与$uri同样 $host与请求头部中“Host”行指定的值或是request到达的server的名字(没有Host行)同样 $limit_rate容许限制的链接速率 $request_method等同于request的method,一般是“GET”或“POST” $remote_addr客户端ip $remote_port客户端port $remote_user等同于用户名,由ngx_http_auth_basic_module认证 $request_filename当前请求的文件的路径名,由root或alias和URI request组合而成 $request_body_file $request_uri含有参数的完整的初始URI $query_string与$args同样 $sheeme http模式(http,https)尽在要求是评估例如 Rewrite ^(.+)$ $sheme://example.com$; Redirect; $server_protocol等同于request的协议,使用“HTTP/或“HTTP/ $server_addr request到达的server的ip,通常得到此变量的值的目的是进行系统调用。为了不系统调用,有必要在listen指令中指明ip,并使用bind参数。 $server_name请求到达的服务器名 $server_port请求到达的服务器的端口号 $uri等同于当前request中的URI,可不一样于初始值,例如内部重定向时或使用index
今天就说到这里吧