Nginx 配置文件说明

#定义Nginx运行的用户和用户组
user www www; 

#nginx进程数,一般设置成和cpu的数量相等
worker_processes 4; 

#全局错误日志定义类型,[debug | info | notice | warn | error | crit]
#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;


#进程pid文件
#pid        logs/nginx.pid;


#指定进程能够打开的最大描述符:数目
#工做模式与链接数上限
#这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,
#可是nginx分配请求并非那么均匀,因此最好与ulimit -n 的值保持一致。 #这是由于nginx调度时分配请求到进程并非那么的均衡,
#因此假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。 worker_rlimit_nofile 65535; events { #参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型 #是Linux 2.6以上版本内核中的高性能网络I/O模型,linux建议epoll,若是跑在FreeBSD上面,就用kqueue模型。 #补充说明: #与apache相类,nginx针对不一样的操做系统,有不一样的事件模型 #A)标准事件模型 #Select、poll属于标准事件模型,若是当前系统不存在更有效的方法,nginx会选择select或poll #B)高效事件模型 #Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会形成内核崩溃。 #Epoll:使用于Linux内核2.6版本及之后的系统。 #/dev/poll:使用于Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。 #Eventport:使用于Solaris 10。 为了防止出现内核崩溃的问题, 有必要安装安全补丁。 use epoll #单个进程最大链接数(最大链接数=链接数+进程数) #根据硬件调整,和前面工做进程配合起来用,尽可能大,可是别把cup跑到100%就行。   #请记住,此数字包括全部链接(例如,与代理服务器的链接等),而不只包括与客户端的链接。另外一个须要考虑的因素是,
  #并发链接的实际数量不能超过打开文件最大数量的当前限制,能够经过worker_rlimit_nofile进行更改 worker_connections 1024; #keepalive 超时时间 keepalive_timeout 60; #客户端请求头部的缓冲区大小。这个能够根据你的系统分页大小来设置,通常一个请求头的大小不会超过1k,
#不过因为通常系统分页都要大于1k,因此这里设置为分页大小。 #分页大小能够用命令getconf PAGESIZE 取得。 #但也有client_header_buffer_size超过4k的状况,可是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。 client_header_buffer_size 4k; #这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,
  #建议和打开文件数一致,inactive是指通过多长时间文件没被请求后删除缓存。 open_file_cache max=65535 inactive=60s; #这个是指多长时间检查一次缓存的有效信息。 #语法:open_file_cache_valid time 默认值:open_file_cache_valid 60
  # 使用字段:http, server, location 这个指令指定了什么时候须要检查open_file_cache中缓存项目的有效信息. open_file_cache_valid 80s; #open_file_cache指令中的inactive参数时间内文件的最少使用次数,若是超过这个数字,文件描述符一直是在缓存中打开的,
  #如上例,若是有一个文件在inactive时间内一次没被使用,它将被移除。 #语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location
   #这个指令指定了在open_file_cache指令无效的参数中必定的时间范围内可使用的最小文件数,若是使用更大的值,文件描述符在cache中老是打开状态. open_file_cache_min_uses 1; #语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off

#使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录cache错误. open_file_cache_errors on; } #设定http服务器,利用它的反向代理功能提供负载均衡支持 http{ #文件扩展名与文件类型映射表 include mime.types; #默认文件类型 default_type application/octet-stream; #默认编码 charset utf-8; #设定日志格式 access_log /var/log/nginx/access.log; #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为on,
#若是用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,下降系统的负载。注意:若是图片显示不正常把这个改为off。 #sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为on。
#若是用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,下降系统uptime。 sendfile on; #服务器名字的hash表大小 #保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。
#参数hash bucket size老是等于hash表的大小,而且是一路处理器缓存大小的倍数。在减小了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。
#若是hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的状况下在内存中查找的次数为2。
#第一次是肯定存储单元的地址,第二次是在存储单元中查找键 值。所以,若是Nginx给出须要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小. server_names_hash_bucket_size 128; #客户端请求头部的缓冲区大小。这个能够根据你的系统分页大小来设置,通常一个请求的头部大小不会超过1k,
#不过因为通常系统分页都要大于1k,因此这里设置为分页大小。分页大小能够用命令getconf PAGESIZE取得。 client_header_buffer_size 32k; #客户请求头缓冲大小。nginx默认会用client_header_buffer_size这个buffer来读取header值,若是header过大,它会使用large_client_header_buffers来读取。 large_client_header_buffers 4 64k; #设定经过nginx上传文件的大小 client_max_body_size 8m; #开启目录列表访问,合适下载服务器,默认关闭。 autoindex on; #此选项容许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用 tcp_nopush on; tcp_nodelay on; #长链接超时时间,单位是秒 keepalive_timeout 120; #FastCGI相关参数是为了改善网站的性能:减小资源占用,提升访问速度。下面参数看字面意思都能理解。 fastcgi_connect_timeout 300; fastcgi_send_timeout 300; fastcgi_read_timeout 300; fastcgi_buffer_size 64k; fastcgi_buffers 4 64k; fastcgi_busy_buffers_size 128k; fastcgi_temp_file_write_size 128k; #gzip模块设置 gzip on; #开启gzip压缩输出 gzip_min_length 1k; #最小压缩文件大小 gzip_buffers 4 16k; #压缩缓冲区 gzip_http_version 1.0; #压缩版本(默认1.1,前端若是是squid2.5请使用1.0) gzip_comp_level 2; #压缩等级
  #压缩类型,默认就已经包含textml,因此下面就不用再写了,写上去也不会有问题,可是会有一个warn。
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
    #开启限制IP链接数的时候须要使用
    #limit_zone crawler $binary_remote_addr 10m;
	
	#包含其它配置文件,如自定义的虚拟主机
	include /etc/nginx/conf.d/*.conf;
	include /etc/nginx/sites-enabled/*;
    
    
    #负载均衡配置
    upstream www.abc.com {
     
        #upstream的负载均衡,weight是权重,能够根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的概率越大。
        server 192.168.1.1:80 weight=3;
        server 192.168.1.2:80 weight=2;
        server 192.168.1.3:80 weight=3;

        #nginx的upstream目前支持4种方式的分配
        #一、轮询(默认)
        #每一个请求按时间顺序逐一分配到不一样的后端服务器,若是后端服务器down掉,能自动剔除。
        #二、weight
        #指定轮询概率,weight和访问比率成正比,用于后端服务器性能不均的状况。
        #例如:
        #upstream bakend {
        #    server 192.168.2.1 weight=10;
        #    server 192.168.2.2 weight=10;
        #}
        #二、ip_hash
        #每一个请求按访问ip的hash结果分配,这样每一个访客固定访问一个后端服务器,能够解决session的问题。
        #例如:
        #upstream bakend {
        #    ip_hash;
        #    server 192.168.3.1:88;
        #    server 192.168.3.2:80;
        #}
        #三、fair(第三方)
        #按后端服务器的响应时间来分配请求,响应时间短的优先分配。
        #upstream backend {
        #    server server1;
        #    server server2;
        #    fair;
        #}
        #四、url_hash(第三方)
        #按访问url的hash结果来分配请求,使每一个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
        #例:在upstream中加入hash语句,server语句中不能写入weight等其余的参数,hash_method是使用的hash算法
        #upstream backend {
        #    server squid1:3128;
        #    server squid2:3128;
        #    hash $request_uri;
        #    hash_method crc32;
        #}

        #tips:
        #upstream bakend{#定义负载均衡设备的Ip及设备状态}{
        #    ip_hash;
        #    server 127.0.0.1:9090 down;
        #    server 127.0.0.1:8080 weight=2;
        #    server 127.0.0.1:6060;
        #    server 127.0.0.1:7070 backup;
        #}
        #在须要使用负载均衡的server中增长 proxy_pass http://bakend/;

        #每一个设备的状态设置为:
        #1.down表示单前的server暂时不参与负载
        #2.weight为weight越大,负载的权重就越大。
        #3.max_fails:容许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
        #4.fail_timeout:max_fails次失败后,暂停的时间。
        #5.backup: 其它全部的非backup机器down或者忙的时候,请求backup机器。因此这台机器压力会最轻。

        #nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
        #client_body_in_file_only设置为On 能够讲client post过来的数据记录到文件中用来作debug
        #client_body_temp_path设置记录文件的目录 能够设置最多3层目录
        #location对URL进行匹配.能够进行重定向或者进行新的代理 负载均衡
    }
    
    
    #虚拟主机的配置
    server {
        #监听端口
        listen 80;

        #域名能够有多个,用空格隔开
        server_name www.abc.com abc.com;

         
        #日志格式设定
        #$remote_addr与$http_x_forwarded_for用以记录客户端的ip地址;
        #$remote_user:用来记录客户端用户名称;
        #$time_local: 用来记录访问时间与时区;
        #$request: 用来记录请求的url与http协议;
        #$status: 用来记录请求状态;成功是200,
        #$body_bytes_sent :记录发送给客户端文件主体内容大小;
        #$http_referer:用来记录从那个页面连接访问过来的;
        #$http_user_agent:记录客户浏览器的相关信息;
        #一般web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,经过$remote_add拿到的IP地址是反向代理服务器的iP地址。        #反向代理服务器在转发请求的http头信息中,能够增长x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址。
        log_format access '$remote_addr - $remote_user [$time_local] "$request" '
        '$status $body_bytes_sent "$http_referer" '
        '"$http_user_agent" $http_x_forwarded_for';
         
        #定义本虚拟主机的访问日志
        access_log  /usr/local/nginx/logs/host.access.log  main;
        access_log  /usr/local/nginx/logs/host.access.404.log  log404;
		

		#若是直接写一个路径,则匹配该路径下的
		#~ 表示执行一个正则匹配,区分大小写
		#~* 表示执行一个正则匹配,不区分大小写
		#^~ 表示普通字符匹配。使用前缀匹配。若是匹配成功,则再也不匹配其余location。
		#= 进行普通字符精确匹配。也就是彻底匹配。
		
		#location = / {
			# 彻底匹配  =
			# 大小写敏感 ~
			# 忽略大小写 ~*
		#}
		#location ^~ /images/ {
			# 前半部分匹配 ^~
			# 可使用正则,如:
			# location ~* \.(gif|jpg|png)$ { }
		#}
		#location / {
			# 若是以上都未匹配,会进入这里
		#}
		
		#别名
		location /blog {
			alias /data/www/blog/;
		}
		location ~ ^/blog/(\d+)/([\w-]+)$ {
			# /blog/20141202/article-name  
			# -> /blog/20141202-article-name.md
			alias /data/www/blog/$1-$2.md;
		}


		
		#默认请求
		location / {
			root   /root;      #定义服务器的默认网站根目录位置
			index index.php index.html index.htm;   #定义首页索引文件的名称
			fastcgi_pass  www.abc.com;
			fastcgi_param  SCRIPT_FILENAME  $document_root/$fastcgi_script_name; 
			include /etc/nginx/fastcgi_params;
		}
	
		# 定义错误提示页面
		error_page   500 502 503 504 /50x.html;  
        location = /50x.html {
        root   /root;
		}

		#静态文件,nginx本身处理
		location ~ ^/(images|javascript|js|css|flash|media|static)/ {
			root /var/www/virtual/htdocs;
			#过时30天,静态文件不怎么更新,过时能够设大一点,若是频繁更新,则能够设置得小一点。
			expires 30d;
		}
		
		#PHP 脚本请求所有转发到 FastCGI处理. 使用FastCGI默认配置.
		location ~ \.php$ {
			root /root;
			fastcgi_pass 127.0.0.1:9000;
			fastcgi_index index.php;
			fastcgi_param SCRIPT_FILENAME /home/www/www$fastcgi_script_name;
			include fastcgi_params;
		}
		
		#设定查看Nginx状态的地址
		location /NginxStatus {
			stub_status            on;
			access_log              on;
			auth_basic              "NginxStatus";
			auth_basic_user_file  conf/htpasswd;
		}
		
		#禁止访问 .htxxx 文件
		location ~ /\.ht {
			deny all;
		}
         
        #对 "/connect-controller" 启用反向代理
        location /connect-controller {
            proxy_pass http://127.0.0.1:88; #请注意此处端口号不能与虚拟主机监听的端口号同样(也就是server监听的端口)
            proxy_redirect off;
            proxy_set_header X-Real-IP $remote_addr;
             
            #后端的Web服务器能够经过X-Forwarded-For获取用户真实IP
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
             
            #如下是一些反向代理的配置,可选。
            proxy_set_header Host $host;

            #容许客户端请求的最大单文件字节数
            client_max_body_size 10m;

            #缓冲区代理缓冲用户端请求的最大字节数,
            #若是把它设置为比较大的数值,例如256k,那么,不管使用firefox仍是IE浏览器,来提交任意小于256k的图片,都很正常。            #若是注释该指令,使用默认的client_body_buffer_size设置,也就是操做系统页面大小的两倍,8k或者16k,问题就出现了。
            #不管使用firefox4.0仍是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误
            client_body_buffer_size 128k;

            #表示使nginx阻止HTTP应答代码为400或者更高的应答。
            proxy_intercept_errors on;

            #后端服务器链接的超时时间_发起握手等候响应超时时间
            #nginx跟后端服务器链接超时时间(代理链接超时)
            proxy_connect_timeout 90;

            #后端服务器数据回传时间(代理发送超时)
            #后端服务器数据回传时间_就是在规定时间以内后端服务器必须传完全部的数据
            proxy_send_timeout 90;

            #链接成功后,后端服务器响应时间(代理接收超时)
            #链接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也能够说是后端服务器处理请求的时间)
            proxy_read_timeout 90;

            #设置代理服务器(nginx)保存用户头信息的缓冲区大小
            #设置从被代理服务器读取的第一部分应答的缓冲区大小,一般状况下这部分应答中包含一个小的应答头,            #默认状况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过能够将其设置为更小
            proxy_buffer_size 4k;

            #proxy_buffers缓冲区,网页平均在32k如下的设置
            #设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认状况也为分页大小,根据操做系统的不一样多是4k或者8k
            proxy_buffers 4 32k;

            #高负荷下缓冲大小(proxy_buffers*2)
            proxy_busy_buffers_size 64k;

            #设置在写入proxy_temp_path时数据的大小,预防一个工做进程在传递文件时阻塞太长
            #设定缓存文件夹大小,大于这个值,将从upstream服务器传
            proxy_temp_file_write_size 64k;
        }
        
        #本地动静分离反向代理配置
        #全部jsp的页面均交由tomcat或resin处理
        location ~ .(jsp|jspx|do)?$ {
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_pass http://127.0.0.1:8080;
        }
		
		#按指定顺序检查文件是否存在,并使用找到的第一个文件进行请求处理;该处理在当前上下文中执行。                #文件的路径是根据根和别名指令从file参数构造的。能够经过在名称末尾指定斜杠来检查目录是否存在,                #例如“ $uri /”。若是未找到任何文件,则会进行内部重定向到最后一个参数中指定的uri。
		try_files $uri $uri.html $uri/index.html @other;
		location @other {
			# 尝试寻找匹配 uri 的文件,失败了就会转到上游处理
			proxy_pass  http://localhost:9000;
		}
		location / {
			# 尝试寻找匹配 uri 的文件,没找到直接返回 502
			try_files $uri $uri.html =502;
		}
		location / {
			try_files /system/maintenance.html
					  $uri $uri/index.html $uri.html
					  @mongrel;
		}
		location @mongrel {
			proxy_pass http://mongrel;
		}

		#强制HTTP转到HTTPS
		server {  
			listen  192.168.4.1:80;  
			server_name abc.com;  
			rewrite ^(.*)$  https://$host$1 permanent;  
		}

		#last和break的区别
		#由于301和302不能简单的只返回状态码,还必须有重定向的URL,这就是return指令没法返回301,302的缘由了。这里 last 和 break 区别有点难以理解:

		#last通常写在server和if中,而break通常使用在location中
		#last不终止重写后的url匹配,即新的url会再从server走一遍匹配流程,而break终止重写后的匹配
		#break和last都能组织继续执行后面的rewrite指令
		server {
			# 访问 /last.html 的时候,页面内容重写到 /index.html 中
			rewrite /last.html /index.html last;
			# 访问 /break.html 的时候,页面内容重写到 /index.html 中,并中止后续的匹配
			rewrite /break.html /index.html break;
			# 访问 /redirect.html 的时候,页面直接302定向到 /index.html中
			rewrite /redirect.html /index.html redirect;
			# 访问 /permanent.html 的时候,页面直接301定向到 /index.html中
			rewrite /permanent.html /index.html permanent;
			# 把 /html/*.html => /post/*.html ,301定向
			rewrite ^/html/(.+?).html$ /post/$1.html permanent;
			# 把 /search/key => /search.html?keyword=key
			rewrite ^/search\/([^\/]+?)(\/|$) /search.html?keyword=$1 permanent;
		}


    }
}
相关文章
相关标签/搜索