本文里面介绍了 Nginx的安装,代理,负载均衡,location的正则配置,动静分离,缓存,压缩,防盗链,跨域处理javascript
Nginx 是一个HTTP和反向代理服务器,一个邮件代理服务器和一个通用的TCP/UDP代理服务器。css
Nginx 是一个高性能的 Web 和反向代理服务器, 它具备有不少很是优越的特性:html
做为 Web 服务器:相比 Apache,Nginx 使用更少的资源,支持更多的并发链接,体现更高的效率,这点使 Nginx 尤为受到虚拟主机提供商的欢迎。可以支持高达 50,000 个并发链接数的响应,感谢 Nginx 为咱们选择了 epoll and kqueue 做为开发模型.前端
做为负载均衡服务器:Nginx 既能够在内部直接支持 Rails 和 PHP,也能够支持做为 HTTP代理服务器对外进行服务。Nginx 用 C 编写, 不管是系统资源开销仍是 CPU 使用效率都比 Perlbal 要好的多。java
做为邮件代理服务器: Nginx 同时也是一个很是优秀的邮件代理服务器(最先开发这个产品的目的之一也是做为邮件代理服务器),Last.fm 描述了成功而且美妙的使用经验。linux
Nginx 安装很是的简单,配置文件 很是简洁(还可以支持perl语法),Bugs很是少的服务器:Nginx启动特别容易,而且几乎能够作到7*24不间断运行,即便运行数个月也不须要从新启动。你还可以在不间断服务的状况下进行软件版本的升级。nginx
Windos安装:c++
下载nginx nginx.org/download/ng…web
双击启动nginx程序正则表达式
Linux安装:
在linux下面存在两种安装方式:
- 编译安装
- yum安装
Yum安装 【centOs7才有Yum】:
rpm -Uvh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm
复制代码
[1] Yum 安装 Nginx
yum install nginx
复制代码
[2] 命令 Nginx 启动 Nginx服务
nginx
复制代码
[3] nginx的路径以下
(1) Nginx配置路径:/etc/nginx/
(2) PID目录:/var/run/nginx.pid
(3) 错误日志:/var/log/nginx/error.log
(4) 访问日志:/var/log/nginx/access.log
(5) 默认站点目录:/usr/share/nginx/html
复制代码
编译安装:
wget http://nginx.org/download/nginx-1.15.12.tar.gz
复制代码
Gcc:yum install gcc c++ (用于编译c、c++代码)
Pcre:yum install -y pcre pcre-devel (用c语言编写的正则表达式函数库))
Zlib:yum install -y zlib zlib-devel (用于数据压缩的函式库))
OpenSSL:yum install -y openssl openssl-devel (安全套接字层密码库))
yum install -y pcre pcre-devel
yum install -y zlib zlib-devel
yum install -y openssl openssl-devel
复制代码
tar -zxvf nginx-1.15.tar.gz
cd nginx-1.15
./configure
make
make install
复制代码
cd /usr/local/nginx/
cd sbin/
./nginx
复制代码
正向代理:正向代理代理的是用户
反向代理:方向代理代理的是服务器
咱们要演示Nginx的相关配置须要3台服务器,里面用Tomcat。为了咱们区分咱们在每一个Tomcat里面的index.jsp里面写入的本机的Ip。启动Tomcat,出现以下效果。
咱们随机选择其中一台,修改里面的 nginx.conf
# http://10.18.3.197/ 代理
server {
listen 80 default_server;
listen [::]:80 default_server;
server_name _;
root /usr/share/nginx/html;
# Load configuration files for the default server block.
include /etc/nginx/default.d/*.conf;
location / {
proxy_pass http://127.0.0.1:8080;
}
error_page 404 /404.html;
location = /40x.html {
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
}
}
复制代码
那么代理了本机8080端口的数据
接下来咱们使用windos的本机的Host劫持
进入 C:\Windows\System32\drivers\etc 这个文件
修改 hosts 文件
在里面添加 10.18.3.197 test.com
复制代码
咱们浏览器访问如图:
咱们准备好了环境和相关配置那么咱们接下来看Nginx的一些配置。
location = /uri 精准匹配
location ^~ /uri 前缀匹配
location ~ /uri
location / 通用匹配
举个例子:
1 location = /
2 location = /index
3 location ^~ /article/
4 location ^~ /article/files/
5 location ~ .(gif|png|js|css)$
6 location /
http://10.18.3.197/
http://10.18.3.197/index ->2
http://10.18.3.197/article/files/1.txt ->4
http://10.18.3.197/mic.png ->5
# 使用编译安装的时候插件的安装按时
./configure --prefix=/安装目录 --add-module = /第三方模块的目录 <br/>
./configure --prefix=/data/program/nginx --with-http_stub_status_module --withhttp_random_index_module
cp objs/nginx $nginx_home/sbin/nginx
复制代码
举个例子
安装 http_stub_status_module
# 查看nginx的状态
location /status {
stub_status;
}
复制代码
Active: connections:当前状态,活动状态的链接数
accepts:统计总值,已经接受的客户端请求的总数
handled:统计总值,已经处理完成的客户端请求的总数
requests:统计总值,客户端发来的总的请求数
Reading:当前状态,正在读取客户端请求报文首部的链接的链接数
Writing:当前状态,正在向客户端发送响应报文过程当中的链接数
Waiting:当前状态,正在等待客户端发出请求的空闲链接数
每一个请求按时间顺序逐一分配到不一样的后端服务器,若是后端服务器down掉,能自动剔除。
# 负载均衡默认的轮询算法
upstream webserver {
server 10.18.14.59:8080;
server 10.18.14.109:8080;
server 10.18.3.197:8080;
}
server {
...
location / {
# proxy_pass http://127.0.0.1:8080;
proxy_pass http://webserver;
}
}
...
}
复制代码
每一次的刷新浏览器里面的地址,获得都是一个新的服务器的IP,进行轮训。
若是咱们关闭掉其中的一条服务器,而后去访问咱们发现,宕机的那台服务器不会被访问。若是咱们再次重启那台宕机的服务器,刷新浏览器的IP地址咱们发现又能够负载均衡到那台服务器上面了。
# 负载均轮询加权算法
upstream webserver {
server 10.18.14.59:8080 weight=2;
server 10.18.14.109:8080 weight=3;
server 10.18.3.197:8080 weight=5;
}
复制代码
每台服务器处理的请求数量,跟权重成正比。也就是权重越大,处理的请求数量越多。
若是客户已经访问了某个服务器,当用户再次访问时,会将该请求经过哈希算法,自动定位到该服务器。每一个请求按访问ip的hash结果分配,这样每一个访客固定访问一个后端服务器。咱们发咱们每一次的刷新并无分配到其余机器,而是一直在同一台机器上,若是宕机后从新分配后,不在改变。
# 负载均衡ip_hash算法
upstream webserver {
ip_hash; #保证每一个访客固定访问一个后端服务器
server 10.18.14.59:8080;
server 10.18.14.109:8080;
server 10.18.3.197:8080;
}
复制代码
把请求转发给链接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大体相同;可是,有些请求占用的时间很长,会致使其所在的后端负载较高。这种状况下,least_conn这种方式就能够达到更好的负载均衡效果。
# 负载均衡最小链接数算法
upstream webserver {
least_conn; #把请求转发给链接数较少的后端服务器
server 10.18.14.59:8080;
server 10.18.14.109:8080;
server 10.18.3.197:8080;
}
复制代码
此负载均衡策略适合请求处理时间长短不一形成服务器过载的状况。
按照服务器端的响应时间来分配请求,响应时间短的优先分配。
# 负载均衡响应时间最短算法
upstream webserver {
server 10.18.14.59:8080;
server 10.18.14.109:8080;
server 10.18.3.197:8080;
fair; #实现响应时间短的优先分配
}
复制代码
按访问url的hash结果来分配请求,使每一个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源屡次请求,可能会到达不一样的服务器上,致使没必要要的屡次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就能够从缓存中读取。
# 负载均衡url_hash算法
upstream webserver {
hash $request_uri; #实现每一个url定向到同一个后端服务器
server 10.18.14.59:8080;
server 10.18.14.109:8080;
server 10.18.3.197:8080;
}
复制代码
proxy_next_upstream
语法:proxy_next_upstream [error | timeout | invalid_header | http_500 | http_502 | http_503 | http_504 | http_404 | off ];
默认:proxy_next_upstream error timeout;
配置块:http、server、location
这个配置表示当向一台上有服务器转发请求出现错误的时候,继续换一台上后服务器来处理这个请求。 默认状况下,上游服务器一旦开始发送响应数据,Nginx反向代理服务器会马上把应答包转发给客户端。所以,一 旦Nginx开始向客户端发送响应包,若是中途出现错误也不容许切换到下一个上有服务器继续处理的。这样作的目 的是保证客户端只收到来自同一个上游服务器的应答。
proxy_connect_timeout
语法: proxy_connect_timeout time;
默认: proxy_connect_timeout 60s;
配置块: http, server, location
用于设置nginx与upstream server的链接超时时间,好比咱们直接在location中设置proxy_connect_timeout 1ms, 1ms很短,若是没法在指定时间创建链接,就会报错。
向后端写数据的超时时间,两次写操做的时间间隔若是大于这个值,也就是过了指定时间后端尚未收到数据,连 接会被关闭
从后端读取数据的超时时间,两次读取操做的时间间隔若是大于这个值,那么nginx和后端的连接会被关闭,若是 一个请求的处理时间比较长,能够把这个值设置得大一些
proxy_upstream_fail
proxy_upstream_fail_timeout
设置了某一个upstream后端失败了指定次数(max_fails)后,在fail_timeout时间内再也不去请求它,默认为10秒 语法 server address [fail_timeout=30s]
upstream backend { #服务器集群名字
server 192.168.218.129:8080 weight=1 max_fails=2 fail_timeout=600s;
server 192.168.218.131:8080 weight=1 max_fails=2 fail_timeout=600s;
}
复制代码
什么叫跨域呢?若是两个节点的协议、域名、端口、子域名不一样,那么进行的操做都是跨域的,浏览器为了安全问 题都是限制跨域访问,因此跨域实际上是浏览器自己的限制。
location / {
proxy_pass http://webserver;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_next_upstream error timeout http_500 http_503;
proxy_connect_timeout 60s;
proxy_send_timeout 60s;
proxy_read_timeout 60s;
add_header 'Access-Control-Allow-Origin' '*'; // #容许来自全部的访问地址
add_header 'Access-Control-Allow-Methods' 'GET,PUT,POST,DELETE,OPTIONS'; //支持的请求方式
add_header 'Access-Control-Allow-Header' 'Content-Type,*'; //支持的媒体类型
}
复制代码
必须依赖服务器生存的咱们称为动。不须要依赖容器的好比css/js或者图片等,这类就叫静。
静态资源类型
types {
text/html html htm shtml;
text/css css;
text/xml xml;
image/gif gif;
image/jpeg jpeg jpg;
application/javascript js;
application/atom+xml atom;
application/rss+xml rss;
text/mathml mml;
text/plain txt;
text/vnd.sun.j2me.app-descriptor jad;
text/vnd.wap.wml wml;
text/x-component htc;
image/png png;
image/svg+xml svg svgz;
image/tiff tif tiff;
image/vnd.wap.wbmp wbmp;
image/webp webp;
image/x-icon ico;
image/x-jng jng;
image/x-ms-bmp bmp;
application/font-woff woff;
application/java-archive jar war ear;
application/json json;
application/mac-binhex40 hqx;
application/msword doc;
application/pdf pdf;
application/postscript ps eps ai;
application/rtf rtf;
application/vnd.apple.mpegurl m3u8;
application/vnd.google-earth.kml+xml kml;
application/vnd.google-earth.kmz kmz;
application/vnd.ms-excel xls;
application/vnd.ms-fontobject eot;
application/vnd.ms-powerpoint ppt;
application/vnd.oasis.opendocument.graphics odg;
application/vnd.oasis.opendocument.presentation odp;
application/vnd.oasis.opendocument.spreadsheet ods;
application/vnd.oasis.opendocument.text odt;
application/vnd.openxmlformats-officedocument.presentationml.presentation
pptx;
application/vnd.openxmlformats-officedocument.spreadsheetml.sheet
xlsx;
application/vnd.openxmlformats-officedocument.wordprocessingml.document
docx;
application/vnd.wap.wmlc wmlc;
application/x-7z-compressed 7z;
application/x-cocoa cco;
application/x-java-archive-diff jardiff;
application/x-java-jnlp-file jnlp;
application/x-makeself run;
application/x-perl pl pm;
application/x-pilot prc pdb;
application/x-rar-compressed rar;
application/x-redhat-package-manager rpm;
application/x-sea sea;
application/x-shockwave-flash swf;
application/x-stuffit sit;
application/x-tcl tcl tk;
application/x-x509-ca-cert der pem crt;
application/x-xpinstall xpi;
application/xhtml+xml xhtml;
application/xspf+xml xspf;
application/zip zip;
application/octet-stream bin exe dll;
application/octet-stream deb;
application/octet-stream dmg;
application/octet-stream iso img;
application/octet-stream msi msp msm;
audio/midi mid midi kar;
audio/mpeg mp3;
audio/ogg ogg;
audio/x-m4a m4a;
audio/x-realaudio ra;
video/3gpp 3gpp 3gp;
video/mp2t ts;
video/mp4 mp4;
video/mpeg mpeg mpg;
video/quicktime mov;
video/webm webm;
video/x-flv flv;
video/x-m4v m4v;
video/x-mng mng;
video/x-ms-asf asx asf;
video/x-ms-wmv wmv;
video/x-msvideo avi;
}
复制代码
在Nginx的conf目录下,有一个mime.types
文件用户访问一个网站,而后从服务器端获取相应的资源经过浏览器进行解析渲染最后展现给用户,而服务端能够返回各类类型的内容,好比xml、jpg、png、gif、flash、MP四、html、css等等,那么浏览器就是根据mime-type来决定用什么形式来展现的服务器返回的资源给到浏览器时,会把媒体类型告知浏览器,这个告知的标识就是Content-Type,好比ContentType:text/html。
location ~ .*\.(js|css|png|svg|ico|jpg) {
root /.(路径)./static-resource; # 指定访问的目录
}
复制代码
举个例子:
咱们设置拦截静态资源,而后删除本机tomcat里面的静态资源,获得以下:
将咱们删除的tomcat静态资源放入对应的文件夹内
动静分离的好处
第一个,Nginx自己就是一个高性能的静态web服务器;
第二个,其实静态文件有一个特色就是基本上变化不大,因此动静分离之后咱们能够对静态文件进行缓存、或者压 缩提升网站性能。如今比较流行先后端分离,这样能够大大减轻服务端的压力
当一个客户端请求web服务器, 请求的内容能够从如下几个地方获取:服务器、浏览器缓存中或缓存服务器中。这取决于服务器端输出的页面信息浏览器缓存将文件保存在客户端,好的缓存策略能够减小对网络带宽的占用,能够提升访问速度,提升用户的体验,还能够减轻服务器的负担nginx缓存配置
Nginx缓存配置
Nginx能够经过expires设置缓存,好比咱们能够针对图片作缓存,由于图片这类信息基本上不会改变。 在location中设置expires
格式: expires 30s|m|h|d
location ~ .*\.(jpg|jpeg|gif|bmp|png|js|css|ico) {
root static;
expires 1d; # 设置过时时间为1天
}
复制代码
咱们一个网站必定会包含不少的静态文件,好比图片、脚本、样式等等,而这些css/js可能自己会比较大,那么在 网络传输的时候就会比较慢,从而致使网站的渲染速度。所以Nginx中提供了一种Gzip的压缩优化手段,能够对后 端的文件进行压缩传输,压缩之后的好处在于可以下降文件的大小来提升传输效率。
配置信息
Gzip on|off 是否开启gzip压缩
Gzip_buffers 4 16k #设置gzip申请内存的大小,做用是按指定大小的倍数申请内存空间。4 16k表明按照原始数据 大小以16k为单位的4倍申请内存。
Gzip_comp_level[1-9] 压缩级别, 级别越高,压缩越小,可是会占用CPU资源
Gzip_disable #正则匹配UA 表示什么样的浏览器不进行gzip
Gzip_min_length #开始压缩的最小长度(小于多少就不作压缩),能够指定单位,好比 1k
Gzip_http_version 1.0|1.1 表示开始压缩的http协议版本
Gzip_proxied (nginx 作前端代理时启用该选项,表示不管后端服务器的headers头返回什么信息,都无条件启用 压缩)
Gzip_type text/pliain,application/xml 对那些类型的文件作压缩 (conf/mime.conf)
Gzip_vary on|off 是否传输gzip压缩标识; 启用应答头"Vary: Accept-Encoding";给代理服务器用的,有的浏览器支 持压缩,有的不支持,因此避免浪费不支持的也压缩,因此根据客户端的HTTP头来判断,是否须要压缩
http {
gzip on;
gzip_min_length 5k;
gzip_comp_level 3;
gzip_types application/javascript image/jpeg image/svg+xml;
gzip_buffers 4 32k;
gzip_vary on;
}
复制代码
http 协议中,若是从一个网页跳到另外一个网页,http 头字段里面会带个 Referer。图片服务器经过检测 Referer 是否来自规定域名,来进行防盗链。
语法: valid_referers none | blocked | server_names | string ...;
默认值: —
上下文: server, location
“Referer”请求头为指定值时,内嵌变量$invalid_referer被设置为空字符串,不然这个变量会被置成“1”。查找匹配 时不区分大小写,其中none表示缺乏referer请求头、blocked表示请求头存在,可是它的值被防火墙或者代理服务 器删除、server_names表示referer请求头包含指定的虚拟主机名
配置以下
server {
...
server_name test.com;
...
location ~ .*\.(gif|jpg|ico|png|css|svg|js) {
valid_referers none blocked test.com 10.18.3.197;
if ($invalid_referer) {
return 404;
}
root static;
}
...
}
复制代码
须要注意的是伪造一个有效的“Referer”请求头是至关容易的,所以这个模块的预期目的不在于完全地阻止这些非法请求,而 是为了阻止由正常浏览器发出的大规模此类请求。还有一点须要注意,即便正常浏览器发送的合法请求,也可能没 有“Referer”请求头。
还有跟多的防盗链的配置和破解我在就不描述了,应为在对页面也就是前端来讲,没有绝对的安全。
下面是关于nginx的防盗链的文章和防盗链的防护和破解。 www.cnblogs.com/limeng951/p…
www.cnblogs.com/saysmy/p/86…
这个里面讲了如何禁止使用F12查看源代码,以及右键查看元素
www.3lian.com/edu/2013/10… 可是这些都不能反正查看源代码,若是我用以前就打开F12模式在进入你的网站你如何防御呢?因此对于前端来讲没有绝对的安全和保密。