Nginx gzip
压缩实现性能优化1.Nginx gzip压缩功能介绍
Nginx gzip压缩模块提供了压缩文件内容的功能,用户请求的内容在发送出用客户端以前,Nginx服务器会根据一些具体的策略实施压缩,以节约网站出口带宽,同时加快了数据传输效率,提高了用户访问体验。
2.Nginx gzip 压缩的优势
1.提高网站用户体验:因为发给用户的内容小了,因此用户访问单位大小的页面就快了,用户体验提高了,网站口碑就行了。
2.节约网站带宽成本,因为数据是压缩传输的,所以,此举节省了网站的带宽流量成本,不过压缩会稍微消耗一些CPU资源,这个通常能够忽略。此功能既能让用户体验加强,公司也少花钱。对于几乎全部的Web服务来讲,这是一个很是重要的功能,Apache服务也由此功能。
3.须要和不须要压缩的对象javascript
一、纯文本内容压缩比很高,所以纯文本内容是最好压缩,例如:html、js、css、xml、shtml等格式的文件
二、被压缩的纯文本文件必需要大于1KB,因为压缩算法的特殊缘由,极小的文件压缩可能反而变大。
三、图片、视频(流媒体)等文件尽可能不要压缩,由于这些文件大多数都是经历压缩的,若是再压缩很坑不会减少或减小不多,或者可能增长。而在压缩时还会消耗大量的CPU、内存资源
四、参数介绍及配置说明
此压缩功能很相似早起的Apache服务的mod_defalate
压缩功能,Nginx的gzip压缩功能依赖于ngx_http_gzip_module
模块,默认已安装。
参数说明以下:php
gzip on; #开启gzip压缩功能 gzip_min_length 1k; #设置容许压缩的页面最小字节数,页面字节数从header头的Content-Length中获取,默认值是0,表示无论页面多大都进行压缩,建议设置成大于1K,若是小于1K可能会越压越大 gzip_buffers 4 16k; #压缩缓冲区大小,表示申请4个单位为16K的内存做为压缩结果流缓存,默认是申请与原始是数据大小相同的内存空间来存储gzip压缩结果; gzip_http_version 1.1 #压缩版本(默认1.1 前端为squid2.5时使用1.0)用于设置识别HTTP协议版本,默认是1.1,目前大部分浏览器已经支持GZIP压缩,使用默认便可。 gzip_comp_level 2; #压缩比率,用来指定GZIP压缩比,1压缩比最小,处理速度最快;9压缩比最大,传输速度快,但处理最慢,也消耗CPU资源 gzip_types text/css text/xml application/javascript; #用来指定压缩的类型,“text/html”类型老是会被压缩,这个就是HTTP原理部分讲的媒体类型。 gzip_vary on; #vary hear支持,该选项可让前端的缓存服务器缓存通过GZIP压缩的页面,例如用缓存通过Nginx压缩的数据。
配置在http
标签端css
http{ gzip on; gzip_min_length 1k; gzip_buffers 4 32k; gzip_http_version 1.1; gzip_comp_level 9; gzip_types text/css text/xml application/javascript; gzip_vary on; }
设置完成以后重启Nginx服务器。
并在360
火狐|
谷歌
等浏览器中安装插件Firebug
和YSlow
进行查看页面压缩率html
例如:没有制做压缩图片
制做后 前端
Nginx expires
缓存实现性能优化1.Nginx expires 功能介绍
简单地说,Nginx expires
的功能就是为用户访问的网站内容设定一个国企时间,当用户第一次访问到这些内容时,会把这样内容存储在用户浏览器本地,这样用户第二次及此后继续访问网站,浏览器会检查加载缓存在用户浏览器本地的内容,就不会去服务器下载了。直到缓存的内容过时或被清除为止。
深刻理解,expires的功能就是容许经过Nginx 配置文件控制HTTP的“Expires
”和“Cache-Contorl
”响应头部内容,告诉客户端刘琦是否缓存和缓存多久之内访问的内容。这个expires模块
控制Nginx 服务器应答时Expires头内容和Cache-Control头的max-age指定。
这些HTTP头向客户端表名了内容的有效性和持久性。若是客户端本地有内容缓存,则内容就能够从缓存(除非已通过期)而不是从服务器读取,而后客户端会检查缓存中的副本。java
2.Nginx expires做用介绍
在网站的开发和运营中,对于图片
视频
css
js
等网站元素的更改机会较少,特别是图片,这时能够将图片设置在客户端浏览器本地缓存365
天或3650
天,而降css、js、html等代码缓存10~30
天,这样用户第一次打开页面后,会在本地的浏览器按照过时日期缓存响应的内容,下次用户再打开相似页面,重复的元素就无需下载了,从而加快了用户访问速度,因为用户的访问请求和数据减小了,所以节省了服务器端大量的带宽。此功能和apache
的expire
类似。ios
3.Nginx expires 功能优势
1.Expires能够下降网站的带宽,节约成本。
2.加快用户访问网站的速度,提高了用户访问体验。
3.服务器访问量下降了,服务器压力就减轻了,服务器成本也会下降,甚至能够解决人力成本。
对于几乎全部Web来讲,这是很是重要的功能之一,Apache服务也由此功能。nginx
4. Nginx expires 配置详解
1)根据文件扩展名进行判断,添加expires功能范例。web
location ~.*\.(gif|jpg|jpeg|png|bmp|swf)$
{
expires 3650d;
}
该范例的意思是当前用户访问网站URL结尾的文件扩展名为上述指定的各类类型的图片时,设置缓存3650
天,即10年。
提示:配置能够放在server标签,也能够放在http标签下配置
例如:算法
[root@web02 /]# curl -I www.jd.com HTTP/1.1 200 OK Server: jdws Date: Mon, 25 Jul 2016 15:15:47 GMT Content-Type: text/html; charset=gbk Content-Length: 197220 Connection: keep-alive Vary: Accept-Encoding Expires: Mon, 25 Jul 2016 15:15:38 GMT #告诉用户何时过时 Cache-Control: max-age=20 ser: 6.158 Via: BJ-M-YZ-NX-74(HIT), http/1.1 BJ-UNI-1-JCS-117 ( [cRs f ]) Age: 16
2)根据URI中的路径(目录)进行判断,添加expires功能范例。
location ~^/(images|javascript|js|css|flash|media|static)/ { expires 360d; }
意思是当用户访问URI中包含上述路径(例:images
js
css
这些在服务端是程序目录
)时,把访问的内容设置缓存360天,即1年。若是要想缓存30天,设置30d便可。
HTTP/1.1 200 OK Server: JDWS Date: Mon, 25 Jul 2016 16:00:32 GMT Content-Type: text/html; charset=gbk Vary: Accept-Encoding Expires: Mon, 25 Jul 2016 16:00:48 GMT #<==缓存的过时时间 Cache-Control: max-age=20 #<==缓存的总时间按秒,单位 ser: 130.29 Via: BJ-Y-NX-104(HIT), http/1.1 HK-1-JCS-70 ( [cRs f ]) Age: 14 Content-Length: 197220
5.Nginx expires功能缺点及解决方法
当网站被缓存的页面或数据更新了,此时用户看到的可能仍是旧的已经缓存的内容,这样会影响用户体验。
对常常须要变更的图片等文件,能够缩短对象缓存时间,例如:谷歌和百度的首页图片常常根据不一样的日期换成一些节日的图,因此这里能够将图片设置为缓存期为1天。
当网站改版或更新内容时,能够在服务器将缓存的对象更名(网站代码程序)。
1.对于网站的图片、软件,通常不会被用户直接修改,用户层面上的修改图片,其实是从新传到服务器,虽然内容同样可是是一个新的图片名了
2.网站改版升级会修改JS、CSS元素,若改版的时候对这些元素该了名,会使得前端的CDN以及用户须要从新缓存内容。
6.企业网站缓存日期曾经的案例参考
若企业的业务和访问量不一样,那么网站的缓存期时间设置也是不一样的,好比:
a.51CTP:1周
b.sina:15天
c.京东:25年
d.淘宝:10年
7.企业网站有可能不但愿被缓存的内容
1.广告图片,用于广告服务,都缓存了就很差控制展现了。
2.网站流量统计工具(js代码)都缓存了流量统计就不许了
3.更新很频繁的文件(google的logo),若是按天,缓存效果仍是显著的。
日志
相关优化与安装1.编写脚本脚本实现Nginx access日志轮询
Nginx目前没有相似Apache的经过cronlog
或者rotatelog
对日志分割处理的能力,可是,运维人员能够经过利用脚本开发、Nginx的信号控制功能或reload从新加载,来实现日志自动切割,轮询。
(1)配置日志切割脚本
[root@web02 /]# mkdir /server/scripts/ -p [root@web02 /]# cd /server/scripts/ [root@web02 scripts]# cat cut_nginx_log.sh cd /application/nginx/logs && \ /bin/mv www_access.log www_access_$(data +%F -d -1dy).log #将日志按日志改为前一天的名称 /application/nginx/sbin/nginx -s reload #从新加载nginx使得从新生成访问日志文件
提示:实际上脚本的功能很简单,就是更名日志,而后加载nginx,从新生成文件记录日志。
(2)将这段脚本保存后加入到定时任务,设置天天凌晨0点进行切割日志
[root@web02 scripts]# crontab -e ###cut nginx access log 00 00 * * * /bin/sh /server/scripts/cut_nginx.log.sh >/dev/null 2>&1
解释:天天0点执行cut_nginx_log.sh
脚本,将脚本的输出重定向到空。
2.不记录不须要的访问日志
对于负载均衡器健康检查节点或某些特定文件(好比图片、js
、css
)的日志,通常不须要记录下来,由于在统计PV时是按照页面计算的。并且日志写入频繁会大量消耗磁盘I/O,下降服务的性能。
具体配置以下:
location ~ .*\.(js|jpg|JPG|jpeg|JPEG|css|bmp|gif|GIF)?$ {
access_log off;
}
这里用location
标签匹配不记录日志的元素扩展名,而后关掉了日志。
3.访问日志的权限设置
加入日志目录为/app/logs
则受权方法为:
chown -R root.root /app/logs/ chmod -R 700 /app/logs
不须要在日志目录上给nginx用户读或写的许可。
1.根据扩展名限制程序和文件访问
Web2.0时代,绝大多数网站都是以用户为中心,例如:BBS、blog、sns产品,这几个产品共同特色就是不但容许用户发布内容到服务器,还容许用户发图片甚至附件到服务器,因为为用户打开了上传的功能,由于给服务器带来了很大的安全风险。
下面将利用Nginx配置禁止访问上传资源目录下的PHP、shell、perl、Python程序文件,这样用户即便上传了木马文件也无法去执行,从而增强了网站的安全。
配置Nginx,限制禁止解析指定目录下的制定程序。
location ~ ^/images/.*\.(php|php5|.sh|.pl|.py)$ { deny all; } location ~ ^/static/.*\.(php|php5|.sh|.pl|.py)$ { deny all; } location ~* ^/data/(attachment|avatar)/.*\.(php|php5)$ { deny all; }
Nginx下配置禁止访问*.txt文件
location ~*\.(txt|doc)${ if (-f $request_filename) { root /data/www/www; #rewrite ....能够重定向某个URL break; } } location ~*\.(txt|doc)${ root /data/www/www; deny all; }
对上述限制须要卸载php
匹配的前面
location ~.*\.(php|php5)?$ { fastcgi_pass 127.0.0.1:9000 fastcgi_index index.php include fcgi.conf; }
对目录访问进行设置
单目录
location ~ ^/(static)/ { deny all; } location ~ ^/static { deny all; }
多目录
location ~ ^/(static)/ { deny all; }
范例:禁止访问目录并返回指定的http
状态码
location /admin/ { return 404; } location /templates/ { return 403; }
限制网站来源IP访问
案例环境:phpmyadmin
数据库的Web客户端,内部开发人员使用
禁止某目录让外界访问,但容许某IP访问该目录,切支持PHP解析
location ~ ^/docker/ { allow 202.111.12.211; deny all; }
企业问题案例: Nginx作反向代理的时候能够限制客户端IP吗?
解答:能够,具体方法以下。
方法1:使用if来控制。 if ( $remote_addr = 10.0.0.7 ) { return 403; } if ( $remote_addr = 218.247.17.130 ) { set $allow_access_root 'true'; }
Nginx
如何预防用户IP访问网站(恶意域名解析,至关因而直接IP访问企业网站)
一:第一种方法
让使用IP访问的网站用户,或者而已解析域名的用户,收到501
错误
在配置文件中添加一个server主机,输入下面内容:
server { listen 80 default_server; server_name _; return 501; }
二:第二种方法
经过301跳转到主页。
server { listen 80 default_server; server_name _; rewrite ^(.*) http://www.abcdocker.com/$1 permanent; }
要放在第一个server
if ($host !~ ^www/.abcdocker/.com$){ rewrite ^(.*) http://www.abcdocker.com$1 permanent; }
若是header信息和host主机名字字段非www.abcdocker.com
,就301跳转到www.baidu.cn
防盗链
解决方案1.什么是资源盗链
简单的说,就是某些不发的网站未经许可,经过在其自身网站程序里非法调用其余网站的资源吗,而后在本身的网站上显示。达到补充自身网站的效果,这一举动不但浪费了调用网站的流量,还形成服务器的压力,甚至宕机。
2.网站资源被盗链带来的问题
若网站图片及相关资源被盗链,最直接的影响就是网络带宽占用加大了,带宽费用多了,网站流量也可能忽高忽低,nagios/zabbix
等报警服务频繁报警。
最严重的状况就是网站的资源被非法使用,致使网站带宽成本加大和服务器压力加大,有可能会致使数万元的损失,且网站的正经常使用户访问也会受到影响。
3.网站资源被盗链严重问题企业真实案例
公司的CDN源站的流量没有变更,可是CDN加速那边的流量无端超了好几个GB,不知道怎么如理。
该故障的影响:
因为是购买的CDN网站加速服务,所以虽然流量多了几个GB,可是业务未受影响。只是,这么大的异常流量,持续下去可直接致使公司无端损失数万元。
解决方案:
第一,对IDC及CDN带宽作监控报警。
第二,做为高级运维或者运维经理,天天上班的重要任务,就是常常查看网站流量图,关注流量变化,关注异常流量
第三,对访问日志作分析,对于异常流量迅速定位,而且和公司市场推广等有比较好的默契沟通
相关博客:轻松应对IDC机房带宽忽然暴涨问题
4.常见防盗链解决方案的基本原理
(1)根据http referer 实现防盗链
在HTTP协议中,有一个表头字段叫referer,使用URL格式来表示哪里的连接用了当前网页的资源。经过referer能够检测目标访问的来源网页,若是是资源文件,能够跟踪到显示它的网页地址,一旦检测出来不是本站,立刻进行阻止或返回指定的页面。
HTTP Referer是header的一部分,当浏览器向Web服务器发送请求的时候,通常会带上Referer,告诉服务器我是从哪一个页面连接过来的,服务器籍此能够得到一些信息用于处理,Apache、Nginx、Lighttpd三者都支持根据http referer实现防盗链referer是目前网站图片、附件、html最经常使用的盗链手段。
log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; #--> $http_referer
(2)根据cookie防盗链
对于一些特殊的业务数据,例如流媒体应用以及经过Active X显示的内容(例如,Flash、Windows Media视频、流媒体的RTSP协议等)由于他们不向服务器提供Referer Header,因此若也采用上述的Referer的防盗链手段就达不到想要的结果。
对于视频这种占用流量较大的业务根据实现防盗链是比较困难的,此时能够采用Cookie技术,来解决对Flash、Windows Media视频等防盗链问题。
例如:Active X插件不传递Referer,但会传递Cookie。能够在显示Active X的页面的 标签内嵌入一段代码,能够用JavaScript 代码来设置一段Cookie;Cache=av;
而后就能够经过各类手段来判断这个Cookie
的存在以及验证其值的操做了。
(3)经过加密变换访问路径实现防盗链
此方法比较适合视频以及下载类业务的网站。例如:Lighttpd
有相似的插件mod_secdownload
来实现此功能,如今服务器配置此模块,设置一个固定用于加密的字符串,好比abcdocker,而后设置一个url前缀,好比/abc/,再设置一个过时时间,好比1小时,而后写一段PHP代码,例如加密字符串和系统时间等经过md5算法生产一个加密字符串,最终获取到的文件的URL链接种会带由一个时间戳和一个加密字符的md5数值,在访问时系统会对这两个数据进行验证。若是时间不在预期的时间段内(如1小时)则失效;若是时间戳符合条件,可是加密的字符串不符合条件也失效,从而达到防盗链的效果。
PHP代码示例以下:
Nginx实现下载防盗链模块
http://nginx.org/en/docs/http/ngx_http_secure_link_module.html
(4)在产品设计上解决盗链方案
产品设计时,处理盗链问题可将计就计,为网络上传的图片添加水印。
图片添加版权水印,不少网站通常直接转载图片是为了快捷,可是对于有水印的图片,不少站长是不肯意进行转载的。
(4)Nginx防盗链演示
1.利用referer而且针对扩展名rewrite重定向。
#Preventing hot linking of images and other file types location ~* ^.+\.(jpg|png|swf|flv|rar|zip)$ { valid_referers none blocked *.abcdocker.org abcdocker.org; if ($invalid_referer) { rewrite ^/ http://bbs.abcdocker.org/img/nolink.gif; } root html/www; }
提示:要根据主机公司实际业务(是否有外联的合做),进行域名设置。
针对防盗链中设置进行解释 jpg
png
swf
flv
rar
zip
表示对jpg、gif
等zip为后缀的文件实行防盗链处理 *.abcdocker.org abcdocker.org
表示这个请求能够正常访问上面指定的文件资源 if{}
中内容的意思是:若是地址不是上面指定的地址就跳转到经过rewrite指定的地址,也能够直接经过retum返回403
错误 return 403
为定义的http返回状态码 rewrite ^/ http://bbs.abcdocker.org/img/nolink.gif;
表示显示一张防盗链图片 access_log off;
表示不记录访问日志,减轻压力 expires 3d
指的是全部文件3天的浏览器缓存
实战模拟演示
1)假定blog.abcdocker.com是非法盗链的网站域名,先写一个html程序。
<html> <head> <title> 123456789 </title> </head> <body bgcolor=green> 博客<br>个人博客<a href="http://oldboy.blog.etiantian.org" target=_blank“>博客地址</a> <img src="http://www.abcdocker.com/stu.jpg"> </body> </html>
这个非法连接的网站给他用户提供的访问地址是 http://blog.abcdocker.com/123.html
网站里回家再www.abcdocker.com
网站图片的stu.jpg
Nginx的日志格式为www.abcdocker.com
,其内容以下
log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"';
盗链的图片blog.abcdocker.com访问咱们站点时,记录的日志以下:
10.0.0.1 - - [30/May/2016:11:13:38 +0800] "GET /stu.jpg HTTP/1.1" 200 68080 "http://blog.abcdocker.com/123.html "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:47.0) Gecko/20100101 Firefox/47.0"
可在www.abcdocker.com网站下设置防盗链,Nginx的方法以下:
#Preventing hot linking of images and other file types location ~* ^.+\.(jpg|png|swf|flv|rar|zip)$ { valid_referers none blocked *.abcdocker.org abcdocker.org; if ($invalid_referer) { rewrite ^/ http://bbs.abcdocker.org/img/nolink.gif; } root html/www; }
提示: referers不是*.abcdocker.org的话,就给他一个跳转
5.为何要配置错误页面优化显示?
在网站的运行过程当中,可能因为页面不存在或者系统过载等缘由,致使网站没法正常响应用于的请求,此时Web服务默认会返回系统默认的错误码,或者很不友好的页面。影响用户体验
对错误代码404
实行本地页面优雅显示
server { listen 80; server_name www.etiantian.org; location / { root html/www; index index.php index.html index.htm; error_page 404 /404.html #当页面出现404错误时,会跳转404.html页面显示给用户 }
提示:
此路径相对于root html/www;
的
error_page 404 /404.html; error_page 403 /403.html;
另外一种 重定向到一个地址
error_page 404 http://www.abcdocker.com; #error_page 404 /404.html; error_page 404 http://www.abcdocker.com;
能够写多行。
error_page 404 /404.html; error_page 500 502 503 504 /50x.html;
阿里门户网站天猫的Nginx优雅显示配置案例以下:
error_page 500 501 502 503 504 http://err.tmall.com/error2.html; error_page 400 403 404 405 408 410 411 412 413 414 415 http://err.tmall.com/error1.html;
为了保证网站不遭受木马入侵,全部站点的用户和组都应该为root
,全部目录权限是755
;全部文件权限是644
.设置以下:
-rw-r--r-- 1 root root 20 May 26 12:04 test_info.php
drw-r--r-- 8 root root 4096 May 29 16:41 uploads
能够设置上传只能够put
不能够get
,或者使用location
不容许访问共享服务器的内容,图片服务器禁止访问php|py|sh。这样就算黑客将php木立刻传上来也没法进行执行
集群架构中不一样角色的权限具体思路说明
爬虫
优化1.robots.txt
机器人协议介绍
Robots
协议(也成为爬虫协议、机器人协议等)的全称是网络爬虫排除标准
(Robots Exclusin Protocol)网站经过Robots协议告诉引擎那个页面能够抓取,那些页面不能抓取。
2.机器人协议八卦 2008年9月8日
,淘宝网宣布封杀百度爬虫,百度热痛遵照爬虫协议,由于一旦破坏协议,用户的隐私和利益就没法获得保障。
2012年8月。360综合搜索被指违反robots协议
3.Nginx防爬虫优化
咱们能够根据客户端的user-agents
信息,轻松地阻止爬虫取咱们的网站防爬虫
范例:阻止下载协议代理
## Block download agents ## if ($http_user_agent ~* LWP::Simple|BBBike|wget) { return 403; }
说明:若是用户匹配了if后面的客户端(例如wget)就返回403
范例:添加内容防止N多爬虫代理访问网站
if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot") { return 403; }
测试禁止不一样的浏览器软件访问
if ($http_user_agent ~* "Firefox|MSIE") { rewrite ^(.*) http://blog.etiantian.org/$1 permanent; } 若是浏览器为Firefox或者IE就会跳转到http:blog.etiantian.org
提示:
这里主要用了$remote_addr
这个函数在记录。
查看更多函数
[root@web02 conf]# cat fastcgi_params fastcgi_param QUERY_STRING $query_string; fastcgi_param REQUEST_METHOD $request_method; fastcgi_param CONTENT_TYPE $content_type; fastcgi_param CONTENT_LENGTH $content_length; fastcgi_param SCRIPT_NAME $fastcgi_script_name; fastcgi_param REQUEST_URI $request_uri; fastcgi_param DOCUMENT_URI $document_uri; fastcgi_param DOCUMENT_ROOT $document_root; fastcgi_param SERVER_PROTOCOL $server_protocol; fastcgi_param HTTPS $https if_not_empty; fastcgi_param GATEWAY_INTERFACE CGI/1.1; fastcgi_param SERVER_SOFTWARE nginx/$nginx_version; fastcgi_param REMOTE_ADDR $remote_addr; fastcgi_param REMOTE_PORT $remote_port; fastcgi_param SERVER_ADDR $server_addr; fastcgi_param SERVER_PORT $server_port; fastcgi_param SERVER_NAME $server_name; # PHP only, required if PHP was built with --enable-force-cgi-redirect fastcgi_param REDIRECT_STATUS 200;
HTTP最经常使用的方法为GET/POST
,咱们能够经过Nginx限制http请求的方法来达到提高服务器安全的目的,
例如,让HTTP只能使用GET、HEAD和POST方法配置以下:
#Only allow these request methods if ($request_method !~ ^(GET|HEAD|POST)$ ) { return 501; } #Do not accept DELETE, SEARCH and other methods
设置对应的用户相关权限,这样一旦程序有漏洞,木马就有可能被上传到服务器挂载的对应存储服务器的目录里,虽然咱们也作了禁止PHP、SH、PL、PY等扩展名的解析限制,可是仍是会遗漏一些咱们想不到的可执行文件。对于这种状况,该怎么办捏?事实上,还能够经过限制上传服务器的web服务(能够具体到文件)使用GET方法,来达到防治用户经过上传服务器访问存储内容,让访问存储渠道只能从静态或图片服务器入口进入。例如,在上传服务器上限制HTTP的GET方法的配置以下:
## Only allow GET request methods ## if ($request_method ~* ^(GET)$ ) { return 501; }
提示:还能够加一层location
更具体的限制文件名
CDN
作网站内容加速1.什么是CDN?
CDN的全称是Content Delivery Network
中文意思是内容分发网络。
经过现有的Internet中增长一层新的网络架构,将网站的内容发布到最接近用户的cache服务器内,经过智能DNS负载均衡技术,判断用户的来源,让用户就近使用和服务器相同线路的带宽访问cache服务器取得所需的内容。
例如:天津网通用户访问天津网通Cache服务器上的内容,北京电信访问北京电信Cache服务器上的内容。这样能够减小数据在网络上传输的事件,提升访问速度。
CDN是一套全国或全球的分布式缓存集群,其实质是经过智能DNS判断用户的来源地域以及上网线路,为用户选择一个最接近用户地域以及和用户上网线路相同的服务器节点,由于地域近,且线路相同,因此,能够大幅度提高浏览网站的体验。
CDN的价值
一、为架设网站的企业省钱。
二、提高企业网站的用户访问体验(相同线路,相同地域,内存访问)。
三、能够阻挡大部分流量攻击,例如:DDOS攻击
更多CDN介绍请查看本网相关文章
1.为网站程序解耦
解耦是开发人员中流行的一个名词,简单地说就是把一堆程序代码按照业务用途分开,而后提供服务,例如:注册登陆、上传、下载、订单支付等都应该是独立的程序服务,只不过在客户端看来是一个总体而已。若是中小公司作不到上述细致的解耦,最起码让下面的几个程序模块独立。
1.网站页面服务
2.图片附件及下载服务。
3.上传图片服务
上述三者的功能尽可能分离。分离的最佳方式是分别使用独立的服务器(须要改动程序)若是程序实在很差改,次选方案是在前端负载均衡器haproxy/nginx
上,根据URI设置
使用普通用户启动Nginx(监牢模式)
1.为何要让Nginx服务使用普通用户
默认状况下,Nginx的Master
进程使用的是root
用户,Worker
进程使用的是Nginx
指定的普通用户,使用root用户跑Nginx的Master进程由两个最大的问题:
▲ 管理权限必须是root,这就使得最小化分配权限原则遇到难题
▲使用root跑Nginx服务,一旦网站出现漏洞,用户就很容易得到服务器root权限
[root@web02 ~]# ps -ef|grep nginx root 2155 1 0 03:43 ? 00:00:00 nginx: master process /application/nginx/sbin/nginx www 2156 2155 0 03:43 ? 00:00:01 nginx: worker process www 3047 2155 0 06:17 ? 00:00:00 nginx: worker process www 3051 2155 0 06:17 ? 00:00:00 nginx: worker process www 3435 2155 0 11:13 ? 00:00:00 nginx: worker process
2.给Nginx服务降权解决方案
(1) 给Nginx服务降权,用inca用户跑Nginx服务,给开发及运维设置普通帐号,只要和inca同组便可管理Nginx,该方案解决了Nginx管理问题,防止root分配权限过大。
(2) 开发人员使用普通帐户便可管理Nginx服务以及站点下的程序和日志
(3) 采起项目负责制,即谁负载项目维护处了问题就是谁负责。
3.实时Nginx降权方案
[root@web02 ~]# useradd inca [root@web02 ~]# su - inca [inca@web02 ~]$ pwd /home/inca [inca@web02 ~]$ mkdir conf logs www [inca@web02 ~]$ cp /application/nginx/conf/mime.types ~/conf/ [inca@web02 ~]$ echo inca >www/index.html [inca@web01 ~]$ cat conf/nginx.conf worker_processes 4; worker_cpu_affinity 0001 0010 0100 1000; worker_rlimit_nofile 65535; error_log /home/inca/logs/error.log; user inca inca; pid /home/inca/logs/nginx.pid; events { use epoll; worker_connections 10240; } http { include mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"'; #web.fei fa daolian.............. server { listen 8080; server_name www.etiantian.org; root /home/inca/www; location / { index index.php index.html index.htm; } access_log /home/inca/logs/web_blog_access.log main; } }
提示,须要关闭root权限的nginx,不然会报错
[root@web02 ~]# /application/nginx/sbin/nginx -s stop [root@web02 ~]# lsof -i:80
切换用户,启动Nginx
[root@web02 ~]# su - inca [inca@web02 ~]$ /application/nginx/sbin/nginx -c /home/inca/conf/nginx.conf &>/dev/null & [1] 3926 [inca@web02 ~]$ lsof -i:80 [1]+ Exit 1 /application/nginx/sbin/nginx -c /home/inca/conf/nginx.conf &>/dev/null
本解决方案的优势以下:
1.给Nginx服务降权,让网站更安全
2.按用户设置站点权限,使站点更安全(无需虚拟化隔离)
3.开发不须要用root便可完整管理服务及站点
4.可实现对责任划分,网络问题属于运维的责任,打开不就是开发责任或共同承担
控制Nginx并发
链接数
nginx_http_limit_conn_module
这个模块用于限制每一个定义的key值的链接数,特别是单IP的链接数。
不是全部的链接数都会被计数。一个符合要求的链接是整个请求头已经被读取的链接。
控制Nginx并发链接数量参数的说明以下:
limit_conn_zone参数: 语法:limit_conn_zone key zone=name:size; 上下文:http 用于设置共享内存区域,key能够是字符串,nginx自有变量或前两个组合,如$binary_remote_addr、$server_name。name为内存区域的名称,size为内存区域的大小。 limit_conn参数: 语法:limit_conn zone number; 上下文:http、server、location
配置文件以下:
[root@oldboy ~]# cat /application/nginx/conf/nginx.conf worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; limit_conn_zone $binary_remote_addr zone=addr:10m; server { listen 80; server_name www.etiantian.org; location / { root html; index index.html index.htm; limit_conn addr 1; #<==限制单IP的并发链接为1 } } }
还能够设置某个目录单IP并发链接数
location /download/ { limit_conn addr 1; }
在客户端使用Apache的ab测试工具进行测试
执行ab -c 1 -n 10 http://10.0.0.3
进行测试
注意:-c并发数、-n请求总数,10.0.0.3nginx
的IP地址
ngx_http_limit_req_module
模块用于限制每一个IP访问定义key的请求速率。
limit_req_zone参数说明以下:
语法:limit_req_zonekey zone=name:size rate=rate;
用于设置共享内存区域,key能够是字符串、Nginx自有变量或前两个组合,如$binary_remote_addr
name
为内存区域的名称,size
为内存区域的大小,rate
为速率,单位为r/s
每秒一个请求。
[root@oldboy ~]# cat /application/nginx/conf/nginx.conf worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s; #<==以请求的客户端IP做为key值,内存区域命名为one,分配10m内存空间,访问速率限制为1秒1次请求(request) server { listen 80; server_name www.etiantian.org; location / { root html; index index.html index.htm; limit_req zone=one burst=5; #<==使用前面定义的名为one的内存空间,队列值为5,便可以有5个请求排队等待。 } } }
本文转载自https://www.abcdocker.com/abcdocker/586,感谢!