11.29 限制user_agent

访问控制 – user_agent目录概要

  • user_agent能够理解为浏览器标识
  • 核心配置文件内容
<IfModule mod_rewrite.c>
        RewriteEngine on
        RewriteCond %{HTTP_USER_AGENT}  .*curl.* [NC,OR]
        RewriteCond %{HTTP_USER_AGENT}  .*baidu.com.* [NC]
        RewriteRule  .*  -  [F]
    </IfModule>
  • curl -A "123123" 指定user_agent

经常使用知识介绍

  • 有时候,网站会受到一种叫 cc 攻击,CC攻击就是黑客,经过软件,肉鸡同时去访问一个站点,超过服务器的并发,就会致使站点宕机;经过肉鸡,软件去访问站点,就是普通的访问,没有什么特殊的,只是让站点超过并发致使严重超负荷而宕机,因此没办法去进行控制;所谓CC攻击都会有一个规律的特征,就是user_agent是一致的,好比同一个IP、同一个标识、同一个地址;遇到这种规律的user_agent频繁访问的状况咱们就能够断定他就是CC攻击,咱们就能够经过限制他的user_agent 减轻服务器压力,只须要让他从正常访问的200,限制为403,就能减轻服务器的压力,由于403仅仅是一个请求,只会使用到不多的带宽,毕竟他没有牵扯到php 和mysqlphp

  • cc攻击html

    • 攻击者借助代理服务器生成指向受害主机的合法请求,实现DDOS和假装就叫:CC(ChallengeCollapsar)。
    • CC主要是用来攻击页面的。你们都有这样的经历,就是在访问论坛时,若是这个论坛比较大,访问的人比较多,打开页面的速度会比较慢,访问的人越多,论坛的页面越多,数据库压力就越大,被访问的频率也越高,占用的系统资源也就至关可观。
    • 一个静态页面不须要服务器多少资源,甚至能够说直接从内存中读出来发给你就能够了,可是论坛就不同了,我看一个帖子,系统须要到数据库中判断我是否有读帖子的权限,若是有,就读出帖子里面的内容,显示出来——这里至少访问了2次数据库,若是数据库的数据容量有200MB大小,系统极可能就要在这200MB大小的数据空间搜索一遍,这须要多少的CPU资源和时间?若是我是查找一个关键字,那么时间更加可观,由于前面的搜索能够限定在一个很小的范围内,好比用户权限只查用户表,帖子内容只查帖子表,并且查到就能够立刻中止查询,而搜索确定会对全部的数据进行一次判断,消耗的时间是至关的大。
    • CC就是充分利用了这个特色,模拟多个用户(多少线程就是多少用户)不停的进行访问(访问那些须要大量数据操做,就是须要大量CPU时间的页面).这一点用一个通常的性能测试软件就能够作到大量模拟用户并发。
  • 肉鸡 (受黑客远程控制的电脑)mysql

    • 肉鸡也称傀儡机,是指能够被黑客远程控制的机器。好比用”灰鸽子”等诱导客户点击或者电脑被黑客攻破或用户电脑有漏洞被种植了木马,黑客能够随意操纵它并利用它作任何事情。
    • 肉鸡一般被用做DDOS攻击。能够是各类系统,如windows、linux、unix等,更能够是一家公司、企业、学校甚至是政府军队的服务器。

访问控制 – user_agent

  1. 打开虚拟主机配置文件
    • 在两个条件中用OR作了一个链接符,理解起来就是 匹配第一条规则或者第二条规则;若是不加OR就是而且的意思,必须两个条件同时匹配之后才会执行
    • NC表示忽略大小写,由于user_agent,可能会是大写的,好比:Mozilla/5.0,他首字母就是大写的
    • RewriteRule .* - [F] 这里的F表示Forbidden
[root@hf-01 111.com]# vim /usr/local/apache2.4/conf/extra/httpd-vhosts.conf


<IfModule mod_rewrite.c>
        RewriteEngine on
        RewriteCond %{HTTP_USER_AGENT}  .*curl.* [NC,OR]        //条件
        RewriteCond %{HTTP_USER_AGENT}  .*baidu.com.* [NC]        //条件
        RewriteRule  .*  -  [F]
    </IfModule>
  1. 而后检查是否存在语法错误,并从新加载配置文件
[root@hf-01 111.com]# /usr/local/apache2.4/bin/apachectl -t
Syntax OK
[root@hf-01 111.com]# /usr/local/apache2.4/bin/apachectl graceful
[root@hf-01 111.com]#
  1. 去访问的时候,会显示403,这是由于限制了user_agent
[root@hf-01 111.com]# curl -x127.0.0.1:80 '111.com/upload/123.php' -I
HTTP/1.1 403 Forbidden
Date: Tue, 26 Dec 2017 20:52:15 GMT
Server: Apache/2.4.29 (Unix) PHP/5.6.30
Content-Type: text/html; charset=iso-8859-1

[root@hf-01 111.com]# curl -x127.0.0.1:80 '111.com/123.php' -I
HTTP/1.1 403 Forbidden
Date: Tue, 26 Dec 2017 20:53:30 GMT
Server: Apache/2.4.29 (Unix) PHP/5.6.30
Content-Type: text/html; charset=iso-8859-1

[root@hf-01 111.com]#
  1. 查看访问日志
[root@hf-01 logs]# tail -5 /usr/local/apache2.4/logs/123.com-access_20171227.log
192.168.74.1 - - [27/Dec/2017:04:32:09 +0800] "GET /123.php HTTP/1.1" 200 7 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0"
192.168.74.1 - - [27/Dec/2017:04:32:10 +0800] "GET /123.php HTTP/1.1" 200 7 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0"
192.168.74.1 - - [27/Dec/2017:04:32:17 +0800] "GET /upload/123.php HTTP/1.1" 403 223 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0"
127.0.0.1 - - [27/Dec/2017:04:52:15 +0800] "HEAD HTTP://111.com/upload/123.php HTTP/1.1" 403 - "-" "curl/7.29.0"
127.0.0.1 - - [27/Dec/2017:04:53:30 +0800] "HEAD HTTP://111.com/123.php HTTP/1.1" 403 - "-" "curl/7.29.0"
[root@hf-01 logs]#
  1. 测试是不是由于user_agent才会被信任的
  2. 首先自定义user_agent
  • curl -A参数,去自定义
模拟user_agent,去访问会看到状态码为200 能够正常访问
[root@hf-01 111.com]# curl -A "hanfeng hanfeng" -x127.0.0.1:80 '111.com/123.php' -I
HTTP/1.1 200 OK
Date: Tue, 26 Dec 2017 21:17:47 GMT
Server: Apache/2.4.29 (Unix) PHP/5.6.30
X-Powered-By: PHP/5.6.30
Content-Type: text/html; charset=UTF-8

[root@hf-01 111.com]# curl -A "hanfeng hanfeng" -x127.0.0.1:80 '111.com/123.php'
123.php[root@hf-01 111.com]# 
[root@hf-01 111.com]#
  1. 查看访问日志,会看到user_agent是hanfeng hanfeng
[root@hf-01 111.com]# !tail
tail -5 /usr/local/apache2.4/logs/123.com-access_20171227.log
192.168.74.1 - - [27/Dec/2017:04:32:17 +0800] "GET /upload/123.php HTTP/1.1" 403 223 "-" "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0"
127.0.0.1 - - [27/Dec/2017:04:52:15 +0800] "HEAD HTTP://111.com/upload/123.php HTTP/1.1" 403 - "-" "curl/7.29.0"
127.0.0.1 - - [27/Dec/2017:04:53:30 +0800] "HEAD HTTP://111.com/123.php HTTP/1.1" 403 - "-" "curl/7.29.0"
127.0.0.1 - - [27/Dec/2017:05:17:47 +0800] "HEAD HTTP://111.com/123.php HTTP/1.1" 200 - "-" "hanfeng hanfeng"
127.0.0.1 - - [27/Dec/2017:05:19:40 +0800] "GET HTTP://111.com/123.php HTTP/1.1" 200 7 "-" "hanfeng hanfeng"
[root@hf-01 111.com]#

curl命令

  • curl命令是一个利用URL规则在命令行下工做的文件传输工具
    • -A ,指定user-agent,设置用户代理发送给服务器
    • -e ,指定referer,就是来源网址
    • -I ,仅仅查看它的状态码
    • -x ,在指定的端口上使用HTTP代理
相关文章
相关标签/搜索