一个关于nginx+php 的性能优化小测试

准备工做

  • 一台ECS服务器
  • 手动编译nginx+php
  • 修改index.php ,输出 ‘hello world’
  • ab工具,ab -c 100 -n 50000 ,连续5次,记录压测的qps平均值。
  • 想办法去优化,调整各类参数。每次调整一个参数有发现QPS提升,那就记录下来,并思考qps瓶颈是在哪

Nginx 一些基本配置的描述

user administrator administrators;  #配置用户或者组,默认为nobody nobody。
 worker_processes 2;  #容许生成的进程数,默认为1
 pid /nginx/pid/nginx.pid;   #指定nginx进程运行文件存放地址
 error_log log/error.log debug;  #制定日志路径,级别。这个设置能够放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg
 events {
     accept_mutex on;   #设置网路链接序列化,防止惊群现象发生,默认为on
     multi_accept on;  #设置一个进程是否同时接受多个网络链接,默认为off
     #use epoll; #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport
     worker_connections  1024;    #最大链接数,默认为512
 }
 http {
     include       mime.types;   #文件扩展名与文件类型映射表
     default_type  application/octet-stream; #默认文件类型,默认为text/plain
     #access_log off; #取消服务日志 
     log_format myFormat '$remote_addr$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式
     access_log log/access.log myFormat;  #combined为日志格式的默认值
     sendfile on;   #容许sendfile方式传输文件,默认为off,能够在http块,server块,location块。
     sendfile_max_chunk 100k;  #每一个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。
     keepalive_timeout 65;  #链接超时时间,默认为75s,能够在http,server,location块。
 upstream mysvr {   
       server 127.0.0.1:7878;
       server 192.168.10.121:3333 backup;  #热备
     }
     error_page 404 https://www.baidu.com; #错误页
     server {
         keepalive_requests 120; #单链接请求上限次数。
         listen       4545;   #监听端口
         server_name  127.0.0.1;   #监听地址 
         location  ~^.+$ {       #请求的url过滤,正则匹配,~为区分大小写,~为不区分大小写。
            #root path; #根目录
            #index vv.txt; #设置默认页
            proxy_pass  http://mysvr;  #请求转向mysvr 定义的服务器列表
            deny 127.0.0.1;  #拒绝的ip
            allow 172.18.5.54; #容许的ip 
         } 
     }
}

 

接下来咱们开始吧

ECS配置
CPU: 1核
内存: 1 GiB
操做系统: CentOS 7 64位
当前使用带宽: 1Mbpsphp

在高并发的状况下,内核会认为系统受到了SYN flood攻击,会发送cookies(possible SYN flooding on port 80. Sending cookies),这样会减慢影响请求的速度,因此在应用服务器上设置下这个参数为0禁用系统保护就能够进行大并发测试了:node

$ vim /etc/sysctl.conf 
 $ net.ipv4.tcp_syncookies = 0
 $ sysctl -p
 $ net.ipv4.tcp_syncookies = 0

 

net.ipv4.tcp_syncookies = 0  #此参数是为了防止洪水攻击的,但对于大并发系统,要禁用此设置
net.ipv4.tcp_max_syn_backlog #参数决定了SYN_RECV状态队列的数量,通常默认值为512或者1024,即超过这个数量,系统将再也不接受新的TCP链接请求,必定程度上能够防止系统资源耗尽。可根据状况增长该值以接受更多的链接请求。
net.ipv4.tcp_tw_recycle #参数决定是否加速TIME_WAIT的sockets的回收,默认为0。
net.ipv4.tcp_tw_reuse #参数决定是否可将TIME_WAIT状态的sockets用于新的TCP链接,默认为0。
net.ipv4.tcp_max_tw_buckets #参数决定TIME_WAIT状态的sockets总数量,可根据链接数和系统资源须要进行设置nginx

默认编译测试,无修改:

ab -c 100 -n 50000 http://127.0.0.1/index.php
一、 7111 二、7233 三、7240 四、7187 五、7197 平均:7194git

修改

worker_processes 1 => auto

worker_processes :工做进程数,调整通常为auto或者跟cpu核心同样的数量。github

通常一个进程足够了,你能够把链接数设得很大。(worker_processes: 1,worker_connections: 10,000)
若是有SSL、gzip这些比较消耗CPU的工做,并且是多核CPU的话,能够设为和CPU的数量同样。(worker_processes: CPU核心数)
或者要处理不少不少的小文件,并且文件总大小比内存大不少的时候,也能够把进程数增长,以充分利用IO带宽(主要彷佛是IO操做有block)算法

一、 7242 二、7228 三、7275 四、7234 五、7231 平均:7242vim

worker_connections 1020 => 65535

单个进程容许的客户端最大链接数,通常来讲,链接数能够设置和端口数同样。浏览器

一、 7212 二、7236 三、7223 四、7260 五、7230 平均 7232缓存

worker_rlimit_nofile 65535

worker进程最大打开文件数,通常能够优化设置成和端口数同样bash

一、 7243 二、7236 三、7146 四、7243 五、7196 平均 7212.8

use epoll;

使用epoll的I/O模型,事件处理模型优化。

一、7265 二、7196 三、7227 四、7216 五、7253 平均 7231

multi_accept ON

multi_accept指令使得NGINX worker可以在得到新链接的通知时尽量多的接受链接。 此指令的做用是当即接受全部链接放到监听队列中。 若是指令被禁用,worker进程将逐个接受链接。
一、 7273 二、7281 三、7308 四、7299 五、7290 平均 7290

accept_mutex ON

因为咱们在NGINX中配置了多个workers,所以咱们还应配置影响worker的相关指令。 events区域下accept_mutex参数将使每一个可用的worker进程逐个接受新链接。设置网路链接序列化,防止惊群现象发生,默认为on。
服务器是1核,因此影响不大
一、7268 二、7295 三、7308 四、7274 五、7261 平均 7281

tcp_nopush On

TCP_CORK做为Nagle算法的替代方案,Linux提供了TCP_CORK选项。 该选项告诉TCP堆栈附加数据包,并在它们已满或当应用程序经过显式删除TCP_CORK指示发送数据包时发送它们。 这使得发送的数据分组是最优量,而且所以提升了网络的效率。
NGINX提供了tcp_nopush指令,在链接套接字时启用TCP_CORK。 该指令可用于http,server和location区块:
http{
     tcp_nopush on;
}
一、7309 二、7321 三、7292 四、7308 五、7322 平均 7310

tcp_nodelay on

TCP/IP网络存在“小包”问题,其中单字符消息可能在高负载网络上致使网络拥塞。 例如分组大小为41字节,其中40字节用于TCP报头,只有1字节是有用信息。 这些小包占用了大约4000%的巨大开销而且使得网络饱和
ohn Nagle经过不当即发送小包来解决问题(Nagle的算法)。 全部这样的分组被收集必定量的时间,而后做为单个分组一次发送。 这改进了底层网络的的效率。 所以,典型的TCP/IP协议栈在将数据包发送到客户端以前须要等待200毫秒。
在打开套接字时可使用TCP_NODELAY选项来禁用Nagle的缓冲算法,并在数据可用时当即发送。 NGINX提供了tcp_nodelay指令来启用此选项。 该指令可用于http,server和location区块:
http{
     tcp_nodelay on;
}

一、 7326 二、7316 三、7334 四、7274 五、7290 平均 7308

worker_priority -5

指明worker进程的nice值
Linux系统中,优先级高的进程会占用更多的系统资源,这里配置的是进程的静态优先级,取值范围-20到+19,-20级别最高。所以能够把这个值设置小一点,但不建议比内核进程的值低(一般为-5)

测试中 0到-5的性能提高明显 0可达到8000均值
一、 7982 二、8023 三、7932 四、7911 五、8052 平均 7980

php-fpm参数调优

pm = dynamic; 
表示使用哪一种进程数量管理方式
    dynamic表示php-fpm进程数是动态的,最开始是pm.start_servers指定的数量,若是请求较多,则会自动增长,保证空闲的进程数不小于pm.min_spare_servers,若是进程数较多,也会进行相应清理,保证多余的进程数很少于pm.max_spare_servers
    static表示php-fpm进程数是静态的, 进程数自始至终都是pm.max_children指定的数量,再也不增长或减小
  1.pm.start_servers = 15; 动态方式下的起始php-fpm进程数量
  2.pm.min_spare_servers = 5; 动态方式下的最小php-fpm进程数量
3.pm.max_spare_servers = 25; 动态方式下的最大php-fpm进程数量
4.pm.max_requests = 5000
设置每一个子进程重生以前服务的请求数. 对于可能存在内存泄漏的第三方模块来讲是很是有用的. 若是设置为 ’0′ 则一直接受请求. 等同于 PHP_FCGI_MAX_REQUESTS 环境变量. 默认值: 0. 这段配置的意思是,当一个 PHP-CGI 进程处理的请求数累积到 5000 个后,自动重启该进程。
7934 2 、8107 3 、8013 四、8039 五、7990 均值 8016

opcache

opcache 绝对是优化的利器,Opcache是字节码缓存,也就是PHP在被编译的时候,首先会把php代码转换为字节码,字节码而后被执行。
php文件第二次执行时,一样仍是会从新转换为字节码,可是不少时候,文件内容几乎是同样的,好比静态HTML文件,生成后内允许久都不会改变,用户访问请求直接由服务器读取响应给客户端浏览器。都不用通过PHP进行解析构建了。
内存中的字节码数据,能够直接缓存进行二次编译。这样程序就会快一些,cpu的消耗也少了。

结论

php-fpm 采用 prefork的方式 (listen同一个地址,而后fork出若干子进程),fast-cgi管理器实现的是多进程模型。

可是在php运行时,每个进程只能处理一个请求,实际上,运行时是单进程,单线程的。

php-fpm一个线程是阻塞模型,必须等待该客户端请求php服务端返回数据,下一个nginx发过来的请求才能被受理,这个时候FPM就须要增多进程去应付并发,更高的qps 须要更多的进程处理,当处理请求的时候发生了时间较长阻塞,致使进程内存没法释放,后续请求没有足够的子进程去处理,更多的瓶颈在于 PHP-FPM 大量子进程的处理和消耗内存上面。

相关文章
相关标签/搜索