准备工做
- 一台ECS服务器
- 手动编译nginx+php
- 修改index.php ,输出 ‘hello world’
- 用ab工具,ab -c 100 -n 50000 ,连续5次,记录压测的qps平均值。
- 想办法去优化,调整各类参数。每次调整一个参数有发现QPS提升,那就记录下来,并思考qps瓶颈是在哪
Nginx 一些基本配置的描述
user administrator administrators; #配置用户或者组,默认为nobody nobody。 worker_processes 2; #容许生成的进程数,默认为1 pid /nginx/pid/nginx.pid; #指定nginx进程运行文件存放地址 error_log log/error.log debug; #制定日志路径,级别。这个设置能够放入全局块,http块,server块,级别以此为:debug|info|notice|warn|error|crit|alert|emerg events { accept_mutex on; #设置网路链接序列化,防止惊群现象发生,默认为on multi_accept on; #设置一个进程是否同时接受多个网络链接,默认为off #use epoll; #事件驱动模型,select|poll|kqueue|epoll|resig|/dev/poll|eventport worker_connections 1024; #最大链接数,默认为512 } http { include mime.types; #文件扩展名与文件类型映射表 default_type application/octet-stream; #默认文件类型,默认为text/plain #access_log off; #取消服务日志 log_format myFormat '$remote_addr–$remote_user [$time_local] $request $status $body_bytes_sent $http_referer $http_user_agent $http_x_forwarded_for'; #自定义格式 access_log log/access.log myFormat; #combined为日志格式的默认值 sendfile on; #容许sendfile方式传输文件,默认为off,能够在http块,server块,location块。 sendfile_max_chunk 100k; #每一个进程每次调用传输数量不能大于设定的值,默认为0,即不设上限。 keepalive_timeout 65; #链接超时时间,默认为75s,能够在http,server,location块。 upstream mysvr { server 127.0.0.1:7878; server 192.168.10.121:3333 backup; #热备 } error_page 404 https://www.baidu.com; #错误页 server { keepalive_requests 120; #单链接请求上限次数。 listen 4545; #监听端口 server_name 127.0.0.1; #监听地址 location ~^.+$ { #请求的url过滤,正则匹配,~为区分大小写,~为不区分大小写。 #root path; #根目录 #index vv.txt; #设置默认页 proxy_pass http://mysvr; #请求转向mysvr 定义的服务器列表 deny 127.0.0.1; #拒绝的ip allow 172.18.5.54; #容许的ip } } }
接下来咱们开始吧
ECS配置
CPU: 1核
内存: 1 GiB
操做系统: CentOS 7 64位
当前使用带宽: 1Mbpsphp
在高并发的状况下,内核会认为系统受到了SYN flood攻击,会发送cookies(possible SYN flooding on port 80. Sending cookies),这样会减慢影响请求的速度,因此在应用服务器上设置下这个参数为0禁用系统保护就能够进行大并发测试了:node
$ vim /etc/sysctl.conf $ net.ipv4.tcp_syncookies = 0 $ sysctl -p $ net.ipv4.tcp_syncookies = 0
net.ipv4.tcp_syncookies = 0 #此参数是为了防止洪水攻击的,但对于大并发系统,要禁用此设置
net.ipv4.tcp_max_syn_backlog#参数决定了SYN_RECV状态队列的数量,通常默认值为512或者1024,即超过这个数量,系统将再也不接受新的TCP链接请求,必定程度上能够防止系统资源耗尽。可根据状况增长该值以接受更多的链接请求。
net.ipv4.tcp_tw_recycle#参数决定是否加速TIME_WAIT的sockets的回收,默认为0。
net.ipv4.tcp_tw_reuse#参数决定是否可将TIME_WAIT状态的sockets用于新的TCP链接,默认为0。
net.ipv4.tcp_max_tw_buckets#参数决定TIME_WAIT状态的sockets总数量,可根据链接数和系统资源须要进行设置nginx
默认编译测试,无修改:
ab -c 100 -n 50000 http://127.0.0.1/index.php
一、 7111 二、7233 三、7240 四、7187 五、7197 平均:7194git
修改
worker_processes 1 => auto
worker_processes :工做进程数,调整通常为auto或者跟cpu核心同样的数量。github
通常一个进程足够了,你能够把链接数设得很大。(worker_processes: 1,worker_connections: 10,000)
若是有SSL、gzip这些比较消耗CPU的工做,并且是多核CPU的话,能够设为和CPU的数量同样。(worker_processes: CPU核心数)
或者要处理不少不少的小文件,并且文件总大小比内存大不少的时候,也能够把进程数增长,以充分利用IO带宽(主要彷佛是IO操做有block)算法
一、 7242 二、7228 三、7275 四、7234 五、7231 平均:7242vim
worker_connections 1020 => 65535
单个进程容许的客户端最大链接数,通常来讲,链接数能够设置和端口数同样。浏览器
一、 7212 二、7236 三、7223 四、7260 五、7230 平均 7232缓存
worker_rlimit_nofile 65535
worker进程最大打开文件数,通常能够优化设置成和端口数同样bash
一、 7243 二、7236 三、7146 四、7243 五、7196 平均 7212.8
use epoll;
使用epoll的I/O模型,事件处理模型优化。
一、7265 二、7196 三、7227 四、7216 五、7253 平均 7231
multi_accept ON
multi_accept指令使得NGINX worker可以在得到新链接的通知时尽量多的接受链接。 此指令的做用是当即接受全部链接放到监听队列中。 若是指令被禁用,worker进程将逐个接受链接。
一、 7273 二、7281 三、7308 四、7299 五、7290 平均 7290
accept_mutex ON
因为咱们在NGINX中配置了多个workers,所以咱们还应配置影响worker的相关指令。 events区域下accept_mutex参数将使每一个可用的worker进程逐个接受新链接。设置网路链接序列化,防止惊群现象发生,默认为on。
服务器是1核,因此影响不大
一、7268 二、7295 三、7308 四、7274 五、7261 平均 7281
tcp_nopush On
TCP_CORK做为Nagle算法的替代方案,Linux提供了TCP_CORK选项。 该选项告诉TCP堆栈附加数据包,并在它们已满或当应用程序经过显式删除TCP_CORK指示发送数据包时发送它们。 这使得发送的数据分组是最优量,而且所以提升了网络的效率。
NGINX提供了tcp_nopush指令,在链接套接字时启用TCP_CORK。 该指令可用于http,server和location区块:
http{
tcp_nopush on;
}
一、7309 二、7321 三、7292 四、7308 五、7322 平均 7310
tcp_nodelay on
TCP/IP网络存在“小包”问题,其中单字符消息可能在高负载网络上致使网络拥塞。 例如分组大小为41字节,其中40字节用于TCP报头,只有1字节是有用信息。 这些小包占用了大约4000%的巨大开销而且使得网络饱和
ohn Nagle经过不当即发送小包来解决问题(Nagle的算法)。 全部这样的分组被收集必定量的时间,而后做为单个分组一次发送。 这改进了底层网络的的效率。 所以,典型的TCP/IP协议栈在将数据包发送到客户端以前须要等待200毫秒。
在打开套接字时可使用TCP_NODELAY选项来禁用Nagle的缓冲算法,并在数据可用时当即发送。 NGINX提供了tcp_nodelay指令来启用此选项。 该指令可用于http,server和location区块:
http{
tcp_nodelay on;
}
一、 7326 二、7316 三、7334 四、7274 五、7290 平均 7308
worker_priority -5
指明worker进程的nice值
Linux系统中,优先级高的进程会占用更多的系统资源,这里配置的是进程的静态优先级,取值范围-20到+19,-20级别最高。所以能够把这个值设置小一点,但不建议比内核进程的值低(一般为-5)
测试中 0到-5的性能提高明显 0可达到8000均值
一、 7982 二、8023 三、7932 四、7911 五、8052 平均 7980
php-fpm参数调优
pm = dynamic;
表示使用哪一种进程数量管理方式
dynamic表示php-fpm进程数是动态的,最开始是pm.start_servers指定的数量,若是请求较多,则会自动增长,保证空闲的进程数不小于pm.min_spare_servers,若是进程数较多,也会进行相应清理,保证多余的进程数很少于pm.max_spare_servers
static表示php-fpm进程数是静态的, 进程数自始至终都是pm.max_children指定的数量,再也不增长或减小
1.pm.start_servers = 15; 动态方式下的起始php-fpm进程数量
2.pm.min_spare_servers = 5; 动态方式下的最小php-fpm进程数量
3.pm.max_spare_servers = 25; 动态方式下的最大php-fpm进程数量
4.pm.max_requests = 5000
设置每一个子进程重生以前服务的请求数. 对于可能存在内存泄漏的第三方模块来讲是很是有用的. 若是设置为 ’0′ 则一直接受请求. 等同于 PHP_FCGI_MAX_REQUESTS 环境变量. 默认值: 0.这段配置的意思是,当一个 PHP-CGI 进程处理的请求数累积到 5000 个后,自动重启该进程。
7934 2 、8107 3 、8013 四、8039 五、7990 均值 8016
opcache
opcache 绝对是优化的利器,Opcache是字节码缓存,也就是PHP在被编译的时候,首先会把php代码转换为字节码,字节码而后被执行。
php文件第二次执行时,一样仍是会从新转换为字节码,可是不少时候,文件内容几乎是同样的,好比静态HTML文件,生成后内允许久都不会改变,用户访问请求直接由服务器读取响应给客户端浏览器。都不用通过PHP进行解析构建了。
内存中的字节码数据,能够直接缓存进行二次编译。这样程序就会快一些,cpu的消耗也少了。
结论
php-fpm 采用 prefork的方式 (listen同一个地址,而后fork出若干子进程),fast-cgi管理器实现的是多进程模型。
可是在php运行时,每个进程只能处理一个请求,实际上,运行时是单进程,单线程的。
php-fpm一个线程是阻塞模型,必须等待该客户端请求php服务端返回数据,下一个nginx发过来的请求才能被受理,这个时候FPM就须要增多进程去应付并发,更高的qps 须要更多的进程处理,当处理请求的时候发生了时间较长阻塞,致使进程内存没法释放,后续请求没有足够的子进程去处理,更多的瓶颈在于 PHP-FPM 大量子进程的处理和消耗内存上面。