做者:潇洒一剑
www.cnblogs.com/zengjin93/p/5569556.html
html
如下内容为入门级介绍,意在对老技术做较全的总结而不是较深的研究。主要参考《构建高性能Web站点》一书。java
什么是服务器并发处理能力
一台服务器在单位时间里能处理的请求越多,服务器的能力越高,也就是服务器并发处理能力越强linux
有什么方法衡量服务器并发处理能力
1. 吞吐率
吞吐率,单位时间里服务器处理的最大请求数,单位req/sweb
从服务器角度,实际并发用户数的能够理解为服务器当前维护的表明不一样用户的文件描述符总数,也就是并发链接数。面试
服务器通常会限制同时服务的最多用户数,好比apache的MaxClents参数。算法
这里再深刻一下,对于服务器来讲,服务器但愿支持高吞吐率,对于用户来讲,用户只但愿等待最少的时间,显然,双方不能知足,因此双方利益的平衡点,就是咱们但愿的最大并发用户数。sql
2. 压力测试
有一个原理必定要先搞清楚,假如100个用户同时向服务器分别进行10个请求,与1个用户向服务器连续进行1000次请求,对服务器的压力是同样吗?shell
其实是不同的,因对每个用户,连续发送请求其实是指发送一个请求并接收到响应数据后再发送下一个请求。数据库
这样对于1个用户向服务器连续进行1000次请求, 任什么时候刻服务器的网卡接收缓冲区中只有1个请求,而对于100个用户同时向服务器分别进行10个请求,服务器的网卡接收缓冲区最多有100个等待处理的请求,显然这时的服务器压力更大。apache
压力测试前提考虑的条件
-
并发用户数: 指在某一时刻同时向服务器发送请求的用户总数(HttpWatch)
-
总请求数
-
请求资源描述
-
请求等待时间(用户等待时间)
-
用户平均请求的等待时间
-
服务器平均请求处理的时间
-
硬件环境
压力测试中关心的时间又细分如下2种:
-
用户平均请求等待时间(这里暂不把数据在网络的传输时间,还有用户PC本地的计算时间计算入内)
-
服务器平均请求处理时间
用户平均请求等待时间主要用于衡量服务器在必定并发用户数下,单个用户的服务质量;而服务器平均请求处理时间就是吞吐率的倒数。
通常来讲,用户平均请求等待时间 = 服务器平均请求处理时间 * 并发用户数
怎么提升服务器的并发处理能力
1. 提升CPU并发计算能力
服务器之因此能够同时处理多个请求,在于操做系统经过多执行流体系设计使得多个任务能够轮流使用系统资源。
这些资源包括CPU,内存以及I/O. 这里的I/O主要指磁盘I/O, 和网络I/O。
多进程 & 多线程
多执行流的通常实现即是进程,多进程的好处能够对CPU时间的轮流使用,对CPU计算和IO操做重叠利用。这里的IO主要是指磁盘IO和网络IO,相对CPU而言,它们慢的可怜。
而实际上,大多数进程的时间主要消耗在I/O操做上。
现代计算机的DMA技术可让CPU不参与I/O操做的全过程,好比进程经过系统调用,使得CPU向网卡或者磁盘等I/O设备发出指令,而后进程被挂起,释放出CPU资源,等待I/O设备完成工做后经过中断来通知进程从新就绪。
对于单任务而言,CPU大部分时间空闲,这时候多进程的做用尤其重要。CPU 是怎么认识代码的?推荐你们看下。
多进程不只可以提升CPU的并发度。其优越性还体如今独立的内存地址空间和生命周期所带来的稳定性和健壮性,其中一个进程崩溃不会影响到另外一个进程。
可是进程也有以下缺点:
-
fork()系统调用开销很大: prefork
-
进程间调度和上下文切换成本: 减小进程数量
-
庞大的内存重复:共享内存
-
IPC编程相对比较麻烦
减小进程切换
当硬件上下文频繁装入和移出时,所消耗的时间是很是可观的。可用Nmon工具监视服务器每秒的上下文切换次数。
为了尽可能减小上下文切换次数,最简单的作法就是减小进程数,尽可能使用线程并配合其它I/O模型来设计并发策略。
还能够考虑使用进程绑定CPU技术,增长CPU缓存的命中率。若进程不断在各CPU上切换,这样旧的CPU缓存就会失效。
减小使用没必要要的锁
服务器处理大量并发请求时,多个请求处理任务时存在一些资源抢占竞争,这时通常采用“锁”机制来控制资源的占用。到底什么是重入锁,推荐你们看下。
当一个任务占用资源时,咱们锁住资源,这时其它任务都在等待锁的释放,这个现象称为锁竞争。
经过锁竞争的本质,咱们要意识到尽可能减小并发请求对于共享资源的竞争。
好比在容许状况下关闭服务器访问日志,这能够大大减小在锁等待时的延迟时间。要最大程度减小无辜的等待时间。
这里说下无锁编程,就是由内核完成这个锁机制,主要是使用原子操做替代锁来实现对共享资源的访问保护。
使用原子操做时,在进行实际的写操做时,使用了lock指令,这样就能够阻止其余任务写这块内存,避免出现数据竞争现象。原子操做速度比锁快,通常要快一倍以上。
例如fwrite(), fopen(),其是使用append方式写文件,其原理就是使用了无锁编程,无锁编程的复杂度高,可是效率快,并且发生死锁几率低。
关注微信公众号:Java技术栈,在后台回复:多线程,能够获取我整理的 N 篇最新 Java多线程教程,都是干货。
考虑进程优先级
进程调度器会动态调整运行队列中进程的优先级,经过top观察进程的PR值
考虑系统负载
可在任什么时候刻查看/proc/loadavg, top中的load average也可看出
考虑CPU使用率
除了用户空间和内核空间的CPU使用率之外,还要关注I/O wait,它是指CPU空闲而且等待I/O操做完成的时间比例(top中查看wa的值)。
2. 考虑减小内存分配和释放
服务器的工做过程当中,须要大量的内存,使得内存的分配和释放工做尤其重要。
能够经过改善数据结构和算法复制度来适当减小中间临时变量的内存分配及数据复制时间,而服务器自己也使用了各自的策略来提升效率。
例如Apache,在运行开始时一次申请大片的内存做为内存池,若随后须要时就在内存池中直接获取,不须要再次分配,避免了频繁的内存分配和释放引发的内存整理时间。
再如Nginx使用多线程来处理请求,使得多个线程之间能够共享内存资源,从而令它的内存整体使用量大大减小。
另外,Nginx分阶段的内存分配策略,按需分配,及时释放,使得内存使用量保持在很小的数量范围。
另外,还能够考虑共享内存。
共享内存指在多处理器的计算机系统中,能够被不一样中央处理器(CPU)访问的大容量内存,也能够由不一样进程共享,是很是快的进程通讯方式。
可是使用共享内存也有很差的地方,就是对于多机器时数据很差统一。
shell命令ipcs可用来显示系统下共享内存的状态,函数shmget能够建立或打开一块共享内存区,函数shmat将一个存在的共享内存段链接到本进程空间, 函数shmctl能够对共享内存段进行多种操做,函数shmdt函数分离该共享内存。
3. 考虑使用持久链接
持久链接也为长链接,它自己是TCP通讯的一种普通方式,即在一次TCP链接中持续发送多分数据而不断开链接。
与它相反的方式称为短链接,也就是创建链接后发送一份数据就断开,而后再次创建链接发送下一份数据, 周而复始。
是否采用持久链接,彻底取决于应用特色。
从性能角度看,创建TCP链接的操做自己是一项不小的开销,在容许的状况下,链接次数越少,越有利于性能的提高; 尤为对于密集型的图片或网页等小数据请求处理有明显的加速所用。
HTTP长链接须要浏览器和web服务器的共同协做,目前浏览器广泛支持长链接,表如今其发出的HTTP请求数据头中包含关于长链接的声明,以下:Connection: Keep-Alive
主流的web服务器都支持长链接,好比apache中,能够用KeepAlive off关闭长链接。
对于长链接的有效使用,还有关键一点在于长链接超时时间的设置,即长链接在何时关闭吗?
Apache的默认设置为5s, 若这个时间设置过长,则可能致使资源无效占有,维持大量空闲进程,影响服务器性能。
4. 改进I/O 模型
I/O操做根据设备的不一样分为不少类型,好比内存I/O, 网络I/O, 磁盘I/O。详解 Java 中 4 种 I/O 模型,推荐你们看下。
对于网络I/O和磁盘I/O, 它们的速度要慢不少,尽管使用RAID磁盘阵列可经过并行磁盘磁盘来加快磁盘I/O速度,购买大连独享网络带宽以及使用高带宽网络适配器能够提升网络I/O的速度。
但这些I/O操做须要内核系统调用来完成,这些须要CPU来调度,这使得CPU不得不浪费宝贵的时间来等待慢速I/O操做。
咱们但愿让CPU足够少的时间在i/O操做的调度上,如何让高速的CPU和慢速的I/O设备更好地协调工做,是现代计算机一直探讨的话题。各类I/O模型的本质区别在于CPU的参与方式。
DMA技术
I/O设备和内存之间的数据传输方式由DMA控制器完成。在DMA模式下,CPU只需向DMA下达命令,让DMA控制器来处理数据的传送,这样能够大大节省系统资源。
异步I/O
异步I/O指主动请求数据后即可以继续处理其它任务,随后等待I/O操做的通知,这样进程在数据读写时不发生阻塞。
异步I/O是非阻塞的,当函数返回时,真正的I/O传输已经完成,这让CPU处理和I/O操做达到很好的重叠。
I/O多路复用
epoll服务器同时处理大量的文件描述符是必不可少的,若采用同步非阻塞I/O模型,若同时接收TCP链接的数据,就必须轮流对每一个socket调用接收数据的方法,无论这些socket有没有可接收的数据,都要询问一次。
假如大部分socket并无数据能够接收,那么进程便会浪费不少CPU时间用于检查这些socket有没有能够接收的数据。
多路I/O就绪通知的出现,提供了对大量文件描述符就绪检查的高性能方案,它容许进程经过一种方法同时监视全部文件描述符,并能够快速得到全部就绪的文件描述符,而后只针对这些文件描述符进行数据访问。
epoll能够同时支持水平触发和边缘触发,理论上边缘触发性能更高,可是代码实现复杂,由于任何意外的丢失事件都会形成请求处理错误。
epoll主要有2大改进:
-
epoll只告知就绪的文件描述符,并且当调用epoll_wait()得到文件描述符时,返回并非实际的描述符,而是一个表明就绪描述符数量的值,而后只需去epoll指定的一个数组中依次取得相应数量的文件描述符便可。
这里使用了内存映射(mmap)技术,这样完全省掉了这些文件描述符在系统调用时复制的开销。
-
epoll采用基于事件的就绪通知方式。其事先经过epoll_ctrl()注册每个文件描述符,一旦某个文件描述符就绪时,内核会采用相似callback的回调机制,当进程调用epoll_wait()时获得通知
关于IO模型,能够参考笔者前面写的相关文章Java NIO.2;关于epoll,能够参考笔者前面写的文章select、poll和epoll简介。
Sendfile
大多数时候,咱们都向服务器请求静态文件,好比图片,样式表等。
在处理这些请求时,磁盘文件的数据先通过内核缓冲区,而后到用户内存空间,不需通过任何处理,其又被送到网卡对应的内核缓冲区,接着再被送入网卡进行发送。
Linux提供sendfile()系统调用,能够讲磁盘文件的特定部分直接传送到表明客户端的socket描述符,加快了静态文件的请求速度,同时减小CPU和内存的开销。
适用场景:对于请求较小的静态文件,sendfile发挥的做用不那么明显,因发送数据的环节在整个过程当中所占时间的比例相比于大文件请求时小不少。
内存映射
Linux内核提供一种访问磁盘文件的特殊方式,它能够将内存中某块地址空间和咱们指定的磁盘文件相关联,从而对这块内存的访问转换为对磁盘文件的访问。这种技术称为内存映射。
多数状况下,内存映射能够提升磁盘I/O的性能,无须使用read()或write()等系统调用来访问文件,而是经过mmap()系统调用来创建内存和磁盘文件的关联,而后像访问内存同样自由访问文件。
缺点:在处理较大文件时,内存映射会致使较大的内存开销,得不偿失。
直接I/O
在linux 2.6中,内存映射和直接访问文件没有本质差别,由于数据须要通过2次复制,即在磁盘与内核缓冲区之间以及在内核缓冲区与用户态内存空间。
引入内核缓冲区的目的在于提升磁盘文件的访问性能,然而对于一些复杂的应用,好比数据库服务器,它们为了进一步提升性能,但愿绕过内核缓冲区,由本身在用户态空间实现并管理I/O缓冲区,好比数据库可根据更加合理的策略来提升查询缓存命中率。
另外一方面,绕过内核缓冲区也能够减小系统内存的开销,因内核缓冲区自己就在使用系统内存。
Linux在open()系统调用中增长参数选项O_DIRECT,便可绕过内核缓冲区直接访问文件,实现直接I/O。
在Mysql中,对于Innodb存储引擎,自身进行数据和索引的缓存管理,可在my.cnf配置中分配raw分区跳过内核缓冲区,实现直接I/O。
5. 改进服务器并发策略
服务器并发策略的目的,是让I/O操做和CPU计算尽可能重叠进行,一方面让CPU在I/O等待时不要空闲,另外一方面让CPU在I/O调度上尽可能花最少的时间。
一个进程处理一个链接,非阻塞I/O
这样会存在多个并发请求同时到达时,服务器必然要准备多个进程来处理请求。其进程的开销限制了它的并发链接数。
但从稳定性和兼容性的角度,则其相对安全,任何一个子进程的崩溃不会影响服务器自己,父进程能够建立新的子进程;这种策略典型的例子就是Apache的fork和prefork模式。
对于并发数不高(如150之内)的站点同时依赖Apache其它功能时的应用选择Apache仍是能够的。
一个线程处理一个链接,非阻塞IO
这种方式容许在一个进程中经过多个线程来处理多个链接,一个线程处理一个链接。Apache的worker模式就是这种典型例子,使其可支持更多的并发链接。不过这种模式的整体性能还不如prefork,因此通常不选用worker模式。推荐阅读:14个Java并发容器。
一个进程处理多个链接,异步I/O
一个线程同时处理多个链接,潜在的前提条件就是使用IO多路复用就绪通知。
这种状况下,将处理多个链接的进程叫作worker进程或服务进程。worker的数量能够配置,如Nginx中的worker_processes 4。
一个线程处理多个链接,异步IO
即便有高性能的IO多路复用就绪通知,但磁盘IO的等待仍是没法避免的。更加高效的方法是对磁盘文件使用异步IO,目前不多有Web服务器真正意义上支持这种异步IO。
6. 改进硬件环境
还有一点要说起的是硬件环境,服务器的硬件配置对应用程序的性能提高每每是最直接,也是最简单的方式,这就是所谓的scale up。这里不作论述。
关注公众号Java技术栈回复"面试"获取我整理的2020最全面试题及答案。
推荐去个人博客阅读更多:
2.Spring MVC、Spring Boot、Spring Cloud 系列教程
3.Maven、Git、Eclipse、Intellij IDEA 系列工具教程
以为不错,别忘了点赞+转发哦!