Nginx 是如何实现高并发的?html
异步,非阻塞,使用了epoll 和大量的底层代码优化。前端
若是一个server采用一个进程负责一个request的方式,那么进程数就是并发数。正常状况下,会有不少进程一直在等待中。java
而nginx采用一个master进程,多个woker进程的模式。linux
Nginx 的异步非阻塞工做方式正把当中的等待时间利用起来了。在须要等待的时候,这些进程就空闲出来待命了,所以表现为少数几个进程就解决了大量的并发问题。nginx
每进来一个request,会有一个worker进程去处理。但不是全程的处理,处理到什么程度呢?处理到可能发生阻塞的地方,好比向上游(后端)服务器转发request,并等待请求返回。那么,这个处理的worker很聪明,他会在发送完请求后,注册一个事件:“若是upstream返回了,告诉我一声,我再接着干”。因而他就休息去了。此时,若是再有request 进来,他就能够很快再按这种方式处理。而一旦上游服务器返回了,就会触发这个事件,worker才会来接手,这个request才会接着往下走。web
为何 Nginx 不使用多线程?面试
Apache: 建立多个进程或线程,而每一个进程或线程都会为其分配 cpu 和内存(线程要比进程小的多,因此worker支持比perfork高的并发),并发过大会耗光服务器资源。shell
Nginx: 采用单线程来异步非阻塞处理请求(管理员能够配置Nginx主进程的工做进程的数量)(epoll),不会为每一个请求分配cpu和内存资源,节省了大量资源,同时也减小了大量的CPU的上下文切换。因此才使得Nginx支持更高的并发。json
什么是Nginx?windows
Nginx (engine x) 是一款轻量级的Web 服务器 、反向代理服务器及电子邮件(IMAP/POP3)代理服务器。
什么是反向代理?
反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的链接请求,而后将请求转发给内部网络上的服务器,并将从服务器上获得的结果返回给internet上请求链接的客户端,此时代理服务器对外就表现为一个反向代理服务器。
安装与使用
安装
nginx官网下载地址:http://nginx.org,发布版本分为 Linux 和 windows 版本。
也能够下载源码,编译后运行。
从源代码编译 Nginx
把源码解压缩以后,在终端里运行以下命令:
$ ./configure
$ make
$ sudo make install
默认状况下,Nginx 会被安装在 /usr/local/nginx。经过设定编译选项,你能够改变这个设定。
Windows 安装
为了安装 Nginx / Win32,需先下载它。而后解压之,而后运行便可。下面以 C 盘根目录为例说明下:
cd C:
cd C: ginx-0.8.54 start nginx
Nginx / Win32 是运行在一个控制台程序,而非 windows 服务方式的。服务器方式目前仍是开发尝试中。
使用
nginx 的使用比较简单,就是几条命令。
经常使用到的命令以下:
若是不想每次都敲命令,能够在nginx安装目录下新添一个启动批处理文件startup.bat,双击便可运行。内容以下:
若是是运行在 Linux 下,写一个 shell 脚本,大同小异。
nginx 配置实战
我始终认为,各类开发工具的配置仍是结合实战来说述,会让人更易理解。
http反向代理配置
咱们先实现一个小目标:不考虑复杂的配置,仅仅是完成一个 http 反向代理。
nginx.conf 配置文件以下:
注:conf / nginx.conf 是 nginx 的默认配置文件。你也可使用 nginx -c 指定你的配置文件
好了,让咱们来试试吧:
启动 webapp,注意启动绑定的端口要和nginx中的 upstream 设置的端口保持一致。
更改 host:
在 C:WindowsSystem32driversetc 目录下的host文件中添加一条DNS 记录127.0.0.1 www.javastack.cn 启动前文中 startup.bat 的命令
在浏览器中访问 www.javastack.cn,不出意外,已经能够访问了。
负载均衡配置
上一个例子中,代理仅仅指向一个服务器。
可是,网站在实际运营过程当中,多半都是有多台服务器运行着一样的app,这时须要使用负载均衡来分流。
nginx也能够实现简单的负载均衡功能。
假设这样一个应用场景:将应用部署在 192.168.1.11:80、192.168.1.12:80、192.168.1.13:80 三台linux环境的服务器上。网站域名叫 www.javastack.cn,公网IP为 192.168.1.11。在公网IP所在的服务器上部署 nginx,对全部请求作负载均衡处理。
nginx.conf 配置以下:
网站有多个webapp的配置
当一个网站功能愈来愈丰富时,每每须要将一些功能相对独立的模块剥离出来,独立维护。这样的话,一般,会有多个 webapp。
举个例子:假如 www.javastack.cn 站点有好几个webapp,finance(金融)、product(产品)、admin(用户中心)。访问这些应用的方式经过上下文(context)来进行区分:
咱们知道,http的默认端口号是80,若是在一台服务器上同时启动这3个 webapp 应用,都用80端口,确定是不成的。因此,这三个应用须要分别绑定不一样的端口号。
那么,问题来了,用户在实际访问 www.javastack.cn 站点时,访问不一样 webapp,总不会还带着对应的端口号去访问吧。因此,你再次须要用到反向代理来作处理。
配置也不难,来看看怎么作吧:
https反向代理配置
一些对安全性要求比较高的站点,可能会使用 HTTPS(一种使用ssl通讯标准的安全HTTP协议)。
这里不科普 HTTP 协议和 SSL 标准。可是,使用 nginx 配置 https 须要知道几点:
其余和 http 反向代理基本同样,只是在 Server 部分配置有些不一样。
静态站点配置
有时候,咱们须要配置静态站点(即 html 文件和一堆静态资源)。
举例来讲:若是全部的静态资源都放在了 /app/dist 目录下,咱们只须要在 nginx.conf 中指定首页以及这个站点的 host 便可。
配置以下:
而后,添加 HOST:
127.0.0.1 static.zp.cn,此时,在本地浏览器访问 static.zp.cn ,就能够访问静态站点了。
跨域解决方案
web 领域开发中,常常采用先后端分离模式。这种模式下,前端和后端分别是独立的 web 应用程序,例如:后端是 Java 程序,前端是 React 或 Vue 应用,更多请看这篇文章《到底什么是跨域,及解决方案》。
各自独立的 web app 在互相访问时,势必存在跨域问题。解决跨域问题通常有两种思路:
CORS
在后端服务器设置 HTTP 响应头,把你须要运行访问的域名加入加入 Access-Control-Allow-Origin 中。
jsonp
把后端根据请求,构造json数据,并返回,前端用 jsonp 跨域。
这两种思路,本文不展开讨论。
须要说明的是,nginx 根据第一种思路,也提供了一种解决跨域的解决方案。
举例:www.javastack.cn 网站是由一个前端 app ,一个后端 app 组成的。前端端口号为 9000, 后端端口号为 8080。
前端和后端若是使用 http 进行交互时,请求会被拒绝,由于存在跨域问题。来看看,nginx 是怎么解决的吧:
首先,在 enable-cors.conf 文件中设置 cors :
接下来,在你的服务器中 include enable-cors.conf 来引入跨域配置:
到此,就完成了。