首先得声明。这不是个人原创,是在网上搜索到的一篇文章,原著是谁也搞不清楚了。按风格应该是属于章亦春的文章。php
整理花了很多时间,因此就暂写成原创吧。html
一. 概述前端
Nginx是一个高性能。支持高并发的,轻量级的webserver。眼下,Apache依旧webserver中的老大,但是在全球前1000大的webserver中,Nginx的份额为22.4%。Nginx採用模块化的架构,官方版本号的Nginx中大部分功能都是经过模块方式提供的,比方Http模块、Mail模块等。经过开发模块扩展Nginx,可以将Nginx打形成一个全能的应用server,这样可以将一些功能在前端Nginx反向代理层解决,比方登陆校验、js合并、甚至数据库訪问等等。 但是,Nginx模块须要用C开发,而且必须符合一系列复杂的规则。最重要的用C开发模块必须要熟悉Nginx的源码。使得开发人员对其望而生畏。淘宝的agentzh和chaoslawful开发的ngx_lua模块经过将lua解释器集成进Nginx。可以採用lua脚本实现业务逻辑,由于lua的紧凑、高速以及内建协程,因此在保证高并发服务能力的同一时候极大地减小了业务逻辑实现成本。node
本文向你们介绍ngx_lua,以及我在使用它开发项目的过程当中遇到的一些问题。
mysql
二. 准备nginx
首先,介绍一下Nginx的一些特性,便于后文介绍ngx_lua的相关特性。web
Nginx进程模型redis
Nginx採用多进程模型,单Master—多Worker,由Master处理外部信号、配置文件的读取及Worker的初始化。Worker进程採用单线程、非堵塞的事件模型(Event Loop,事件循环)来实现port的监听及client请求的处理和响应,同一时候Worker还要处理来自Master的信号。sql
由于Worker使用单线程处理各类事件。因此必定要保证主循环是非堵塞的,不然会大大减小Worker的响应能力。数据库
Nginx处理Http请求的过程
表面上看,当Nginx处理一个来自client的请求时,先依据请求头的host、ip和port来肯定由哪一个server处理,肯定了server以后,再依据请求的uri找到相应的location。这个请求就由这个location处理。
实际Nginx将一个请求的处理划分为若干个不一样阶段(phase)。这些阶段依照先后顺序依次运行。也就是说NGX_HTTP_POST_READ_PHASE在第一个,NGX_HTTP_LOG_PHASE在最后一个。
<span style="font-size:10px;">NGX_HTTP_POST_READ_PHASE, //0读取请求phase NGX_HTTP_SERVER_REWRITE_PHASE,//1这个阶段主要是处理全局的(server block)的rewrite NGX_HTTP_FIND_CONFIG_PHASE, //2这个阶段主要是经过uri来查找相应的location,而后依据loc_conf设置r的相应变量 NGX_HTTP_REWRITE_PHASE, //3这个主要处理location的rewrite NGX_HTTP_POST_REWRITE_PHASE, //4postrewrite,这个主要是进行一些校验以及收尾工做。以便于交给后面的模块。
NGX_HTTP_PREACCESS_PHASE, //5比方流控这样的类型的access就放在这个phase,也就是说它主要是进行一些比較粗粒度的access。
NGX_HTTP_ACCESS_PHASE, //6这个比方存取控制,权限验证就放在这个phase,通常来讲处理动做是交给如下的模块作的.这个主要是作一些细粒度的access NGX_HTTP_POST_ACCESS_PHASE, //7通常来讲当上面的access模块获得access_code以后就会由这个模块依据access_code来进行操做 NGX_HTTP_TRY_FILES_PHASE, //8try_file模块,就是相应配置文件里的try_files指令。可接收多个路径做为參数。当前一个路径的资源没法找到,则本身主动查找下一个路径 NGX_HTTP_CONTENT_PHASE, //9内容处理模块 NGX_HTTP_LOG_PHASE //10log模块
每个阶段上可以注冊handler。处理请求就是执行每个阶段上注冊的handler。Nginx模块提供的配置指令仅仅会通常仅仅会注冊并执行在当中的某一个处理阶段。
比方,set指令属于rewrite模块的,执行在rewrite阶段,deny和allow执行在access阶段。
子请求(subrequest)
事实上在Nginx 世界里有两种类型的“请求”。一种叫作“主请求”(main request),而还有一种则叫作“子请求”(subrequest)。 所谓“主请求”。就是由 HTTP client从 Nginx 外部发起的请求。比方。从浏览器訪问Nginx就是一个“主请求”。 而“子请求”则是由 Nginx 正在处理的请求在 Nginx 内部发起的一种级联请求。“子请求”在外观上很是像 HTTP 请求,但实现上却和 HTTP 协议乃至网络通讯一点儿关系都没有。它是 Nginx 内部的一种抽象调用,目的是为了方便用户把“主请求”的任务分解为多个较小粒度的“内部请求”,并发或串行地訪问多个 location 接口。而后由这些 location 接口通力协做,共同完毕整个“主请求”。固然。“子请求”的概念是相对的,不论什么一个“子请求”也可以再发起不少其它的“子子请求”。甚至可以玩递归调用(即本身调用本身)。
当一个请求发起一个“子请求”的时候,依照 Nginx 的术语,习惯把前者称为后者的“父请求”(parent request)。
location /main { echo_location /foo; # echo_location发送子请求到指定的location echo_location /bar; } location /foo { echo foo; } location /bar { echo bar; }
输出:
$ curl location/main
$ foo 03. bar
这里,main location就是发送2个子请求,分别到foo和bar。这就相似一种函数调用。
“子请求”方式的通讯是在同一个虚拟主机内部进行的。因此 Nginx 核心在实现“子请求”的时候,就仅仅调用了若干个 C 函数,全然不涉及不论什么网络或者 UNIX 套接字(socket)通讯。咱们由此可以看出“子请求”的运行效率是极高的。
协程(Coroutine)
协程相似一种多线程,与多线程的差异有:
1. 协程并非os线程,因此建立、切换开销比线程相对要小。
2. 协程与线程同样有本身的栈、局部变量等,但是协程的栈是在用户进程空间模拟的,因此建立、切换开销很是小。
3. 多线程程序是多个线程并发运行。也就是说在一瞬间有多个控制流在运行。而协程强调的是一种多个协程间协做的关系,仅仅有当一个协程主动放弃运行权,还有一个协程才干得到运行权,因此在某一瞬间,多个协程间仅仅有一个在运行。
4. 由于多个协程时仅仅有一个在执行,因此对于临界区的訪问不需要加锁。而多线程的状况则必须加锁。
5. 多线程程序由于有多个控制流。因此程序的行为不可控,而多个协程的运行是由开发人员定义的因此是可控的。
Nginx的每个Worker进程都是在epoll或kqueue这种事件模型之上,封装成协程,每个请求都有一个协程进行处理。这正好与Lua内建协程的模型是一致的,因此即便ngx_lua需要运行Lua,相对C有必定的开销,但依旧能保证高并发能力。
三. ngx_lua
原理
ngx_lua将Lua嵌入Nginx,可以让Nginx运行Lua脚本,并且高并发、非堵塞的处理各类请求。Lua内建协程。这样就可以很是好的将异步回调转换成顺序调用的形式。ngx_lua在Lua中进行的IO操做都会托付给Nginx的事件模型。从而实现非堵塞调用。开发人员可以採用串行的方式编敲代码,ngx_lua会本身主动的在进行堵塞的IO操做时中断。保存上下文;而后将IO操做托付给Nginx事件处理机制。在IO操做完毕后,ngx_lua会恢复上下文,程序继续运行,这些操做都是对用户程序透明的。
每个NginxWorker进程持有一个Lua解释器或者LuaJIT实例,被这个Worker处理的所有请求共享这个实例。
每个请求的Context会被Lua轻量级的协程切割,从而保证各个请求是独立的。 ngx_lua採用“one-coroutine-per-request”的处理模型。对于每个用户请求,ngx_lua会唤醒一个协程用于执行用户代码处理请求,当请求处理完毕这个协程会被销毁。
每个协程都有一个独立的全局环境(变量空间),继承于全局共享的、仅仅读的“comman data”。因此。被用户代码注入全局空间的不论什么变量都不会影响其它请求的处理。并且这些变量在请求处理完毕后会被释放,这样就保证所有的用户代码都执行在一个“sandbox”(沙箱),这个沙箱与请求具备一样的生命周期。 得益于Lua协程的支持。ngx_lua在处理10000个并发请求时仅仅需要很是少的内存。依据測试,ngx_lua处理每个请求仅仅需要2KB的内存,假设使用LuaJIT则会更少。因此ngx_lua很是适合用于实现可扩展的、高并发的服务。
典型应用
官网上列出:
· Mashup’ing and processing outputs of various nginx upstream outputs(proxy, drizzle, postgres, redis, memcached, and etc) in Lua, · doing arbitrarily complex access control and security checks in Luabefore requests actually reach the upstream backends, · manipulating response headers in an arbitrary way (by Lua) · fetching backend information from external storage backends (likeredis, memcached, mysql, postgresql) and use that information to choose whichupstream backend to access on-the-fly, · coding up arbitrarily complex web applications in a content handlerusing synchronous but still non-blocking access to the database backends andother storage, · doing very complex URL dispatch in Lua at rewrite phase, · using Lua to implement advanced caching mechanism for nginxsubrequests and arbitrary locations.
Hello Lua!
# nginx.conf worker_processes 4; events { worker_connections 1024; } http { server { listen 80; server_name localhost; location=/lua { content_by_lua ‘ ngx.say("Hello, Lua!") '; } } }
输出:
$ curl 'localhost/lua'
Hello,Lua。
这样就实现了一个很是easy的ngx_lua应用。假设这么简单的模块要是用C来开发的话,代码量预计得有100行左右。从这就可以看出ngx_lua的开发效率。
Benchmark
经过和nginx訪问静态文件还有nodejs比較,来看一下ngx_lua提供的高并发能力。 返回的内容都是”Hello World!”,151bytes 经过.ab -n 60000 取10次平均
从图表中可以看到,在各类并发条件下ngx_lua的rps都是最高的。并且基本维持在10000rps左右,nginx读取静态文件因为会有磁盘io因此性能略差一些,而nodejs是相对最差的。经过这个简单的測试,可以看出ngx_lua的高并发能力。 ngx_lua的开发人员也作过一个測试对照nginx+fpm+php和nodejs,他得出的结果是ngx_lua可以达到28000rps。而nodejs有10000多一点。php则最差仅仅有6000。多是有些配置我没有配好致使ngx_lua rps没那么高。
ngx_lua安装
ngx_lua安装可以经过下载模块源代码,编译Nginx。但是推荐採用openresty。Openresty就是一个打包程序,包括大量的第三方Nginx模块,比方HttpLuaModule,HttpRedis2Module,HttpEchoModule等。省去下载模块。并且安装很方便。
ngx_openresty bundle: openresty ./configure --with-luajit&& make && make install 默认Openresty中ngx_lua模块採用的是标准的Lua5.1解释器。经过--with-luajit使用LuaJIT。
ngx_lua的使用方法
ngx_lua模块提供了配置指令和Nginx API。
配置指令:在Nginx中使用,和set指令和pass_proxy指令用法同样。每个指令都有使用的context。 Nginx API:用于在Lua脚本中訪问Nginx变量,调用Nginx提供的函数。 如下举例说明常见的指令和API。
配置指令
set_by_lua和set_by_lua_file
和set指令同样用于设置Nginx变量并且在rewrite阶段运行,仅仅只是这个变量是由lua脚本计算并返回的。
语法:set_by_lua$res <lua-script-str> [$arg1 $arg2 ...]
配置:
location =/adder { set_by_lua $res" local a = tonumber(ngx.arg[1]) local b = tonumber(ngx.arg[2]) return a + b"$arg_a$arg_b; echo$res; }
输出:
$ curl 'localhost/adder?a=25&b=75'
$ 100
set_by_lua_file运行Nginx外部的lua脚本,可以避免在配置文件里使用大量的转义。
配置:
location =/fib { set_by_lua_file $res "conf/adder.lua" $arg_n; echo $res; }</span>
adder.lua:
local a=tonumber(ngx.arg[1]) local b=tonumber(ngx.arg[2]) return a + b
输出:
$ curl 'localhost/adder?a=25&b=75
$ 100
access_by_lua和access_by_lua_file
执行在access阶段。用于訪问控制。
Nginx原生的allow和deny是基于ip的。经过access_by_lua能完毕复杂的訪问控制。比方。訪问数据库进行username、password验证等。
配置:
location /auth { access_by_lua ' if ngx.var.arg_user == "ntes" then return else Ngx.exit(ngx.HTTP_FORBIDDEN) end '; echo'welcome ntes'; }
输出:
$ curl 'localhost/auth?user=sohu'
$ Welcome ntes
$ curl 'localhost/auth?user=ntes'
$ <html>
<head><title>403 Forbidden</title></heda>
<body bgcolor="white">
<center><h1>403 Forbidden</h1></center>
<hr><center>ngx_openresty/1.0.10.48</center>
</body>
</html>
rewrite_by_lua和rewrite_by_lua_file
实现url重写。在rewrite阶段运行。
配置:
location =/foo { rewrite_by_lua 'ngx.exec("/bar")'; echo'in foo'; } location =/bar { echo'in bar'; }
输出:
$ curl 'localhost/lua'
$ Hello, Lua!
content_by_lua和content_by_lua_file
Contenthandler在content阶段运行,生成http响应。由于content阶段仅仅能有一个handler。因此在与echo模块使用时,不能同一时候生效,我測试的结果是content_by_lua会覆盖echo。这和以前的hello world的样例是相似的。
配置(直接响应):
location =/lua { content_by_lua 'ngx.say("Hello, Lua!")'; }
输出:
$ curl 'localhost/lua'
$ Hello, Lua!
配置(在Lua中訪问Nginx变量):
location =/hello { content_by_lua ' local who = ngx.var.arg_who ngx.say("Hello, ", who, "!") '; }
输出:
$ curl 'localhost/hello?who=world
$ Hello, world!
Nginx API
Nginx API被封装ngx和ndk两个package中。
比方ngx.var.NGX_VAR_NAME可以訪问Nginx变量。这里着重介绍一下ngx.location.capture和ngx.location.capture_multi。
ngx.location.capture
语法:res= ngx.location.capture(uri, options?) 用于发出一个同步的,非堵塞的Nginxsubrequest(子请求)。
可以经过Nginx subrequest向其余location发出非堵塞的内部请求。这些location可以是配置用于读取目录的,也可以是其余的C模块,比方ngx_proxy, ngx_fastcgi, ngx_memc, ngx_postgres, ngx_drizzle甚至是ngx_lua本身。 Subrequest仅仅是模拟Http接口,并无额外的Http或者Tcp传输开销,它在C层次上执行,很高效。Subrequest不一样于Http 301/302重定向,以及内部重定向(经过ngx.redirection)。
配置:
location =/other { ehco 'Hello, world!'; } # Lua非堵塞IO location =/lua { content_by_lua ' local res = ngx.location.capture("/other") if res.status == 200 then ngx.print(res.body) end '; }
输出:
$ curl 'http://localhost/lua'
$ Hello, world!
实际上,location可以被外部的Http请求调用,也可以被内部的子请求调用。每个location至关于一个函数,而发送子请求就相似于函数调用。而且这样的调用是非堵塞的,这就构造了一个很强大的变成模型,后面咱们会看到怎样经过location和后端的memcached、redis进行非堵塞通讯。
ngx.location.capture_multi
语法:res1,res2, ... = ngx.location.capture_multi({ {uri, options?}, {uri, options?}, ...}) 与ngx.location.capture功能同样,可以并行的、非堵塞的发出多个子请求。这种方法在所有子请求处理完毕后返回。并且整个方法的执行时间取决于执行时间最长的子请求,并不是所有子请求的执行时间之和。
配置:
# 同一时候发送多个子请求(subrequest) location =/moon { ehco 'moon'; } location =/earth { ehco 'earth'; } location =/lua { content_by_lua ' local res1,res2 = ngx.location.capture_multi({ {"/moon"}, {"earth"} }) if res1.status == 200 then ngx.print(res1.body) end ngx.print(",") if res2.status == 200 then ngx.print(res2.body) end '; }
输出:
$ curl 'http://localhost/lua'
$ moon,earth
注意
在Lua代码中的网络IO操做仅仅能经过Nginx Lua API完毕。假设经过标准Lua API会致使Nginx的事件循环被堵塞,这样性能会急剧降低。 在进行数据量至关小的磁盘IO时可以採用标准Lua io库,但是当读写大文件时这样是不行的,因为会堵塞整个NginxWorker进程。为了得到更大的性能。强烈建议将所有的网络IO和磁盘IO托付给Nginx子请求完毕(经过ngx.location.capture)。 如下经过訪问/html/index.html这个文件。来測试将磁盘IO托付给Nginx和经过Lua io直接訪问的效率。 经过ngx.location.capture托付磁盘IO:
配置:
location / { internal; root html; } location /capture { content_by_lua ' res = ngx.location.capture("/") echo res.body '; }
经过标准lua io訪问磁盘文件:
配置:
location /luaio{ content_by_lua ' local io = require("io") local chunk_SIZE = 4096 local f = assert(io.open("html/index.html","r")) while true do local chunk = f:read(chunk) if not chunk then break end ngx.print(chunk) ngx.flush(true) end f:close() '; }
这里经过ab去压,在各类并发条件下,分别返回151bytes、151000bytes的数据,取10次平均,获得两种方式的rps。 静态文件:151bytes
1000 3000 5000 7000 10000 capture 11067 8880 8873 8952 9023 Lua io 11379 9724 8938 9705 9561
静态文件:151000bytes。在10000并发下内存占用状况太严重。測不出结果 这样的状况下,文件较小,经过Nginx訪问静态文件需要额外的系统调用,性能略逊于ngx_lua。
1000 3000 5000 7000 10000 capture 3338 3435 3178 3043 / Lua io 3174 3094 3081 2916 /
在大文件的状况。capture就要略好于ngx_lua。 这里没有对Nginx读取静态文件进行优化配置。仅仅是採用了sendfile。
假设优化一下。可能nginx读取静态文件的性能会更好一些,这个眼下还不熟悉。
因此,在Lua中进行各类IO时。都要经过ngx.location.capture发送子请求托付给Nginx事件模型,这样可以保证IO是非堵塞的。
四. 小结
这篇文章简介了一下ngx_lua的基本使用方法。后一篇会对ngx_lua訪问redis、memcached已经链接池进行具体介绍。
五. 进阶
在以前的文章中。已经介绍了ngx_lua的一些基本介绍,这篇文章主要着重讨论一下怎样经过ngx_lua同后端的memcached、redis进行非堵塞通讯。
Memcached
在Nginx中訪问Memcached需要模块的支持,这里选用HttpMemcModule,这个模块可以与后端的Memcached进行非堵塞的通讯。咱们知道官方提供了Memcached,这个模块仅仅支持get操做。而Memc支持大部分Memcached的命令。 Memc模块採用入口变量做为參数进行传递。所有以$memc_为前缀的变量都是Memc的入口变量。
memc_pass指向后端的Memcached Server。
配置:
#使用HttpMemcModule location =/memc { set $memc_cmd $arg_cmd; set $memc_key $arg_key; set $memc_value $arg_val; set $memc_exptime $arg_exptime; memc_pass '127.0.0.1:11211'; }
输出:
$ curl 'http://localhost/memc?cmd=set&key=foo&val=Hello'
$ STORED
$ curl 'http://localhost/memc?
cmd=get&key=foo'
$ Hello
这就实现了memcached的訪问。如下看一下怎样在lua中訪问memcached。
配置:
#在Lua中訪问Memcached location =/memc { internal; #仅仅能内部訪问 set $memc_cmd get; set $memc_key $arg_key; memc_pass '127.0.0.1:11211'; } location =/lua_memc { content_by_lua ' local res = ngx.location.capture("/memc", { args = { key = ngx.var.arg_key } }) if res.status == 200 then ngx.say(res.body) end '; }
输出:
$ curl 'http://localhost/lua_memc?
key=foo'
$ Hello
经过lua訪问memcached。主要是经过子请求採用一种相似函数调用的方式实现。
首先。定义了一个memc location用于经过后端memcached通讯,就至关于memcached storage。
由于整个Memc模块时非堵塞的。ngx.location.capture也是非堵塞的,因此整个操做非堵塞。
Redis
訪问redis需要HttpRedis2Module的支持,它也可以同redis进行非堵塞通行。只是,redis2的响应是redis的原生响应,因此在lua中使用时,需要解析这个响应。可以採用LuaRedisModule,这个模块可以构建redis的原生请求。并解析redis的原生响应。
配置:
#在Lua中訪问Redis location =/redis { internal; #仅仅能内部訪问 redis2_query get $arg_key; redis2_pass '127.0.0.1:6379'; } location =/lua_redis {#需要LuaRedisParser content_by_lua ' local parser = require("redis.parser") local res = ngx.location.capture("/redis", { args = { key = ngx.var.arg_key } }) if res.status == 200 then reply = parser.parse_reply(res.body) ngx.say(reply) end '; }
输出:
$ curl 'http://localhost/lua_redis?key=foo'
$ Hello
和訪问memcached相似。需要提供一个redis storage专门用于查询redis,而后经过子请求去调用redis。
Redis Pipeline
在实际訪问redis时,有可能需要同一时候查询多个key的状况。
咱们可以採用ngx.location.capture_multi经过发送多个子请求给redis storage,而后在解析响应内容。
但是,这会有个限制,Nginx内核规定一次可以发起的子请求的个数不能超过50个。因此在key个数多于50时,这样的方案再也不适用。
幸亏redis提供pipeline机制。可以在一次链接中运行多个命令,这样可以下降屡次运行命令的往返时延。
client在经过pipeline发送多个命令后。redis顺序接收这些命令并运行,而后依照顺序把命令的结果输出出去。在lua中使用pipeline需要用到redis2模块的redis2_raw_queries进行redis的原生请求查询。
配置:
#在Lua中訪问Redis location =/redis { internal; #仅仅能内部訪问 redis2_raw_queries $args$echo_request_body; redis2_pass '127.0.0.1:6379'; } location =/pipeline { content_by_lua 'conf/pipeline.lua'; }
pipeline.lua
-- conf/pipeline.lua file local parser=require(‘redis.parser’) local reqs={ {‘get’, ‘one’}, {‘get’, ‘two’} } -- 构造原生的redis查询。get one\r\nget two\r\n local raw_reqs={} for i, req in ipairs(reqs)do table.insert(raw_reqs, parser.build_query(req)) end local res=ngx.location.capture(‘/redis?
’..#reqs, {body=table.concat(raw_reqs, ‘’)}) if res.status and res.body then -- 解析redis的原生响应 local replies=parser.parse_replies(res.body, #reqs) for i, reply in ipairs(replies)do ngx.say(reply[1]) end end
输出:
$ curl 'http://localhost/pipeline'
$ first
second
Connection Pool
前面訪问redis和memcached的样例中。在每次处理一个请求时。都会和后端的server创建链接。而后在请求处理完以后这个链接就会被释放。
这个过程当中,会有3次握手、timewait等一些开销。这对于高并发的应用是不可容忍的。这里引入connection pool来消除这个开销。 链接池需要HttpUpstreamKeepaliveModule模块的支持。
配置:
http { # 需要HttpUpstreamKeepaliveModule upstream redis_pool { server 127.0.0.1:6379; # 可以容纳1024个链接的链接池 keepalive 1024 single; } server { location=/redis { … redis2_pass redis_pool; } } }
这个模块提供keepalive指令。它的context是upstream。咱们知道upstream在使用Nginx作反向代理时使用。实际upstream是指“上游”。这个“上游”可以是redis、memcached或是mysql等一些server。upstream可以定义一个虚拟server集群,并且这些后端的server可以享受负载均衡。keepalive 1024就是定义链接池的大小,当链接数超过这个大小后,兴许的链接本身主动退化为短链接。链接池的使用很是easy,直接替换掉原来的ip和port号就能够。 有人之前測过,在没有使用链接池的状况下,訪问memcached(使用以前的Memc模块),rps为20000。在使用链接池以后,rps一路飙到140000。在实际状况下。这么大的提高可能达不到,但是基本上100-200%的提升仍是可以的。
小结
这里对memcached、redis的訪问作个小结。
1. Nginx提供了强大的编程模型。location至关于函数,子请求至关于函数调用,并且location还可以向本身发送子请求,这样构成一个递归的模型,因此採用这样的模型实现复杂的业务逻辑。 2. Nginx的IO操做必须是非堵塞的,假设Nginx在那阻着,则会大大减小Nginx的性能。因此在Lua中必须经过ngx.location.capture发出子请求将这些IO操做托付给Nginx的事件模型。
3. 在需要使用tcp链接时,尽可能使用链接池。
这样可以消除大量的创建、释放链接的开销。
參考:
http://wiki.nginx.org/HttpUpstreamKeepaliveModule
http://wiki.nginx.org/HttpRedis2Module
http://wiki.nginx.org/HttpMemcModule
原文: