最近我操刀了leetcode的论坛迁移,整个过程持续了几周的时间,总算暂时告了一个段落。常使用leetcode论坛的用户应该已经发现论坛已经大变样了吧~php
期间遇到了很多坑坑洼洼,未来也还会有好多问题等待去一一解决。关于这个迁移过程当中的收货,这篇文章中就不细说了,有时间再另开一篇博文。这篇文章主要关注在url-mapping以及它的性能问题。html
问:url-mapping的问题从何而来呢?node
旧的论坛和新的论坛是两个不一样的discuss框架。前者是phpbb,如今是nodebb。二者的 url routing 彻底不同,好比说同一个topic,在原来的url是 http://hostname/discuss/<topic_id>/<topic_name>
,在新的论坛中是 http://hostname/topic/<topic_id>/<topic_slug>
(这里就不讨论二者甚至连topic_id
都不同的问题了)。python
而在广袤的互联网海洋中,旧论坛的url可能处处都存在。咱们不但愿在论坛迁移后,用户点那些连接就失效了。咱们但愿的是用户访问旧的url能够被重定向到新论坛的某个地址。因此就产生了url-mapping的问题。nginx
感谢nodebb-plugin-import提供了数据迁移之后自动生成url-mapping的方式,省了我本身写脚本生成这些mapping的时间。每一条mapping大体是这样的:git
~^/discuss/questions/oj/add-two-numbers\b(\?[^/]*)*/?$ /category/10/add-two-numbers;
其中的slug
和id
的mapping是由插件生成的。regular expression
是为了匹配url中若是有param添加的。github
官方文档的demo可能对于刚想上手的同窗来讲不是那么友好,仍是直接看现成的配置学得快:express
http { ... map_hash_max_size 204800; map_hash_bucket_size 204800; map $request_uri $new { include /path/of/your/map/file; } include /etc/nginx/conf.d/*.conf; include /etc/nginx/sites-enabled/*; ... }
server { ... if ($new) { rewrite ^ https://discuss.leetcode.com$new redirect; } location / { ... } ... }
在server规则匹配中,$new值不为空,说明当前要访问的url已经在http模块的mapping文件中匹配到了,这个时候就不走各类location
模块了,直接rewrite成新的地址。注:这里要是作成proxy_pass也行,后面的测试中就采用了proxy_pass。但线上的环境,担忧nginx的压力太大了,就采用了rewrite方式给它减减压。服务器
考虑到mapping的条目有点多,几万量级,又都是正则匹配。每一个请求来的时候都会先去看看mapping中有没有,即便mapping使用的是hash的方式也难免会让我对它的性能产生一些担心,因此性能测试就必需要来一发了。网络
测试方案:
在新机器上跑helloworld
自动生成随机100个url-mapping,都重定向到helloworld
使用abtest分别对helloworld和随机url做压测
增大url-mapping的条目,重复1,2
临时租了两台阿里云服务器(由于是临时的,因此我也就不在乎在后文暴露ip了),配置都是:1核,2048M内存,40G硬盘。一台用做nginx和helloworld程序,一台专门作abtest。
注:abtest也在阿里云执行只要是为了在一个数据中心下降网络延迟。最后发现效果然不错,rps从100多直接飙升到2700多。
采用了nodejs的helloworld:
var http = require('http'); var i = 0; http.createServer(function (req, res) { console.log(i++); res.writeHead(200, {'Content-Type': 'text/plain'}); res.end('Hello World\n'); }).listen(1337, "0.0.0.0"); console.log('Server running at http://0.0.0.0:1337/');
生成urlmapping写了一个python脚本:
import hashlib m2 = hashlib.md5() current = "hello world" f = open('./url.map', 'w') for i in range(100): m2.update(current) current = m2.hexdigest() f.write('~^/hello/world/' + current + '\\b(\?[^/]*)*/?$\t/;\n') f.close()
nginx配置:
server { listen 80; server_name 120.26.138.197; location ^~ /{ if ($new) { proxy_pass http://120.26.138.197:1337$new; break; } return 404; } }
rps测试(request per second):并发压测使用100000次请求,并发100个用户的方式。
# 不走nginx ab -n100000 -c100 120.26.138.197:1337/ # 走nginx ab -n100000 -c100 120.26.138.197/hello/world/5eb63bbbe01eeed093cb22bb8f5acdc3/
mapping条目 | 直接访问(rps) | map第一条url(rps) | map最后一条url(rps) | 不存在的url(rps) |
---|---|---|---|---|
100 | 2829.44 | 1819.63 | 1765.25 | 9740.53 |
1000 | - | 1816.00 | 1509.52 | 4094.68 |
10000 | - | 1813.22 | 514.24 | 658.32 |
100000 | - | 1836.02 | 62.40 | 65.80 |
跟预想的同样,mapping的条目确实会对请求效率产生影响。并且几万条的映射在较高并发的状况下已经到了勉强能用的临界了。还好之后mapping的条目不会再增长了,而且论坛的并发很难到100的量级。
tpr测试(time per request):由于考虑到服务器比较稳定,减小压测总数。同时把并发用户减为1个。
# 不走nginx ab -n1000 -c1 120.26.138.197:1337/ # 走nginx ab -n1000 -c1 120.26.138.197/hello/world/5eb63bbbe01eeed093cb22bb8f5acdc3/
mapping条目 | 直接访问(ms) | map第一条url(ms) | map最后一条url(ms) | 不存在的url(ms) |
---|---|---|---|---|
100 | 0.690 | 0.922 | 0.933 | 0.507 |
1000 | - | 0.925 | 1.043 | 0.648 |
10000 | - | 0.921 | 2.340 | 1.915 |
100000 | - | 0.926 | 16.321 | 15.469 |
在并发不是很高的时候mapping的条目能够更多。100000个条目大概只会影响整个请求15ms左右,能够忽略不计。若是说150ms的延迟是能够接受的,那么在一个并发不是很高的状况下,mapping最多能够有100w条,仍是不少的。
压测的url请求并不随机
全部的url都被重定向到一个地方。不过从结果来看,nginx确实是根据条目一个个请求的。这点倒没有什么影响
没有测试http://hostname/path?param=xxx
这样类型的url