服务器端截图能够作什么? html
我的观点:省去跟报表有关的EDM开发,直接从系统上截图,而后发图片给用户就搞定。剩下的本身脑补。 node
既然这么好,为毛不赶忙弄。须要用到的工具坑太多,没有尝试,不敢拿上去用。 linux
若是是window环境就更简单了,你们自行处理,这里不作介绍。 git
我知道不少人比较懒,也有不少人,这也不懂,那也不懂。因此为了避免让你们浪费时间,给你们安装环境步骤,因为系统是64位,所以下面的步骤都是按64位来。windows环境下的安装,本身看文档。 github
参考:http://www.laozuo.org/6421.html web
这个直接参考http://www.tuicool.com/articles/VfiqqiA npm
直接给图说明比较方便 windows
因为有200kb的图片上传限制,你们将就下,到百度云盘上看qq官网截图效果 centos
http://pan.baidu.com/s/1qXquUkc 浏览器
ps(在另一台服务器上用wrk测试)
介绍下截图服务机器的硬件配置:2核cpu,4g内存
因为我在程序中限定了开启3个phantomjs,每一个phantomjs最多同时作5个页面的渲染和截图。所以我开启了15个线程,保持15个连接同时请求,持续1分钟的时间,效果以下图:
序号 | 网址 | 持续时间(s) | 并发连接 | 请求总数 | 成功 | 失败 | 崩溃 |
1 | qq.com | 60 | 15 | 47 | 47 | 0 | 0 |
2 | qq.com | 60 | 15 | 54 | 54 | 0 | 0 |
3 | qq.com | 60 | 15 | 45 | 45 | 0 | 0 |
4 | qq.com | 60 | 15 | 57 | 57 | 0 | 0 |
5 | qq.com | 60 | 15 | 49 | 49 | 0 | 0 |
平均 | |
60 | 15 | 50.4 | 50.4 | 0 | 0 |
从中能够看出在截取qq.com的时候,大概平均每秒处理0.84个截图请求。
固然这是在有条件限制的状况下得出的数据,在测试的时候,查看了下cpu的峰值,大概是60%,也就是说这个还有提高的空间。并且咱们是用qq.com作测试,若是是比较简单的页面,速度确定还会提高。
不信请看,我请求http://alinode.aliyun.com/blog/23这个网址的测试
这里数据显示1分钟内总共处理了150个请求。平均每秒处理2.5个。
下图是跑了1小时的报告,蛮看看。
在一个小时以内连续的对qq.com首页作截图,总共是处理了562个请求,平均每秒0.16个,太忧伤了。你们有没有发现,其实出现了202个读错误,562个超时,平均网速才225.54kb,诶,这也太坑爹了。
不知道这是什么缘由形成的,究竟是网速慢了,仍是qq官网首页服务器作了安全策略。面对如此惨淡的数据,自信心都没了。
其实在早些时候,有尝试跑一个晚上的并发,惋惜好像是由于断网问题,致使测试没有完成。以后有进行了持续6个小时的并发测试,在跑到2个多小时的时候,出现了内存溢出,致使服务中断的状况。很是的忧伤,
我都不知道为毛内存溢出(当时跑去吃饭了),好歹也有3G多的内存能够用。在启动服务后,我有观测,内存从3G多,直接降到2G左右,不过一直在这个区间徘徊,不知道为毛会出现内存溢出。
有两种猜想:
其实每次的并发测试都会出现超时的状况,这个问题不知道是什么缘由形成的。
理论上要渲染一个页面,实际上是得花很多时间的,加载页面就大概须要2~3秒的时间,加上渲染大概至少须要5秒左右的时间,有些垃圾网站更长,而后咱们还要截图,加起来,这大概得花个6~8秒的时间吧。
按照目前并发测试的结果来讲是不适合用于生产环境的。若是要小范围的作生产测试,还须要解决下面几个问题
服务器端截图仍是挺有意思的一件事情,若是稳定性提升了,相信能够用于不少地方。因为代码是写来作测试的,因此写得挺烂的,还有不少能够改进的地方。
若是你们以为这个点子不错,能够继续开发下去,请到github上点个赞,并给点改进意见。