Locust + python + influxdb + grafana 展现性能压测QPS图表

需求

在使用locust压测的时候,若是使用web则能够查看到QPS压测过程的曲线图。而若是使用no web模式启动,则只有一些打印的日志能够查看。php

那么可否将no web模式启动的locust执行过程日志转化为曲线图表呢?python

若是须要将日志转化为曲线图表,那么则如下步骤: 一、将locust执行任务日志序列化,方便程序读取 二、须要定时刷新获取执行日志文件,将日志信息写入数据库 三、读取数据库数据,将其进行图表化呈现。web

而且还要求这个日志采集处理要足够轻量级、资源消耗小,只有在执行locust的时候才启动便可。因此,我也放弃了filebeat + logstash + Elasticsearch 或者 kafka 、redis等大型采集日志的方案。redis

本身定制化写一个便可。shell

将locust执行任务日志序列化

方式一,直接在locust源码中挂上钩子,将日志格式化写入文件

对于locust执行任务的日志序列化我尝试过直接在locust源码中挂上钩子,而后将日志进行格式化以后,再写入一个文件中。 功能上是能够实现的,可是压测性能上就会大打折扣,因为locust在压测过程须要对每一个压测请求都进行格式化以及写入文件,这样就很影响压测机的并发效率。数据库

因此这种方式已经被我抛弃。api

有兴趣能够参考:Matplotlib可视化查看Locust测试结果(一)bash

方式二,过滤locust使用no web模式下打印出来的日志

在通过多测压测测试以后,我决定直接使用locust执行过程打印的日志来生成图表。并发

一、首先将locust执行过程的日志写入文件中 二、经过读取执行文件的日志信息,再将其转化存储到influxdb数据库 三、最后根据influxdb数据库的数据,展现图表curl

在这个过程,对于locust自身的压测过程,我并无嵌入代码去影响执行效率。而是将locust执行过程自动打印出来的信息进行二次处理而已。

这样作的好处就是不会对locust压测形成较大的性能损耗,由于大概是5秒打印一次执行日志,相信这个损耗是比较低的了。

原生的locust执行日志:

能够从图中看到,在执行locust脚本使用no web模式的时候,执行的日志默认是INFO级别的,通常咱们都是这样去使用。 此时,INFO的日志信息和locust压测执行结果混合在一块儿打印,这就让人很不开心了。因此必须将其分开。

首先肯定我只须要的信息,以下:

若是压测的接口有多个,那么就会有对应的多条信息。示例以下:

Name                                                          # reqs # fails Avg Min Max | Median req/s
--------------------------------------------------------------------------------------------------------------------------------------------
 GET /apis1                                                        988     0(0.00%)      20       5      73  |      16   97.12
--------------------------------------------------------------------------------------------------------------------------------------------
 GET /apis2                                                        988     0(0.00%)      20       5      73  |      16   97.12
--------------------------------------------------------------------------------------------------------------------------------------------
 Total                                                            988     0(0.00%)                                      97.12
复制代码

肯定好了须要的数据日志信息以后,下面第一步就是能够将INFO信息和执行结果信息拆分写入不一样的日志文件中。

拆分日志中的INFO信息与执行结果信息

  • --logfile=locust.log --loglevel=INFOINFO信息写到locust.log日志中
  • 1>run.log 2>&1 将压测执行的结果信息写到run.log日志中

命令执行以下: locust -f locustfile.py --no-web -c 100 -r 50 --run-time=30 --expect-slaves=2 --csv=result --host='http://127.0.0.1:8000' --logfile=locust.log --loglevel=INFO 1>run.log 2>&1

查看执行压测结果日志run.log以下:

查看执行INFO信息日志locust.log以下:

能够看到INFO信息和locust执行的压测结果已经分开日志文件存储好了。那么下面就须要想办法将执行压测结果的数据进行序列化读取,存储到influxdb中。

使用python实时读取run.log日志信息

在这里能够写一个简单的功能,以下:

  • 在开启执行locust脚本的同时,也启动这个python脚本或者一直长时间执行。
  • 在python脚本执行的过程期间,须要执行两个动做便可:读取日志信息,而后写入influxdb

下面直接将实现好的python代码show出来,以下:

import subprocess
import re
import os

def main():

    # 实时读取日志信息
    shell = 'tail -F run.log'
    p = subprocess.Popen(shell, shell=True, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
    for line in iter(p.stdout.readline, b''):
        line = line.rstrip().decode('utf8')
        # print(line)
        
        # 正则匹配获取全部的须要参数
        res = re.match(
            r'^\s+(?P<method>GET|POST)\s+(?P<api>[\/\w\?\=\&]+)\s+(?P<reqs>\d+)\s+(?P<fails>[\d\(\.\)\%]+)\s+(?P<Avg>\d+)\s+(?P<Min>\d+)\s+(?P<Max>\d+)\s+(\|)\s+(?P<Median>\d+)\s+(?P<QPS>[\w\.]+)$',
            line)
        if res:
            print("method: %s, api: %s, reqs: %s, fails: %s, Avg: %s, Min: %s, Max: %s, Median: %s, QPS: %s " % (
                res.group('method'), res.group('api'), res.group('reqs'), res.group('fails').split('(')[0], res.group('Avg'),
                res.group('Min'), res.group('Max'), res.group('Median'), res.group('QPS')
            ))

            # 设置须要写入influxdb的参数
            method = res.group('method')
            api = res.group('api')
            reqs = res.group('reqs')
            fails = res.group('fails').split('(')[0]
            avg = res.group('Avg')
            min = res.group('Min')
            max = res.group('Max')
            median = res.group('Median')
            qps = res.group('QPS')

            # 往influxdb写入数据
            # 建立数据库 curl -i -XPOST http://localhost:8086/query --data-urlencode "q=CREATE DATABASE testdb"
            # 插入数据
            # 表名 索引 tag 字段 fields
            # curl -i -XPOST 'http://localhost:8086/write?db=testdb' --data-binary 'locust,method=GET,api=/apis reqs=2099,fails=10,avg=20,min=5,max=83,median=16,qps=95.10'
            database = 'testdb'
            table_name = 'locust'
            insert_data = "curl -i -XPOST 'http://localhost:8086/write?db=%s' --data-binary '%s,method=%s,api=%s reqs=%s,fails=%s,avg=%s,min=%s,max=%s,median=%s,qps=%s'" % (database,table_name,method,api,reqs,fails,avg,min,max,median,qps)
            os.system(insert_data)

if __name__ == '__main__':
    main()
复制代码

此时执行的参数已经能够实时写入influxdb中了,以下:

> precision rfc3339
> 
> select * from locust limit 10 tz('Asia/Shanghai')
name: locust
time                                api   avg fails max   median method min qps   reqs
----                                ---   --- ----- ---   ------ ------ --- ---   ----
2019-11-21T14:59:19.040228993+08:00 /apis 16  0     43    14     GET    6   0     191
2019-11-21T14:59:21.039195477+08:00 /apis 62  0     206   55     GET    6   36    481
2019-11-21T14:59:23.059811043+08:00 /apis 151 0     1305  110    GET    6   96.2  765
2019-11-21T14:59:25.077216006+08:00 /apis 211 0     2098  160    GET    6   103.5 990
2019-11-21T14:59:27.066784427+08:00 /apis 272 0     4700  180    GET    6   110   1262
2019-11-21T14:59:29.061261969+08:00 /apis 384 0     6386  190    GET    6   126.1 1532
2019-11-21T14:59:31.079897673+08:00 /apis 395 0     9465  190    GET    6   133.4 1804
2019-11-21T14:59:33.076470655+08:00 /apis 422 0     9707  200    GET    6   132   2034
2019-11-21T14:59:35.084000478+08:00 /apis 526 0     13796 200    GET    6   127.1 2270
2019-11-21T14:59:37.102809695+08:00 /apis 574 0     15456 200    GET    6   127.5 2553
> 
复制代码

那么下一步只要在grafana展现图表就能够了。

Grafana设置图表

建立table图表

先建立一个table表格,以下:

将查询语句直接写入查询框中,而后选择数据库(我前面已经设置好,这里就不展现了),最后设置查询的时间,就能够看到数据展现了。

最后修改标题,保存起来就能够了,下面再来作一个折线图。

建立折线图

一样的操做,如何须要在折线图上显示什么曲线,那就增长字段便可。在复制到grafana以前,最好在influx查询执行一下,看看可否执行成功。

个人测试执行以下:

> select "qps","avg" from locust limit 5 tz('Asia/Shanghai')
name: locust
time                                qps   avg
----                                ---   ---
2019-11-21T14:59:19.040228993+08:00 0     16
2019-11-21T14:59:21.039195477+08:00 36    62
2019-11-21T14:59:23.059811043+08:00 96.2  151
2019-11-21T14:59:25.077216006+08:00 103.5 211
2019-11-21T14:59:27.066784427+08:00 110   272
> 
复制代码

到这里就已经实现locust执行日志的实时查看了。

效果图

最后设置一下页面自动刷新,以下:

另外,若是有不清楚influxdb和grafana安装和基本操做的,能够看看我以前写关于这两个工具的篇章: Grafana系列 InfluxDB系列

相关文章
相关标签/搜索