Prometheus 整合 AlertManager

简介

Alertmanager 主要用于接收 Prometheus 发送的告警信息,它很容易作到告警信息的去重,降噪,分组,策略路由,是一款前卫的告警通知系统。它支持丰富的告警通知渠道,能够将告警信息转发到邮箱、企业微信、钉钉等。这一节讲解利用AlertManager,把接受到的告警信息,转发到邮箱。web

实验

准备

启动 http-simulator 度量模拟器:docker

docker run --name http-simulator -d -p 8080:8080 pierrevincent/prom-http-simulator:0.1
复制代码

启动 Prometheus,为了方便更新配置,使用挂载配置文件的方式:shell

docker run --name prometheus -d -p 9090:9090 -v /Users/huanchu/Documents/prometheus-data:/prometheus-data \
       prom/prometheus --web.enable-lifecycle --config.file=/prometheus-data/prometheus.yml
复制代码

启动添加了参数 --web.enable-lifecycle,让Prometheus支持经过web端点动态更新配置。json

访问http://127.0.0.1:9090/targets ,Prometheus 自身的 metrics 和 http-simulator 的 metrics 处于up 状态 ,那么准备工做就作好了。bash

实验

实验1

告警配置

在prometheus-data文件夹下,建立告警配置文件 simulator_alert_rules.yml:微信

groups:
- name: simulator-alert-rule
  rules:
  - alert: HttpSimulatorDown
    expr: sum(up{job="http-simulator"}) == 0
    for: 1m
    labels:
      severity: critical
复制代码

配置文件的意思是 http-simulator 服务up状态为 0 ,而且持续1分钟时,产生告警 ,级别为 “严重的”。app

修改prometheus.yml,引用simulator_alert_rules.yml文件,prometheus.yml 内容以下:curl

global:
  scrape_interval: 5s
  evaluation_interval: 5s
  scrape_timeout: 5s

rule_files:
  - "simulator_alert_rules.yml"

scrape_configs:
  - job_name: 'prometheus'
    static_configs:
    - targets: ['localhost:9090']
  - job_name: 'http-simulator'
    metrics_path: /metrics
    static_configs:
    - targets: ['192.168.43.121:8080']
复制代码

更新Prometheus配置:lua

curl -X POST http://localhost:9090/-/reload
复制代码

访问http://127.0.0.1:9090/config,能够看到已经为更新了配置:url

访问http://127.0.0.1:9090/rules,Rules 下出现了新添加的告警规则:

验证

访问http://127.0.0.1:9090/alerts ,Alerts 下 HttpSimulatorDown 为绿色,处于INACTIVE 状态,表示什么都没有发生。

关闭 http-simulator 服务:

docker stop http-simulator
复制代码

访问http://127.0.0.1:9090/alerts,HttpSimulatorDown 变成黄色,处于 PENDING 状态,表示报警即将被激活。

一分钟后,HttpSimulatorDown 变成红色,处于 FIRING 状态,表示报警已经被激活了。

实验2

告警配置

在simulator_alert_rules.yml文件中增长告警配置:

- alert: ErrorRateHigh
    expr: sum(rate(http_requests_total{job="http-simulator", status="500"}[5m])) / sum(rate(http_requests_total{job="http-simulator"}[5m])) > 0.02
    for: 1m
    labels:
      severity: major
    annotations:
      summary: "High Error Rate detected"
      description: "Error Rate is above 2% (current value is: {{ $value }}"
复制代码

配置文件的意思是 http-simulator 请求的错误率对2% ,而且持续1分钟时,产生告警 ,级别为 “很是严重的”

更新Prometheus配置:

curl -X POST http://localhost:9090/-/reload
复制代码

验证

访问http://127.0.0.1:9090/alerts,ErrorRateHigh 为绿色的 INACTIVE 状态。

把 http-simulator 的错误率调到 10%

curl -H 'Content-Type: application/json' -X PUT -d '{"error_rate": 10}' http://localhost:8080/error_rate
复制代码

稍等一会后,访问http://127.0.0.1:9090/alerts, 能够看到错误率已经大2%,ErrorRateHigh 为红色的 FIRING 状态,报警已经被激活了。

安装和配置AlertManager

经过docker 挂载文件的方式安装AlertManager,在本地建立文件夹 alertmanager-data 文件夹,在其中建立 alertmanager.yml,内容以下:

global:
  smtp_smarthost: 'smtp.163.com:25'
  smtp_from: 'xxxxx@163.com'
  smtp_auth_username: 'xxxxx@163.com'
  smtp_auth_password: 'xxxxx'

route:
  group_interval: 1m   #当第一个报警发送后,等待'group_interval'时间来发送新的一组报警信息
  repeat_interval: 1m   # 若是一个报警信息已经发送成功了,等待'repeat_interval'时间来从新发送他们
  receiver: 'mail-receiver'
receivers:
- name: 'mail-receiver'
  email_configs:
    - to: 'xxxxxx@163.com' 
复制代码

启动 AlertManager:

docker run --name alertmanager -d -p 9093:9093 -v /Users/huanchu/Documents/alertmanager-data:/alertmanager-data \
       prom/alertmanager --config.file=/alertmanager-data/alertmanager.yml
复制代码

在Prometheus目录下,修改prometheus.yml配置Alertmanager地址:

# Alertmanager configuration
alerting:
  alertmanagers:
  - static_configs:
    - targets:
      - 192.168.43.121:9093
复制代码

更新Prometheus配置:

curl -X POST http://localhost:9090/-/reload
复制代码

访问http://127.0.0.1:9093,访问Alertmanager UI界面,能够看到接收到ErrorRateHigh告警:

邮箱会收到告警信息:

关注我

相关文章
相关标签/搜索