一个监控及告警的系统,内含一个TSDB(时序数据库)。在我而言是一个数采程序web
重要成员分三块正则表达式
普罗米修斯的数据是一个值时间序列,例如数据库
website_request_count{method="GET",path="/home/index",query="id=2"} 0.001数组
website_request_count是一个监控指标,花括号中的每一个值是label标签,最后的是此次监控的值,还有一个未出现的量就是时间戳。函数
与熟悉的数据库相比起来,一个监控指标比如一个表,时间戳,值,与每一个lebel的名称就是列。每一组label组成一个序列。一旦某个label不一致(包含label的数量,label的名称和值)都会被视为不一样的序列spa
普罗米修斯的数据类型分四种对象
Hisgram与summary比较类似,应用场景也相似:主要源于数据分布不均的状况下(极值delta较大或出现利群值时),平均数已经没法准确反映数据的总体状况,故须要对数据进行分组,按各个分组的统计值反应数据的总体状况。其中Hisgram是按照必定的区间来给数据分段,默认范围是{.005, .01, .025, .05, .075, .1, .25, .5, .75, 1, 2.5, 5, 7.5, 10},它只能给数据分段,并不能得出这部分数据的中位数,4分位数等,若须要则要在服务端处理,而summary则能够在客户端已得出值。两种数据类型都带有_sum与_count两个指标。blog
从刮擦数据的结果中能够得出此数据的数据类型接口
# HELP prometheus_tsdb_wal_fsync_duration_seconds Duration of WAL fsync.get
# TYPE prometheus_tsdb_wal_fsync_duration_seconds summary
prometheus_tsdb_wal_fsync_duration_seconds{quantile="0.5"} 0.012352463
prometheus_tsdb_wal_fsync_duration_seconds{quantile="0.9"} 0.014458005
prometheus_tsdb_wal_fsync_duration_seconds{quantile="0.99"} 0.017316173
prometheus_tsdb_wal_fsync_duration_seconds_sum 2.888716127000002
prometheus_tsdb_wal_fsync_duration_seconds_count 216
每一组指标顶端都有两行注释,第一行是对于这个指标的描述,第二行则是指明了这个指标的数据类型
普罗米修斯的查询中输入监控指标则能够两种形式(图表和数据)展现结果,该结果会包含全部序列的值(即出现过的label和值的集合)
若是要对某些label进行筛选,则能够下面形式
up{instance="helloworld"}
此时会查出全部instance为helloworld的序列
Prometheus既然包含了一个TSDB,对这部分数据则提供了一个查询语言叫ProuQL,下面则简单提一些内置函数
sum,avg,按某个指标进行求和运算,如sum(up),avg(up);
有时候会出现相似这样的写法 sum by(job) (up)或者sum with out(job) (up) 这样的写法,与实际上都是相似于SQL的grouop by,by则针对job 这个label的值分组统计up的值,而with out则除了job lebel外全部label都拿来做分组条件。
up[5m]写法 方括号中表明5分钟,能够是1分钟1m或者1小时1h。此写法会得出一个向量集合,所谓向量实际是一个结果中带了两个值,自己指标的值和时间戳,中间以@做为分隔,这样的写法一般结合rate,irate和delta函数。
rate(up[5m]),求up指标5m钟内每两个量变化率的平均值,是一个平均变化率,假设一组数,a1@t1,a2@t2,a3@t3,……an@tn
rate=( ∑ (a2-a1)/(t2-t1)+(a3-a2)/(t3-t2))/n
irate(up[5m])则是求5m这批数据中,相邻最近的两个值之间的变化率,是一个瞬时变化率
delta(up[5m])则是求这5m这批数据中,收尾两个值的相差值
up{job=~"^123$"}此处job表示是按照正则匹配(出现了“=~”),然后面则跟着对应的正则表达式,^和$仅仅是正则中的开始与结束符号而已。
prometheus的配置采用yaml
scrape_config主要是配置各个刮擦任务,每一个刮擦任务为一个job,每一个job的能够有独立的刮擦周期,并有不一样的刮擦类型,能够有普通的static_configs,还有其余针对不一样exporter的配置,如azure_sd_config,kubernetes_sd_config等,此处要提的是relable这个配置项,relable的配置项的内容能够影响着跨擦结果,里面的label不属于刮擦数据的内容,可是它有可能会被增长到刮擦的结果中而存到库里面去。
每一个relable配置项有如下几个属性
action:表明relable的行为,包含
replace:若是值匹配了regex,则把source_labels替换,替换的label值看replacement而定,替换的label名按target_label而定;
keep:若是label名匹配了 regex的,此条数据才保留
drop:若是label名匹配了regex的,此条数据则被舍弃掉,与上面的相反
hashmad:做用未明
labelmap:通常结果须要多个label通过正则运算后拼凑组合生成新的值的会用这种,label值结果会按replacement生成;
labeldrop:与drop相似,但它舍弃的只是label而已且是拿label值与regex匹配;
labelkeep:与labeldrop相反
regex:正则表达式,默认值是(.*);
source_labels:一个数组,用于处理的各个原始label;
spearetor:默认值是 ";"
target_label:处理后新的label名
replacement:默认值是$1,replace和labelmap按这个来生成结果,后面是数字代表第几个与regex匹配的结果
接下来谈的是prometheus的服务发现,在prometheus界面中有Target与Service Discovery两个菜单,这两个菜单内容与服务发现极有关系。回顾上述关于scrape的配置内容,咱们配置的只有static_config,此处通常设置一个target则往一个节点处刮擦数据。因为他是静态,而对于动态的则是基于服务发现的,凡是刮擦类型中带sd的(service-discover)均有服务发现的功能,该job中的全部节点都无需经过手动配置而加入被刮擦的集合中,如kubernetes_sd_config,按照官网介绍,根据role属性的不一样设置而对k8s的不一样对象进行scrape,如设成service,则scrape回来的数据包含这些label:
__meta_kubernetes_namespace
__meta_kubernetes_service_name
__meta_kubernetes_service_label_
__meta_kubernetes_service_annotation_
__meta_kubernetes_service_port_name
__meta_kubernetes_service_port_protocol
__meta_kubernetes_service_port_number
经过service discover界面看出果然存在若干个被发现的服务(一行表明一个服务),
还记得relabel中的drop action,这里一个发现了7个服务,可是被drop掉的有6个,最终被保存下来的服务的数据仅有一个序列,这个在Taget页面中获得展现,Target就是展现被筛选事后剩余的须要真正监控的服务。