哪些是数据库智能化运维必踩的坑?

内容来源:2018 年 11 月 10 日,SOUG联合创始人周亮在“2018 SOUG年度数据库技术峰会”进行《Oracle AI 性能优化指南探讨》的演讲分享。IT 大咖说做为独家视频合做方,经主办方和讲者审阅受权发布。数据库

阅读字数:3313 | 9分钟阅读性能优化

获取嘉宾演讲视频及PPT,请点击:t.cn/EyZX8Q6网络

摘要

Oracle AI 性能优化指南探讨。如今咱们绝大部分的运维工做仍是集中在文档化定位、脚本化、运维工具化,虽然这三大块里面已经有不少企业实现了部分的自动化运维,可是我相信不少时候仍是靠人肉为主。架构

运维发展阶段

运维发展的第一个阶段是无序化运维,也就是所谓的水来土淹,兵来将挡,有故障了就处理,没故障就喝茶看报,文档也没有,全靠人工处理。下一阶段是文档化运维,这应该是如今绝大部分的人所处的阶段,一些故障和心得会被写到文档里面,造成知识手册,或者博客文章等。并发

再往下是脚本化运维,有了脚本以后下一任的人员接手就会简单不少,他只须要知道脚本的用途和使用方式就好了,至于细节方面,一开始并不须要了解太多,除非是要对脚本进行量身定制化,运维

工具化运维是脚本化运维的升级,将脚本打包成工具使用,好比说自动化运维平台、性能优化平台、监控平台,简单来讲就是将所用的脚本归档集中起来。而后是自动化运维,关于这方面的讨论这几年很是火,各类大会上都在讲自动化。根据个人观察,目前自动化运维主要在作那么一件或两件事,大可能是一些不须要太多的流程,不须要太多的人工智能的事情。好比说安装部署、空间扩容。虽然自动化在互联网企业中推行了开来,可是在传统企业里面,自动化有一个很大的瓶颈在,那就是不够标准化。所谓的不够标准化,指的是咱们的机房环境错综复杂,自动化运维很难部署下去。机器学习

最后是智能化运维,这是也本次要讲的一个比较重要的主题。所谓的智能化运维就是让机器去干人的事情,让机器学习人的思想,再经过人工智能的一些手段实现出来。工具

如今咱们绝大部分的运维工做仍是集中在文档化定位、脚本化、运维工具化,虽然这三大块里面已经有不少企业实现了部分的自动化运维,可是我相信不少时候仍是靠人肉为主。性能

所谓的自动化运维也只是在简单的接受一些告警,这些告警每每是海量的,运维人员看多了也就麻痹掉了,不会再去看。因此说自动化运维只是实现了部分告警让机器去作,可能安装部所巡检仍是人在作。而智能化运维甚至还在起步阶段,或者说在概念的阶段。学习

AI性能运维需求

做为一个非甲方公司,咱们考虑的智能化性能,必需要兼容全部的数据,这是一个大的前提。不一样的数据库的类型,智能化运维需求是不同的。好比小型数据库,主机的负载很低的,并发也不高的,空间每每小于500G,其性能问题每每是有SQL执行效率引发的,好比SQL执行计划发生变异,一个索性忽然变成全量。

对于中大型数据库,他们的主机资源负载或者事务并发都比较高,大体状况多是每秒钟有100个以上SQL再解析,每一个节点有200个左右的当前的事务在执行。它的性能问题每每不是一条简单的SQL致使的,更多的是受到主机资源不足、数据库资源冲突、SQL执行效率等因素影响。

在这种状况下到底有哪些人须要AI运维呢?我我的来看多是一些基础不是特别牢固的人员,以平台的形式提供给他们使用,该平台以结果为导向,提供简介明了的操做指南,实现过程性的关联告警,明确问题方向。

咱们作性能优化的时候面临的首要难点就是不报错,这对于水平比较低的人来说就彻底没有头绪了。若是有报错,还能够去百度,谷歌或者其余地方查询,只要有足够的时间,就能找到一个问题的方向。所以在智能化运维性能这块,咱们要把这些毫无头绪的环节梳理出来。

性能优化的目标

全部的性能优化的目标都是让拐点后移动, 所谓的拐点后移动,就是当压力或者并发积累到必定程度的时候,数据库的吞吐量时间会急剧上升,从缓慢上升到急剧上升的突变点就叫拐点。随着性能优化的持续的投入,咱们会把这个点尽可能的日后移,让数据库能承受更多的压力,这就是全部的数据库的性能优化的目标。

咱们在说性能优化的时候有个关键点——变化,明确的说是寻找变化。由于性能优化是不报错的,因此当数据库出现性能问题的时候,须要数据库出现性能问题先后的比较报告。经过比较两份报告,能够更容易的看出数据库发生了哪些变化,并以此分析出问题点。

AI性能优化关键点

AI性能优化的关键点之一是流程化肢解。若是不把性能优化肢解掉,那就只一笔所谓的一笔糊涂帐,咱们只知道数据库变慢了,但殊不知道具体问题在哪。因此才要把整个数据库性能肢解成几个环节。

从数据库内部的角度来说,整个数据库本质上是用来读取和存储数据的。如今咱们能够把这一环节肢解掉,进一步细分为五个步骤。第一个环节是会访登录,第二个环节是SQL解析,第三个环节是SQL执行,接着是提交和返回环节。

这样肢解以后,有些问题就能够进行针对性的比较了。若是不这样作,比较的东西就太多了,没法抓住关键点。

另一个关键点是寻找拐点和突破点。每一个系统全部的数据库,只要放大到必定的时间时间轴后都是有业务节奏的,当其中的某部分不符合业务节奏的时候就会出现问题,这个点就是突破点。

如今业内在作性能优化的时候,大多状况下是没有性能相关的告警的,数据库报错可能会告警出来,但数据库变慢了,我相信不多会有报警,最多也就是CPU 80%以上、空间不足的时候才会有报警。

而若是能寻找出拐点跟突破点的话,彻底能够进行性能方面的报警。好比咱们经过机器学习已经了解到了系统的业务节奏是什么样的,以后的业务周期内,若是产生新的突破点,在业务感知以前就能够进行报警,指出当前的数据库性能违背了日常的波动规律,可能会出现问题。除了性能告警以外,还能够作一些性能预警。由于已经学习了性能波动曲线,因此能够预测将来的波动状况。

第三个关键点是机器学习,首先学习曲线规律,也就是数据库的指标特征,学习完成后要开始预测变化趋势。随着时间的推移,机器还有很重要的特色,即根据业务节奏的变化,要不停的修正告警阈值,由于业务系统是会不停发展的,另外还有性能预警。

运维数据

那么怎样提取核心环节和核心指标呢?确定是从主机资源开始,主机的四大资源必需要提取出来,CPU内存、内存资源、I/O资源、网络资源。再往上是数据库层,它反应了数据库的典型特征,包括事务数、事务响应时间、逻辑读取数、逻辑读取时间、TOP SQL、TOP OWI。

其中逻辑读的次数是一个很能直观反映数据库性能的指标,当SQL执行计划发生变异的时候,好比说正常的索引读取,一条SQL读一条数据可能要十个逻辑读,在比较高效的时候,其实十个数据块都不要,若是索引读恰好在这个数据块的索引里面或者是在根节点里面,可能只要1到2个数据块就好了。可是SQL执行计划发生变异了的话,可能就要全表扫描,这样的话逻辑读的次数就会直线上升。而若是有机器学习抓取的指标在,通过对比后就会告警出来。

接下来是将数据库肢解后的4个阶段,登陆、解析、执行、提交返回,分别在这几个阶段进行横向对比。

假设应用报出了数据库慢的问题,你在彻底比对了这四个环节以后,发现登录阶段、解析阶段指标没有波动,可是在执行阶段指标发生波动了,那么就基本能够肯定是执行阶段的性能问题致使整个数据库变慢。

后台架构

上图是我设想的后台架构,最上方的性能解析模块分红5个部分,下面的登陆解析引擎和变化监测引擎互相补充,机器学习引擎是去学习上面五个模块的各类指标,变化检测经过机器学习的指标解释性能的突变点或者拐点在哪里。而后是主机资源和数据库资源,他们是数据库能正常运行的一个前提。

以上为今天的分享内容,谢谢你们!

编者:IT大咖说,转载请标明版权和出处
相关文章
相关标签/搜索