Mysql 性能优化教程前端
目录 1node
背景及目标 2mysql
Mysql 执行优化 2ios
认识数据索引 2web
为何使用数据索引能提升效率 2算法
如何理解数据索引的结构 2sql
优化实战范例 3数据库
认识影响结果集 4apache
影响结果集的获取 4后端
影响结果集的解读 4
常见案例及优化思路 5
理解执行状态 7
常见关注重点 7
执行状态分析 8
分析流程 9
常见案例解析 11
总结 12
Mysql 运维优化 14
存储引擎类型 14
内存使用考量 14
性能与安全性考量 14
存储/写入压力优化 15
运维监控体系 15
Mysql 架构优化 17
架构优化目标 17
防止单点隐患 17
方便系统扩容 17
安全可控,成本可控 17
分布式方案 18
分库&拆表方案 18
反范式设计(冗余结构设计) 20
主从架构 21
故障转移处理 22
缓存方案 22
缓存结合数据库的读取 22
缓存结合数据库的写入 23
总结 24
l 厦门游家公司(4399.com)用于员工培训和分享。
l 针对用户群为已经使用过mysql环境,并有必定开发经验的工程师
l 针对高并发,海量数据的互联网环境。
l 本文语言为口语,非学术标准用语。
l 以实战和解决具体问题为主要目标,非应试,很是规教育。友情提醒,在校生学习本教程可能对成绩提升有害无益。
l 非技术挑战,非高端架构师培训,请高手自动忽略。
l 本文档在2011年7月-12月持续更新,增强了影响结果集分析的内容并增补优化实战案例若干。
n 关系型数据库的数据索引(Btree及常见索引结构)的存储是有序的。
n 在有序的状况下,经过索引查询一个数据是无需遍历索引记录的
n 关系型数据库数据索引的查询效率趋近于二分法查询效率,趋近于 log2(N)。
n 极端状况下(更新请求少,更新实时要求低,查询请求频繁),创建单向有序序列可替代数据索引。
n HASH索引的查询效率是寻址操做,趋近于1次查询,比有序索引查询效率更高,可是不支持比对查询,区间查询,排序等操做,仅支持key-value类型查询。不是本文重点。
n 数据索引一般默认采用btree索引,(内存表也使用了hash索引)。
n 仅就有序前提而言,单向有序排序序列是查找效率最高的(二分查找,或者说折半查找),使用树形索引的目的是为了达到快速的更新和增删操做。
n 在极端状况下(好比数据查询需求量很是大,而数据更新需求极少,实时性要求不高,数据规模有限),直接使用单一排序序列,折半查找速度最快。
n 在进行索引分析和SQL优化时,能够将数据索引字段想象为单一有序序列,并以此做为分析的基础。涉及到复合索引状况,复合索引按照索引顺序拼凑成一个字段,想象为单一有序序列,并以此做为分析的基础。
n 一条数据查询只能使用一个索引,索引能够是多个字段合并的复合索引。可是一条数据查询不能使用多个索引。
l 实战范例1: ip地址反查
n 资源: Ip地址对应表,源数据格式为 startip, endip, area
源数据条数为 10万条左右,呈很大的分散性
n 目标: 须要经过任意ip查询该ip所属地区
性能要求达到每秒1000次以上的查询效率
n 挑战: 如使用 between startip and endip 这样的条件数据库操做,由于涉及两个字段的between and, 没法有效使用索引。
若是每次查询请求须要遍历10万条记录,根本不行。
n 方法: 一次性排序(只在数据准备中进行,数据可存储在内存序列)
折半查找(每次请求以折半查找方式进行)
l 实战范例2:目标:查找与访问者同一地区的异性,按照最后登陆时间逆序
n 挑战:高访问量社区的高频查询,如何优化。
查询SQL: select * from user where area=’$area’ and sex=’$sex’ order by lastlogin desc limit 0,30;
创建复合索引并不难, area+sex+lastlogin 三个字段的复合索引,如何理解?
n 解读:首先,忘掉btree,将索引字段理解为一个排序序列。
另外,牢记数据查询只能使用一个索引,每一个字段创建独立索引的状况下,也只能有一条索引被使用!
若是只使用area会怎样?搜索会把符合area的结果所有找出来,而后在这里面遍历,选择命中sex的并排序。 遍历全部 area=’$area’数据!
若是使用了area+sex,略好,仍然要遍历全部area=’$area’ and sex=’$sex’数据,而后在这个基础上排序!!
Area+sex+lastlogin复合索引时(切记lastlogin在最后),该索引基于area+sex+lastlogin 三个字段合并的结果排序,该列表能够想象以下。
广州女$时间1
广州女$时间2
广州女$时间3
…
广州男
….
深圳女
….
数据库很容易命中到 area+sex的边界,而且基于下边界向上追溯30条记录,搞定!在索引中迅速命中全部结果,无需二次遍历!
n 经过Explain 分析SQL,查看 rows 列内容
n 经过慢查询日志的Rows_examined: 后面的数字
n 影响结果集数字是查询优化的重要中间数字,工程师在开发和调试过程当中,应随时关注这一数字。
n 查询条件与索引的关系决定影响结果集。
u 影响结果集不是输出结果数,不是查询返回的记录数,而是索引所扫描的结果数。
u 范例 select * from user where area=’厦门’ and sex=’女’
l 假设 索引为 area
l 假设User表中 area=’厦门’的有 125000条,而搜索返回结果为60233条。
l 影响结果集是125000条,索引先命中125000条厦门用户,再遍历以sex=’女’进行筛选操做,获得60233条结果。
l 若是该SQL 增长 limit 0,30的后缀。查询时,先命中 area=’厦门’,而后依顺序执行 sex=’女’ 筛选操做,直到知足能够返回30条为止,所涉及记录数未知。除非知足条件的结果不足30条,不然不会遍历125000条记录。
l 可是若是SQL中涉及了排序操做,好比 order by lastlogin desc 再有limit 0,30时,排序须要遍历全部area=’厦门’ 的记录,而不是知足即止。
n 影响结果集越趋近于实际输出或操做的目标结果集,索引效率越高。
n 影响结果集与查询开销的关系能够理解为线性相关。减小一半影响结果集,便可提高一倍查询效率!当一条搜索query能够符合多个索引时,选择影响结果集最少的索引。
n SQL的优化,核心就是对结果集的优化,认识索引是加强对结果集的判断,基于索引的认识,能够在编写SQL的时候,对该SQL可能的影响结果集有预判,并作出适当的优化和调整。
n Limit 的影响,须要斟酌对待
u 若是索引与查询条件和排序条件彻底命中,影响结果集就是limit后面的数字($start + $end),好比 limit 200,30 影响结果集是230. 而不是30.
u 若是索引只命中部分查询条件,甚至无命中条件,在无排序条件状况下,会在索引命中的结果集 中遍历到知足全部其余条件为止。好比 select * from user limit 10; 虽然没用到索引,可是由于不涉及二次筛选和排序,系统直接返回前10条结果,影响结果集依然只有10条,就不存在效率影响。
u 若是搜索所包含的排序条件没有被索引命中,则系统会遍历是全部索引所命中的结果,而且排序。例如 Select * from user order by timeline desc limit 10; 若是timeline不是索引,影响结果集是全表,就存在须要全表数据排序,这个效率影响就巨大。再好比 Select * from user where area=’厦门’ order by timeline desc limit 10; 若是area是索引,而area+timeline未创建索引,则影响结果集是全部命中 area=’厦门’的用户,而后在影响结果集内排序。
n 毫秒级优化案例
u 某游戏用户进入后显示最新动态,SQL为 select * from userfeed where uid=$uid order by timeline desc limit 20; 主键为$uid 。 该SQL天天执行数百万次之多,高峰时数据库负载较高。 经过 show processlist 显示大量进程处于Sending data状态。没有慢查询记录。 仔细分析发现,因存在较多高频用户访问,命中 uid=$uid的影响结果集一般在几百到几千,在上千条影响结果集状况下,该SQL查询开销一般在0.01秒左右。 创建uid+timeline 复合索引,将排序引入到索引结构中,影响结果集就只有limit 后面的数字,该SQL查询开销锐减至0.001秒,数据库负载骤降。
n Innodb锁表案例
u 某游戏数据库使用了innodb,innodb是行级锁,理论上不多存在锁表状况。出现了一个SQL语句(delete from tabname where xid=…),这个SQL很是用SQL,仅在特定状况下出现,天天出现频繁度不高(一天仅10次左右),数据表容量百万级,可是这个xid未创建索引,因而悲惨的事情发生了,当执行这条delete 的时候,真正删除的记录很是少,也许一到两条,也许一条都没有;可是!因为这个xid未创建索引,delete操做时遍历全表记录,全表被delete操做锁定,select操做所有被locked,因为百万条记录遍历时间较长,期间大量select被阻塞,数据库链接过多崩溃。
这种非高发请求,操做目标不多的SQL,因未使用索引,连带致使整个数据库的查询阻塞,须要极大提升警觉。
n 实时排名策略优化
u 背景: 用户提交游戏积分,显示实时排名。
u 原方案:
l 提交积分是插入记录,略,
l select count(*) from jifen where gameid=$gameid and fenshu>$fenshu
u 问题与挑战
l 即使索引是 gameid+fenshu 复合索引,涉及count操做,当分数较低时,影响结果集巨大,查询效率缓慢,高峰期会致使链接过多。
u 优化思路
l 减小影响结果集,又要取得实时数据,单纯从SQL上考虑,不太有方法。
l 将游戏积分预约义分红数个积分断点,而后分红积分区间,原始状态,每一个区间设置一个统计数字项,初始为0。
l 每次积分提交时,先肯定该分数属于哪两个区间之间,这个操做很是简单,由于区间是预约义的,并且数量不多,只需遍历便可,找到最该分数符合的区间, 该区间的统计数字项(独立字段,可用内存处理,异步回写数据库或文件)+1。 记录该区间上边界数字为$duandian。
l SQL: select count(*) from jifen where gameid=$gameid and fenshu>$fenshu and fenshu<$duandian,若是处于第一区间,则无需$duandian,这样由于第一区间自己也是最好的成绩,影响结果集不会不少。 经过该SQL得到其在该区间的名次。
l 获取前面区间的总数总和。(该数字是直接从上述提到的区间统计数字获取,不须要进行count操做)将区间内名次+前区间的统计数字和,得到总名次。
l 该方法关键在于,积分区间须要合理定义,保证积分提交成绩能平均散落在不一样区间。
l 如涉及较多其余条件,如日排行,总排行,以及其余独立用户去重等,请按照影响结果集思路自行发挥。
u Redis方案
l Redis数据结构包括String,list,dict和Zset四种,在本案例中是很是好的替代数据库的方案,本文档只作简介,不作额外扩展。
l String 哈希索引,key-value结构,主键查询效率极高,不支持排序,比较查询。
l List 队列结构,在数据异步写入处理中能够替代memcache。
l Dict 数组结构,存储结构化,序列化内容,能够针对数组中的特定列进行操做。
l Zset 有序数组结构,分两个子结构,第一是多层树形的存储结构,第二是每一个树形节点的计数器,这样相似于前面的分段方式,能够理解为多层分段方式,因此查询效率更高,缺点是更新效率有所增长。
n 论坛翻页优化
u 背景,常见论坛帖子页 SQL: select * from post where tagid=$tagid order by lastpost limit $start, $end 翻页 。索引为 tagid+lastpost 复合索引
u 挑战, 超级热帖,几万回帖,用户频频翻到末页,limit 25770,30 一个操做下来,影响结果集巨大(25770+30),查询缓慢。
u 解决方法:
l 只涉及上下翻页状况
n 每次查询的时候将该页查询结果中最大的 $lastpost和最小的分别记录为 $minlastpost 和 $maxlastpost ,上翻页查询为 select * from post where tagid=$tagid and lastpost<$minlastpost order by lastpost desc limit 30; 下翻页为 select * from post where tagid=$tagid and lastpost>$maxlastpost order by lastpost limit 30; 使用这种方式,影响结果集只有30条,效率极大提高。
l 涉及跳转到任意页
n 互联网上常见的一个优化方案能够这样表述,select * from post where tagid=$tagid and lastpost>=(select lastpost from post where tagid=$tagid order by lastpost limit $start,1) order by lastpost limit 30; 或者 select * from post where pid in (select pid from post where tagid=$tagid order by lastpost limit $start,30); (第2条S语法在新的mysql版本已经不支持,新版本mysql in的子语句再也不支持limit条件,但能够分解为两条SQL实现,原理不变,不作赘述)
n 以上思路在于,子查询的影响结果集仍然是$start +30,可是数据获取的过程(Sending data状态)发生在索引文件中,而不是数据表文件,这样所须要的系统开销就比前一种普通的查询低一个数量级,而主查询的影响结果集只有30条,几乎无开销。可是切记,这里仍然涉及了太多的影响结果集操做。
u 延伸问题:
l 来自于uchome典型查询 SELECT * FROM uchome_thread WHERE tagid='73820' ORDER BY displayorder DESC, lastpost DESC LIMIT $start,30;
l 若是换用 如上方法,上翻页代码 SELECT * FROM uchome_thread WHERE tagid='73820' and lastpost<$minlastpost ORDER BY displayorder DESC,lastpost DESC LIMIT 0,30; 下翻页代码SELECT * FROM uchome_thread WHERE tagid='73820' and lastpost>$maxlastpost ORDER BY displayorder DESC, lastpost ASC LIMIT 0,30;
l 这里涉及一个order by 索引可用性问题,当order by中 复合索引的字段,一个是ASC,一个是DESC 时,其排序没法在索引中完成。 因此只有上翻页能够正确使用索引,影响结果集为30。下翻页没法在排序中正确使用索引,会命中全部索引内容而后排序,效率低下。
l 总结:
n 基于影响结果集的理解去优化,不论从数据结构,代码,仍是涉及产品策略上,都须要贯彻下去。
n 涉及 limit $start,$num的搜索,若是$start巨大,则影响结果集巨大,搜索效率会很是难太低,尽可能用其余方式改写为 limit 0,$num; 确系没法改写的状况下,先从索引结构中得到 limit $start,$num 或limit $start,1 ;再用in操做或基于索引序的 limit 0,$num 二次搜索。
n 请注意,我这里永远不会讲关于外键和join的优化,由于在咱们的体系里,这是根本不容许的! 架构优化部分会解释为何。
l 慢查询日志,关注重点以下
n 是否锁定,及锁定时间
u 如存在锁定,则该慢查询一般是因锁定因素致使,自己无需优化,需解决锁定问题。
n 影响结果集
u 如影响结果集较大,显然是索引项命中存在问题,须要认真对待。
l Explain 操做
n 索引项使用
u 不建议用using index作强制索引,如未如预期使用索引,建议从新斟酌表结构和索引设置。
n 影响结果集
u 这里显示的数字不必定准确,结合以前提到对数据索引的理解来看,还记得嘛?就把索引看成有序序列来理解,反思SQL。
l Set profiling , show profiles for query操做
n 执行开销
u 注意,有问题的SQL若是重复执行,可能在缓存里,这时要注意避免缓存影响。经过这里能够看到。
u 执行时间超过0.005秒的频繁操做SQL建议都分析一下。
u 深刻理解数据库执行的过程和开销的分布
l Show processlist 执行状态监控
n 这是在数据库负载波动时常常进行的一项操做
n 具体参见以下
l Sleep 状态
n 一般表明资源未释放,若是是经过链接池,sleep状态应该恒定在必定数量范围内
n 实战范例: 因前端数据输出时(特别是输出到用户终端)未及时关闭数据库链接,致使因网络链接速度产生大量sleep链接,在网速出现异常时,数据库 too many connections 挂死。
n 简单解读,数据查询和执行一般只须要不到0.01秒,而网络输出一般须要1秒左右甚至更长,本来数据链接在0.01秒便可释放,可是由于前端程序未执行close操做,直接输出结果,那么在结果未展示在用户桌面前,该数据库链接一直维持在sleep状态!
l Waiting for net, reading from net, writing to net
n 偶尔出现无妨
n 如大量出现,迅速检查数据库到前端的网络链接状态和流量
n 案例: 因外挂程序,内网数据库大量读取,内网使用的百兆交换迅速爆满,致使大量链接阻塞在waiting for net,数据库链接过多崩溃
l Locked状态
n 有更新操做锁定
n 一般使用innodb能够很好的减小locked状态的产生,可是切记,更新操做要正确使用索引,即使是低频次更新操做也不能疏忽。如上影响结果集范例所示。
n 在myisam的时代,locked是不少高并发应用的噩梦。因此mysql官方也开始倾向于推荐innodb。
l Copy to tmp table
n 索引及现有结构没法涵盖查询条件,才会创建一个临时表来知足查询要求,产生巨大的恐怖的i/o压力。
n 很可怕的搜索语句会致使这样的状况,若是是数据分析,或者半夜的周期数据清理任务,偶尔出现,能够容许。频繁出现务必优化之。
n Copy to tmp table 一般与连表查询有关,建议逐渐习惯不使用连表查询。
n 实战范例:
u 某社区数据库阻塞,求救,经查,其服务器存在多个数据库应用和网站,其中一个不经常使用的小网站数据库产生了一个恐怖的copy to tmp table 操做,致使整个硬盘i/o和cpu压力超载。Kill掉该操做一切恢复。
l Sending data
n Sending data 并非发送数据,别被这个名字所欺骗,这是从物理磁盘获取数据的进程,若是你的影响结果集较多,那么就须要从不一样的磁盘碎片去抽取数据,
n 偶尔出现该状态链接无碍。
n 回到上面影响结果集的问题,通常而言,若是sending data链接过多,一般是某查询的影响结果集过大,也就是查询的索引项不够优化。
n 前文提到影响结果集对SQL查询效率线性相关,主要就是针对这个状态的系统开销。
n 若是出现大量类似的SQL语句出如今show proesslist列表中,而且都处于sending data状态,优化查询索引,记住用影响结果集的思路去思考。
l Storing result to query cache
n 出现这种状态,若是频繁出现,使用set profiling分析,若是存在资源开销在SQL总体开销的比例过大(即使是很是小的开销,看比例),则说明query cache碎片较多
n 使用flush query cache 可即时清理,也能够作成定时任务
n Query cache参数可适当酌情设置。
l Freeing items
n 理论上这玩意不会出现不少。偶尔出现无碍
n 若是大量出现,内存,硬盘可能已经出现问题。好比硬盘满或损坏。
n i/o压力过大时,也可能出现Free items执行时间较长的状况。
l Sorting for …
n 和Sending data相似,结果集过大,排序条件没有索引化,须要在内存里排序,甚至须要建立临时结构排序。
l 其余
n 还有不少状态,遇到了,去查查资料。基本上咱们遇到其余状态的阻塞较少,因此不关心。
l 基本流程
n 详细了解问题情况
u Too many connections 是常见表象,有不少种缘由。
u 索引损坏的状况在innodb状况下不多出现。
u 如出现其余状况应追溯日志和错误信息。
n 了解基本负载情况和运营情况
u 基本运营情况
l 当前每秒读请求
l 当前每秒写请求
l 当前在线用户
l 当前数据容量
u 基本负载状况
l 学会使用这些指令
n Top
n Vmstat
n uptime
n iostat
n df
l Cpu负载构成
n 特别关注i/o压力( wa%)
n 多核负载分配
l 内存占用
n Swap分区是否被侵占
n 如Swap分区被侵占,物理内存是否较多空闲
l 磁盘状态
n 硬盘满和inode节点满的状况要迅速定位和迅速处理
n 了解具体链接情况
u 当前链接数
l Netstat –an|grep 3306|wc –l
l Show processlist
u 当前链接分布 show processlist
l 前端应用请求数据库不要使用root账号!
n Root账号比其余普通账号多一个链接数许可。
n 前端使用普通账号,在too many connections的时候root账号仍能够登陆数据库查询 show processlist!
n 记住,前端应用程序不要设置一个不叫root的root账号来糊弄!非root帐户是骨子里的,而不是名义上的。
l 状态分布
n 不一样状态表明不一样的问题,有不一样的优化目标。
n 参见如上范例。
l 雷同SQL的分布
n 是否较多雷同SQL出如今同一状态
u 当前是否有较多慢查询日志
l 是否锁定
l 影响结果集
n 频繁度分析
u 写频繁度
l 若是i/o压力高,优先分析写入频繁度
l Mysqlbinlog 输出最新binlog文件,编写脚本拆分
l 最多写入的数据表是哪一个
l 最多写入的数据SQL是什么
l 是否存在基于同一主键的数据内容高频重复写入?
n 涉及架构优化部分,参见架构优化-缓存异步更新
u 读取频繁度
l 若是cpu资源较高,而i/o压力不高,优先分析读取频繁度
l 程序中在封装的db类增长抽样日志便可,抽样比例酌情考虑,以不显著影响系统负载压力为底线。
l 最多读取的数据表是哪一个
l 最多读取的数据SQL是什么
n 该SQL进行explain 和set profiling断定
n 注意断定时须要避免query cache影响
u 好比,在这个SQL末尾增长一个条件子句 and 1=1 就能够避免从query cache中获取数据,而获得真实的执行状态分析。
l 是否存在同一个查询短时间内频繁出现的状况
n 涉及前端缓存优化
n 抓大放小,解决显著问题
u 不苛求解决全部优化问题,可是应以保证线上服务稳定可靠为目标。
u 解决与评估要同时进行,新的策略或解决方案务必通过评估后上线。
l 现象:服务器出现too many connections 阻塞
n 入手点:
u 查看服务器状态,cpu占用,内存占用,硬盘占用,硬盘i/o压力
u 查看网络流量状态,mysql与应用服务器的输入输出情况
u 经过Show processlist查看当前运行清单
l 注意事项,平常应用程序链接数据库不要使用root帐户,保证故障时能够经过root 进入数据库查看 show processlist。
n 状态分析:
u 参见如上执行状态清单,根据链接状态的分布去肯定缘由。
n 紧急恢复
u 在肯定故障缘由后,应经过kill掉阻塞进程的方式 当即恢复数据库。
n 善后处理
u 如下针对常见问题简单解读
u Sleep 链接过多致使,应用端及时释放链接,排查关联因素。
u Locked链接过多,如源于myisam表级锁,更innodb引擎;如源于更新操做使用了不恰当的索引或未使用索引,改写更新操做SQL或创建恰当索引。
u Sending data链接过多,用影响结果集的思路优化SQL查询,优化表索引结构。
u Free items链接过多,i/o压力过大 或硬盘故障
u Waiting for net , writing to net 链接过多, mysql与应用服务器链接阻塞。
u 其余仍参见如上执行状态清单所示分析。
u 如涉及不十分严格安全要求的数据内容,可用按期脚本跟踪请求进程,并kill掉僵死进程。如数据安全要求较严格,则不能如此进行。
l 现象:数据库负载太高,响应缓慢。
n 入手点:
u 查看cpu状态,服务器负载构成
n 分支1:i/o占用太高。
u 步骤1: 检查内存是否占用swap分区,排除因内存不足致使的i/o开销。
u 步骤2:经过iostat 指令分析i/o是否集中于数据库硬盘,是不是写入度较高。
u 步骤3:若是压力来自于写,使用mysqlbinlog 解开最新的binlog文件。
u 步骤4:编写日志分析脚本或grep指令,分析每秒写入频度和写入内容。
l 写入频度不高,则说明i/o压力另有缘由或数据库配置不合理。
u 步骤5:编写日志分析脚本或grep 指令,分析写入的数据表构成,和写入的目标构成。
u 步骤6:编写日志分析脚本,分析是否存在同一主键的重复写入。 好比出现大量 update post set views=views+1 where tagid=****的操做,假设在一段时间内出现了2万次,而其中不一样的tagid有1万次,那么就是有50%的请求是重复update请求,有能够经过异步更新合并的空间。
u 提示一下,以上所说起的日志分析脚本编写,正常状况下不该超过1个小时,而对系统负载分析所提供的数据支持价值是巨大的,对性能优化方案的选择是很是有意义的,若是您认为这项工做是繁冗并且复杂的工做,那么必定是在分析思路和目标把握上出现了误差。
n 分支2:i/o占用不高,CPU 占用太高
u 步骤1:查看慢查询日志
u 步骤2:不断刷新查看Show processlist清单,并把握可能频繁出现的处于Sending data状态的SQL。
u 步骤3:记录前端执行SQL
l 于前端应用程序执行查询的封装对象内,设置随机采样,记录前端执行的SQL,保证有必定的样本规模,而且不会带来前端i/o负载的激增。
l 基于采样率和记录频率,得到每秒读请求次数数据指标。
l 编写日志分析脚本,分析采样的SQL构成,所操做的数据表,所操做的主键。
l 对频繁重复读取的SQL(彻底一致的SQL)进行断定,是否数据存在频繁变更,是否须要实时展示最新数据,若有可能,缓存化,并预估缓存命中率。
l 对频繁读取但不重复的(SQL结构一致,但条件中的数据不一致)SQL进行断定,是否索引足够优化,影响结果集与输出结果是否足够接近。
u 步骤4:将致使慢查询的SQL或频繁出现于show processlist状态的SQL,或采样记录的频繁度SQL进行分析,按照影响结果集的思路和索引理解来优化。
u 步骤5:对如上难以界定问题的SQL进行 set profiling 分析。
u 步骤6:优化后分析继续采样跟踪分析。并跟踪比对结果。
n 善后处理
u 平常跟踪脚本,不断记录一些状态信息。保证每一个时间节点都能回溯。
u 确保随时能了解服务器的请求频次,读写请求的分布。
u 记录一些未形成致命影响的隐患点,可暂不解决,但须要记录。
u 如确系服务器请求频次太高,可基于负载分布决定硬件扩容方案,好比i/o压力太高可考虑固态硬盘;内存占用swap可考虑增长内容容量等。用尽量少的投入实现最好的负载支撑能力,而不是简单的买更多服务器。
l 要学会怎样分析问题,而不是单纯拍脑壳优化
l 慢查询只是最基础的东西,要学会优化0.01秒的查询请求。
l 当发生链接阻塞时,不一样状态的阻塞有不一样的缘由,要找到缘由,若是不对症下药,就会南辕北辙
n 范例:若是自己系统内存已经超载,已经使用到了swap,而还在考虑加大缓存来优化查询,那就是自寻死路了。
l 影响结果集是很是重要的中间数据和优化指标,学会理解这一律念,理论上影响结果集与查询效率呈现很是紧密的线性相关。
l 监测与跟踪要常常作,而不是出问题才作
n 读取频繁度抽样监测
u 全监测不要搞,i/o吓死人。
u 按照一个抽样比例抽样便可。
u 针对抽样中发现的问题,能够按照特定SQL在特定时间内监测一段全查询记录,但仍要考虑i/o影响。
n 写入频繁度监测
u 基于binlog解开便可,可定时或不定时分析。
n 微慢查询抽样监测
u 高并发状况下,查询请求时间超过0.01秒甚至0.005秒的,建议酌情抽样记录。
n 链接数预警监测
u 链接数超过特定阈值的状况下,虽然数据库没有崩溃,建议记录相关链接状态。
l 学会经过数据和监控发现问题,分析问题,然后解决问题瓜熟蒂落。特别是要学会在平常监控中发现隐患,而不是问题爆发了才去处理和解决。
l Myisam 速度快,响应快。表级锁是致命问题。
l Innodb 目前主流存储引擎
n 行级锁
u 务必注意影响结果集的定义是什么
u 行级锁会带来更新的额外开销,可是一般状况下是值得的。
n 事务提交
u 对i/o效率提高的考虑
u 对安全性的考虑
l HEAP 内存引擎
n 频繁更新和海量读取状况下仍会存在锁定情况
l 理论上,内存越大,越多数据读取发生在内存,效率越高
l Query cache的使用
n 若是前端请求重复度不高,或者应用层已经充分缓存重复请求,query cache没必要设置很大,甚至能够不设置。
n 若是前端请求重复度较高,无应用层缓存,query cache是一个很好的偷懒选择
u 对于中等如下规模数据库应用,偷懒不是一个坏选择。
u 若是确认使用query cache,记得定时清理碎片,flush query cache.
l 要考虑到现实的硬件资源和瓶颈分布
l 学会理解热点数据,并将热点数据尽量内存化
n 所谓热点数据,就是最多被访问的数据。
n 一般数据库访问是不平均的,少数数据被频繁读写,而更多数据鲜有读写。
n 学会制定不一样的热点数据规则,并测算指标。
u 热点数据规模,理论上,热点数据越少越好,这样能够更好的知足业务的增加趋势。
u 响应知足度,对响应的知足率越高越好。
u 好比依据最后更新时间,总访问量,回访次数等指标定义热点数据,并测算不一样定义模式下的热点数据规模
l 数据提交方式
n innodb_flush_log_at_trx_commit = 1 每次自动提交,安全性高,i/o压力大
n innodb_flush_log_at_trx_commit = 2 每秒自动提交,安全性略有影响,i/o承载强。
l 日志同步
n Sync-binlog =1 每条自动更新,安全性高,i/o压力大
n Sync-binlog = 0 根据缓存设置状况自动更新,存在丢失数据和同步延迟风险,i/o承载力强。
n 我的建议保存binlog日志文件,便于追溯 更新操做和系统恢复。
n 如对日志文件的i/o压力有担忧,在内存宽裕的状况下,可考虑将binlog 写入到诸如 /dev/shm 这样的内存映射分区,并定时将旧有的binlog转移到物理硬盘。
l 性能与安全自己存在相悖的状况,须要在业务诉求层面决定取舍
n 学会区分什么场合侧重性能,什么场合侧重安全
n 学会将不一样安全等级的数据库用不一样策略管理
l 顺序读写性能远高于随机读写
l 将顺序写数据和随机读写数据分红不一样的物理磁盘进行,有助于i/o压力的疏解
l 部分安全要求不高的写入操做能够用 /dev/shm 分区存储,简单变成内存写。
l 多块物理硬盘作raid10,能够提高写入能力
l 关键存储设备优化,善于比对不一样存储介质的压力测试数据。
l 涉及必须存储较为庞大的数据量时
l 系统监控
n 服务器资源监控
u Cpu, 内存,硬盘空间,i/o压力
u 设置阈值报警
n 服务器流量监控
u 外网流量,内网流量
u 设置阈值报警
n 链接状态监控
u Show processlist 设置阈值,每分钟监测,超过阈值记录
l 应用监控
n 慢查询监控
u 慢查询日志
u 若是存在多台数据库服务器,应有汇总查阅机制。
n 请求错误监控
u 高频繁应用中,会出现偶发性数据库链接错误或执行错误,将错误信息记录到日志,查看每日的比例变化。
u 偶发性错误,若是数量极少,能够不用处理,可是需时常监控其趋势。
u 会存在恶意输入内容,输入边界限定缺少致使执行出错,需基于此防止恶意入侵探测行为。
n 微慢查询监控
u 高并发环境里,超过0.01秒的查询请求都应该关注一下。
n 频繁度监控
u 写操做,基于binlog,按期分析。
u 读操做,在前端db封装代码中增长抽样日志,并输出执行时间。
u 分析请求频繁度是开发架构 进一步优化的基础
u 最好的优化就是减小请求次数!
l 总结:
n 监控与数据分析是一切优化的基础。
n 没有运营数据监测就不要妄谈优化!
n 监控要注意不要产生太多额外的负载,不要因监控带来太多额外系统开销
l 所谓单点隐患,就是某台设备出现故障,会致使总体系统的不可用,这个设备就是单点隐患。
l 理解连带效应,所谓连带效应,就是一种问题会引起另外一种故障,举例而言,memcache+mysql是一种常见缓存组合,在前端压力很大时,若是memcache崩溃,理论上数据会经过mysql读取,不存在系统不可用状况,可是mysql没法对抗如此大的压力冲击,会所以连带崩溃。因A系统问题致使B系统崩溃的连带问题,在运维过程当中会频繁出现。
n 实战范例: 在mysql链接不及时释放的应用环境里,当网络环境异常(同机房友邻服务器遭受拒绝服务攻击,出口阻塞),网络延迟加重,空链接数急剧增长,致使数据库链接过多崩溃。
n 实战范例2:前端代码 一般咱们封装 mysql_connect和memcache_connect,两者的顺序不一样,会产生不一样的连带效应。若是mysql_connect在前,那么一旦memcache链接阻塞,会连带mysql空链接过多崩溃。
n 连带效应是常见的系统崩溃,平常分析崩溃缘由的时候须要认真考虑连带效应的影响,头疼医头,脚疼医脚是不行的。
l 数据容量增长后,要考虑可以将数据分布到不一样的服务器上。
l 请求压力增长时,要考虑将请求压力分布到不一样服务器上。
l 扩容设计时须要考虑防止单点隐患。
l 数据安全,业务安全
l 人力资源成本>带宽流量成本>硬件成本
n 成本与流量的关系曲线应低于线性增加(流量为横轴,成本为纵轴)。
n 规模优点
l 本教程仅就与数据库有关部分讨论,与数据库无关部门请自行参阅其余学习资料。
l 基本认识
n 用分库&拆表是解决数据库容量问题的惟一途径。
n 分库&拆表也是解决性能压力的最优选择。
n 分库 – 不一样的数据表放到不一样的数据库服务器中(也多是虚拟服务器)
n 拆表 – 一张数据表拆成多张数据表,可能位于同一台服务器,也可能位于多台服务器(含虚拟服务器)。
l 去关联化原则
n 摘除数据表之间的关联,是分库的基础工做。
n 摘除关联的目的是,当数据表分布到不一样服务器时,查询请求容易分发和处理。
n 学会理解反范式数据结构设计,所谓反范式,第一要点是不用外键,不容许Join操做,不容许任何须要跨越两个表的查询请求。第二要点是适度冗余减小查询请求,好比说,信息表,fromuid, touid, message字段外,还须要一个fromuname字段记录用户名,这样查询者经过touid查询后,可以当即获得发信人的用户名,而无需进行另外一个数据表的查询。
n 去关联化处理会带来额外的考虑,好比说,某一个数据表内容的修改,对另外一个数据表的影响。这一点须要在程序或其余途径去考虑。
l 分库方案
n 安全性拆分
u 将高安全性数据与低安全性数据分库,这样的好处第一是便于维护,第二是高安全性数据的数据库参数配置能够以安全优先,而低安全性数据的参数配置以性能优先。参见运维优化相关部分。
n 基于业务逻辑拆分
u 根据数据表的内容构成,业务逻辑拆分,便于平常维护和前端调用。
u 基于业务逻辑拆分,能够减小前端应用请求发送到不一样数据库服务器的频次,从而减小连接开销。
u 基于业务逻辑拆分,可保留部分数据关联,前端web工程师可在限度范围内执行关联查询。
n 基于负载压力拆分
u 基于负载压力对数据结构拆分,便于直接将负载分担给不一样的服务器。
u 基于负载压力拆分,可能拆分后的数据库包含不一样业务类型的数据表,平常维护会有必定的烦恼。
n 混合拆分组合
u 基于安全与业务拆分为数据库实例,可是可使用不一样端口放在同一个服务器上。
u 基于负载能够拆分为更多数据库实例分布在不一样数据库上
u 例如,
l 基于安全拆分出A数据库实例,
l 基于业务拆分出B,C数据库实例,
l C数据库存在较高负载,基于负载拆分为C1,C2,C3,C4等 实例。
l 数据库服务器彻底能够作到 A+B+C1 为一台,C2,C3,C4各单独一台。
l 分表方案
n 数据量过大或者访问压力过大的数据表须要切分
n 纵向分表(常见为忙闲分表)
u 单数据表字段过多,可将频繁更新的整数数据与非频繁更新的字符串数据切分
u 范例 user表 ,我的简介,地址,QQ号,联系方式,头像 这些字段为字符串类型,更新请求少; 最后登陆时间,在线时常,访问次数,信件数这些字段为整数型字段,更新频繁,能够将后面这些更新频繁的字段独立拆出一张数据表,表内容变少,索引结构变少,读写请求变快。
n 横向切表
u 等分切表,如哈希切表或其余基于对某数字取余的切表。等分切表的优势是负载很方便的分布到不一样服务器;缺点是当容量继续增长时没法方便的扩容,须要从新进行数据的切分或转表。并且一些关键主键不易处理。
u 递增切表,好比每1kw用户开一个新表,优势是能够适应数据的自增趋势;缺点是每每新数据负载高,压力分配不平均。
u 日期切表,适用于日志记录式数据,优缺点等同于递增切表。
u 我的倾向于递增切表,具体根据应用场景决定。
n 热点数据分表
u 将数据量较大的数据表中将读写频繁的数据抽取出来,造成热点数据表。一般一个庞大数据表常常被读写的内容每每具备必定的集中性,若是这些集中数据单独处理,就会极大减小总体系统的负载。
u 热点数据表与旧有数据关系
l 能够是一张冗余表,即该表数据丢失不会妨碍使用,因源数据仍存在于旧有结构中。优势是安全性高,维护方便,缺点是写压力不能分担,仍须要同步写回原系统。
l 能够是非冗余表,即热点数据的内容原有结构再也不保存,优势是读写效率所有优化;缺点是当热点数据发生变化时,维护量较大。
l 具体方案选择须要根据读写比例决定,在读频率远高于写频率状况下,优先考虑冗余表方案。
u 热点数据表能够用单独的优化的硬件存储,好比昂贵的闪存卡或大内存系统。
u 热点数据表的重要指标
l 热点数据的定义须要根据业务模式自行制定策略,常见策略为,按照最新的操做时间;按照内容丰富度等等。
l 数据规模,好比从1000万条数据,抽取出100万条热点数据。
l 热点命中率,好比查询10次,多少次命中在热点数据内。
l 理论上,数据规模越小,热点命中率越高,说明效果越好。须要根据业务自行评估。
u 热点数据表的动态维护
l 加载热点数据方案选择
n 定时从旧有数据结构中按照新的策略获取
n 在从旧有数据结构读取时动态加载到热点数据
l 剔除热点数据方案选择
n 基于特定策略,定时将热点数据中访问频次较少的数据剔除
n 如热点数据是冗余表,则直接删除便可,如不是冗余表,须要回写给旧有数据结构。
u 一般,热点数据每每是基于缓存或者key-value 方案冗余存储,因此这里提到的热点数据表,其实更可能是理解思路,用到的场合可能并很少….
l 反范式设计的概念
n 无外键,无连表查询。
n 便于分布式设计,容许适度冗余,为了容量扩展容许适度开销。
n 基于业务自由优化,基于i/o 或查询设计,无须遵循范式结构设计。
l 冗余结构设计所面临的典型场景
n 原有展示程序涉及多个表的查询,但愿精简查询程序
n 数据表拆分每每基于主键,而原有数据表每每存在非基于主键的关键查询,没法在分表结构中完成。
n 存在较多数据统计需求(count, sum等),效率低下。
l 冗余设计方案
n 基于展示的冗余设计
u 为了简化展示程序,在一些数据表中每每存在冗余字段
u 举例,信息表 message,存在字段 fromuid,touid,msg,sendtime 四个字段,其中 touid+sendtime是复合索引。存在查询为 select * from message where touid=$uid order by sendtime desc limit 0,30;
u 展现程序须要显示发送者姓名,此时一般会在message表中增长字段fromusername,甚至有的会增长fromusersex,从而无需连表查询直接输出信息的发送者姓名和性别。这就是一种简单的,为了不连表查询而使用的冗余字段设计。
n 基于查询的冗余设计
u 涉及分表操做后,一些常见的索引查询可能须要跨表,带来没必要要的麻烦。确认查询请求远大于写入请求时,应设置便于查询项的冗余表。
u 冗余表要点
l 数据一致性,简单说,同增,同删,同更新。
l 能够作全冗余,或者只作主键关联的冗余,好比经过用户名查询uid,再基于uid查询源表。
u 实战范例1
l 用户分表,将用户库分红若干数据表
l 基于用户名的查询和基于uid的查询都是高并发请求。
l 用户分表基于uid分红数据表,同时基于用户名作对应冗余表。
l 若是容许多方式登录,能够有以下设计方法
n uid,passwd,用户信息等等,主数据表,基于uid 分表
n ukey,ukeytype,uid 基于ukey分表,便于用户登录的查询。分解成以下两个SQL。
u select uid from ulist_key_13 where ukey=’$username’ and ukeytype=‘login’;
u select * from ulist_uid_23 where uid=$uid and passwd=’$passwd’;
n ukeytype定义用户的登录依据,好比用户名,手机号,邮件地址,网站昵称等。 Ukey+ukeytype 必须惟一。
n 此种方式须要登录密码统一,对于第三方connect接入模式,能够经过引伸额外字段完成。
u 实战范例2:用户游戏积分排名
l 表结构 uid,gameid,score 参见前文实时积分排行。表内容巨大,须要拆表。
l 需求1:基于游戏id查询积分排行
l 需求2:基于用户id查询游戏积分记录
l 解决方案:创建彻底相同的两套表结构,其一以uid为拆表主键,其二以gameid为拆表主键,用户提交积分时,向两个数据结构同时提交。
u 实战范例3:全冗余查询结构
l 主信息表仅包括 主键及备注memo 字段(text类型),只支持主键查询,能够基于主键拆表。因此须要展示和存储的内容均在memo字段重体现。
l 对每个查询条件,创建查询冗余表,以查询条件字段为主键,以主信息表主键id 为内容。
l 平常查询只基于查询冗余表,而后经过in的方式从主信息表得到内容。
l 优势是结构扩展很是方便,只须要扩展新的查询信息表便可,核心思路是,只有查询才须要独立的索引结构,展示无需独立字段。
l 缺点是只适合于相对固定的查询架构,对于更加灵活的组合查询一筹莫展。
n 基于统计的冗余结构
u 为了减小会涉及大规模影响结果集的表数据操做,好比count,sum操做。应将一些统计类数据经过冗余数据结构保存。
u 冗余数据结构可能以字段方式存在,也可能以独立数据表结构存在,可是都应能经过源数据表恢复。
u 实战范例:
l 论坛板块的发帖量,回帖量,每日新增数据等。
l 网站每日新增用户数等。
l 参见Discuz论坛系统数据结构,有较多相关结构。
l 参见前文分段积分结构,是典型用于统计的冗余结构。
l 后台能够经过源数据表更新该数字。
l Redis的Zset类型能够理解为存在一种冗余统计结构。
n 历史数据表
u 历史数据表对应于热点数据表,将需求较少又不能丢弃的数据存入,仅在少数状况下被访问。
l 基本认识
n 读写分离对负载的减轻远远不如分库分表来的直接。
n 写压力会传递给从表,只读从库同样有写压力,同样会产生读写锁!
n 一主多从结构下,主库是单点隐患,很难解决(如主库当机,从库能够响应读写,可是没法自动担当主库的分发功能)
n 主从延迟也是重大问题。一旦有较大写入问题,如表结构更新,主从会产生巨大延迟。
l 应用场景
n 在线热备
n 异地分布
u 写分布,读统一。
u 仍然困难重重,受限于网络环境问题巨多!
n 自动障碍转移
u 主崩溃,从自动接管
n 我的建议,负载均衡主要使用分库方案,主从主要用于热备和障碍转移。
l 潜在优化点
n 为了减小写压力,有些人建议主不建索引提高i/o性能,从创建索引知足查询要求。我的认为这样维护较为麻烦。并且从自己会继承主的i/o压力,所以优化价值有限。该思路特此分享,不作推荐。
l 要点
n 程序与数据库的链接,基于虚地址而非真实ip,由负载均衡系统监控。
n 保持主从结构的简单化,不然很难作到故障点摘除。
l 思考方式
n 遍历对服务器集群的任何一台服务器,前端web,中间件,监控,缓存,db等等,假设该服务器出现故障,系统是否会出现异常?用户访问是否会出现异常。
n 目标:任意一台服务器崩溃,负载和数据操做均会很短期内自动转移到其余服务器,不会影响业务的正常进行。不会形成恶性的数据丢失。(哪些是能够丢失的,哪些是不能丢失的)
l Memcached是最经常使用的缓存系统
l Mysql 最新版本已经开始支持memcache插件,但据牛人分析,尚不成熟,暂不推荐。
l 数据读取
n 并非全部数据都适合被缓存,也并非进入了缓存就意味着效率提高。
n 命中率是第一要评估的数据。
n 如何评估进入缓存的数据规模,以及命中率优化,是很是须要细心分析的。
l 实景分析: 前端请求先链接缓存,缓存未命中链接数据库,进行查询,未命中状态比单纯链接数据库查询多了一次链接和查询的操做;若是缓存命中率很低,则这个额外的操做非但不能提升查询效率,反而为系统带来了额外的负载和复杂性,得不偿失。
n 相关评估相似于热点数据表的介绍。
n 善于利用内存,请注意数据存储的格式及压缩算法。
l Key-value 方案繁多,本培训文档暂不展开。
l 利用缓存不但能够减小数据读取请求,还能够减小数据库写入i/o压力
l 缓存实时更新,数据库异步更新
n 缓存实时更新数据,并将更新记录写入队列
n 可使用相似mq的队列产品,自行创建队列请注意使用increment来维持队列序号。
n 不建议使用 get 后处理数据再set的方式维护队列
l 测试范例:
l 范例1
$var=Memcache_get($memcon,”var”);
$var++;
memcache_set($memcon,”var”,$var);
这样一个脚本,使用apache ab去跑,100个并发,跑10000次,而后输出缓存存取的数据,很遗憾,并非1000,而是5000多,6000多这样的数字,中间的数字全在 get & set的过程当中丢掉了。
缘由,读写间隔中其余并发写入,致使数据丢失。
l 范例2
用memcache_increment来作这个操做,一样跑测试
会获得完整的10000,一条数据不会丢。
l 结论: 用increment存储队列编号,用标记+编号做为key存储队列内容。
n 后台基于缓存队列读取更新数据并更新数据库
l 基于队列读取后能够合并更新
l 更新合并率是重要指标
l 实战范例:
某论坛热门贴,前端不断有views=views+1数据更新请求。
缓存实时更新该状态
后台任务对数据库作异步更新时,假设执行周期是5分钟,那么五分钟可能会接收到这样的请求多达数十次乃至数百次,合并更新后只执行一次update便可。
相似操做还包括游戏打怪,生命和经验的变化;我的主页访问次数的变化等。
n 异步更新风险
l 先后端同时写,可能致使覆盖风险。
l 使用后端异步更新,则前端应用程序就不要写数据库,不然可能形成写入冲突。一种兼容的解决方案是,前端和后端不要写相同的字段。
l 实战范例:
用户在线上时,后台异步更新用户状态。
管理员后台屏蔽用户是直接更新数据库。
结果管理员屏蔽某用户操做完成后,因该用户在线有操做,后台异步更新程序再次基于缓存更新用户状态,用户状态被复活,屏蔽失效。
l 缓存数据丢失或服务崩溃可能致使数据丢失风险。
l 如缓存中间出现故障,则缓存队列数据不会回写到数据库,而用户会认为已经完成,此时会带来比较明显的用户体验问题。
l 一个不完全的解决方案是,确保高安全性,高重要性数据实时数据更新,而低安全性数据经过缓存异步回写方式完成。此外,使用相对数值操做而不是绝对数值操做更安全。
n 范例:支付信息,道具的购买与得到,一旦丢失会对用户形成极大的伤害。而经验值,访问数字,若是只丢失了不多时间的内容,用户仍是能够容忍的。
n 范例:若是使用 Views=Views+…的操做,一旦出现数据格式错误,从binlog中反推是能够进行数据还原,可是若是使用Views=特定值的操做,一旦缓存中数据有错误,则直接被赋予了一个错误数据,没法回溯!
l 异步更新如出现队列阻塞可能致使数据丢失风险。
l 异步更新一般是使用缓存队列后,在后台由cron或其余守护进程写入数据库。
l 若是队列生成的速度>后台更新写入数据库的速度,就会产生阻塞,致使数据越累计越多,数据库响应迟缓,而缓存队列没法迅速执行,致使溢出或者过时失效。
n 建议使用内存队列产品而不使用memcache 来进行缓存异步更新。