mysql性能优化教程(转)

Mysql 性能优化教程前端

目录

目录node

背景及目标mysql

Mysql 执行优化ios

认识数据索引web

为何使用数据索引能提升效率算法

如何理解数据索引的结构sql

如何理解影响结果集数据库

理解执行状态apache

常见分析手段后端

分析流程

总结

Mysql 运维优化

存储引擎类型

内存使用考量

性能与安全性考量

存储压力优化

运维监控体系

Mysql 架构优化

架构优化目标

防止单点隐患

方便系统扩容

安全可控,成本可控

分布式方案

分库&拆表方案

主从架构

故障转移处理

缓存方案

缓存结合数据库的读取

缓存结合数据库的写入

 

 

 

背景及目标

l  厦门游家公司(4399.com)用于员工培训和分享。

l  针对用户群为已经使用过mysql环境,并有必定开发经验的工程师

l  针对高并发,海量数据的互联网环境。

l  本文语言为口语,非学术标准用语。

l  以实战和解决具体问题为主要目标,非应试,很是规教育。友情提醒,在校生学习本教程可能对成绩提升有害无益。

l  非技术挑战,非高端架构师培训,请高手自动忽略。

Mysql 执行优化

认识数据索引

为何使用数据索引能提升效率

n  数据索引的存储是有序的

n  在有序的状况下,经过索引查询一个数据是无需遍历索引记录的

n  极端状况下,数据索引的查询效率为二分法查询效率,趋近于 log2(N)

如何理解数据索引的结构

n  数据索引一般默认采用btree索引,(内存表也使用了hash索引)。

n  单一有序排序序列是查找效率最高的(二分查找,或者说折半查找),使用树形索引的目的是为了达到快速的更新和增删操做。

n  在极端状况下(好比数据查询需求量很是大,而数据更新需求极少,实时性要求不高,数据规模有限),直接使用单一排序序列,折半查找速度最快。

u  实战范例 : ip地址反查

资源: Ip地址对应表,源数据格式为  startip, endip, area

源数据条数为 10万条左右,呈很大的分散性

目标:    须要经过任意ip查询该ip所属地区

性能要求达到每秒1000次以上的查询效率

挑战:    如使用 between … and 数据库操做,没法有效使用索引。

若是每次查询请求须要遍历10万条记录,根本不行。

方法:    一次性排序(只在数据准备中进行,数据可存储在内存序列)

              折半查找(每次请求以折半查找方式进行)

n  在进行索引分析和SQL优化时,能够将数据索引字段想象为单一有序序列,并以此做为分析的基础。

u  实战范例:复合索引查询优化实战,同城异性列表

资源: 用户表user,字段 sex性别;area 地区;lastlogin 最后登陆时间;其余略

目标: 查找同一地区的异性,按照最后登陆时间逆序

          高访问量社区的高频查询,如何优化。

              查询SQL: select * from user where area=’$area’ and sex=’$sex’ order by lastlogin desc limit 0,30;

挑战:    创建复合索引并不难, area+sex+lastlogin 三个字段的复合索引,如何理解?

              首先,忘掉btree,将索引字段理解为一个排序序列。

              若是只使用area会怎样?搜索会把符合area的结果所有找出来,而后在这里面遍历,选择命中sex的并排序。 遍历全部 area=’$area’数据!

              若是使用了area+sex,略好,仍然要遍历全部area=’$area’ and sex=’$sex’数据,而后在这个基础上排序!!

              Area+sex+lastlogin复合索引时(切记lastlogin在最后),该索引基于area+sex+lastlogin 三个字段合并的结果排序,该列表能够想象以下。

              广州女$时间1

              广州女$时间2

              广州女$时间3

              …

              广州男

….

              深圳女

….

数据库很容易命中到 area+sex的边界,而且基于下边界向上追溯30条记录,搞定!在索引中迅速命中全部结果,无需二次遍历!

如何理解影响结果集

n  影响结果集是数据查询优化的一个重要中间数据

u  查询条件与索引的关系决定影响结果集

如上例所示,即使查询用到了索引,可是若是查询和排序目标不能直接在索引中命中,其可能带来较多的影响结果。而这会直接影响到查询效率

u  微秒级优化

l  优化查询不能只看慢查询日志,常规来讲,0.01秒以上的查询,都是不够优化的。

l  实战范例

和上案例相似,某游戏社区要显示用户动态,select * from userfeed where uid=$uid order by lastlogin desc limit 0,30;   初期默认以uid为索引字段,查询为命中全部uid=$uid的结果按照lastlogin排序。 当用户行为很是频繁时,该SQL索引命中影响结果集有数百乃至数千条记录。查询效率超过0.01秒,并发较大时数据库压力较大。

解决方案:将索引改成 uid+lastlogin 复合索引,索引直接命中影响结果集30条,查询效率提升了10倍,平均在0.001秒,数据库压力骤降。

n  影响结果集的常见误区

u  影响结果集并非说数据查询出来的结果数或操做影响的结果数,而是查询条件的索引所命中的结果数。

u  实战范例

l  某游戏数据库使用了innodb,innodb是行级锁,理论上不多存在锁表状况。出现了一个SQL语句(delete from tabname where xid=…),这个SQL很是用SQL,仅在特定状况下出现,天天出现频繁度不高(一天仅10次左右),数据表容量百万级,可是这个xid未创建索引,因而悲惨的事情发生了,当执行这条delete 的时候,真正删除的记录很是少,也许一到两条,也许一条都没有;可是!因为这个xid未创建索引,delete操做时遍历全表记录,全表被delete操做锁定,select操做所有被locked,因为百万条记录遍历时间较长,期间大量select被阻塞,数据库链接过多崩溃。

这种非高发请求,操做目标不多的SQL,因未使用索引,连带致使整个数据库的查询阻塞,须要极大提升警觉。

n  总结:

u  影响结果集是搜索条件索引命中的结果集,而非输出和操做的结果集。

u  影响结果集越趋近于实际输出或操做的目标结果集,索引效率越高。

u  请注意,我这里永远不会讲关于外键和join的优化,由于在咱们的体系里,这是根本不容许的! 架构优化部分会解释为何。

理解执行状态

常见分析手段

l  慢查询日志,关注重点以下

n  是否锁定,及锁定时间

u  如存在锁定,则该慢查询一般是因锁定因素致使,自己无需优化,需解决锁定问题。

n  影响结果集

u  如影响结果集较大,显然是索引项命中存在问题,须要认真对待。

l  Explain 操做

n  索引项使用

u  不建议用using index作强制索引,如未如预期使用索引,建议从新斟酌表结构和索引设置。

n  影响结果集

u  这里显示的数字不必定准确,结合以前提到对数据索引的理解来看,还记得嘛?就把索引看成有序序列来理解,反思SQL。

l  Set profiling , show profiles for query操做

n  执行开销

u  注意,有问题的SQL若是重复执行,可能在缓存里,这时要注意避免缓存影响。经过这里能够看到。

u  执行时间超过0.005秒的频繁操做SQL建议都分析一下。

u  深刻理解数据库执行的过程和开销的分布

l  Show processlist

n  状态清单

u  Sleep 状态, 一般表明资源未释放,若是是经过链接池,sleep状态应该恒定在必定数量范围内

l  实战范例: 因前端数据输出时(特别是输出到用户终端)未及时关闭数据库链接,致使因网络链接速度产生大量sleep链接,在网速出现异常时,数据库 too many connections 挂死。

l  简单解读,数据查询和执行一般只须要不到0.01秒,而网络输出一般须要1秒左右甚至更长,本来数据链接在0.01秒便可释放,可是由于前端程序未执行close操做,直接输出结果,那么在结果未展示在用户桌面前,该数据库链接一直维持在sleep状态!

u  Waiting for net, reading from net, writing to net

l  偶尔出现无妨

l  如大量出现,迅速检查数据库到前端的网络链接状态和流量

l  案例: 因外挂程序,内网数据库大量读取,内网使用的百兆交换迅速爆满,致使大量链接阻塞在waiting for net,数据库链接过多崩溃

u  Locked状态

l  有更新操做锁定

l  一般使用innodb能够很好的减小locked状态的产生,可是切记,更新操做要正确使用索引,即使是低频次更新操做也不能疏忽。如上影响结果集范例所示。

l  在myisam的时代,locked是不少高并发应用的噩梦。因此mysql官方也开始倾向于推荐innodb。

u  Copy to tmp table

l  索引及现有结构没法涵盖查询条件,才会创建一个临时表来知足查询要求,产生巨大的恐怖的i/o压力。

l  很可怕的搜索语句会致使这样的状况,若是是数据分析,或者半夜的周期数据清理任务,偶尔出现,能够容许。频繁出现务必优化之。

l  Copy to tmp table 一般与连表查询有关,建议逐渐习惯不使用连表查询。

l  实战范例:

n  某社区数据库阻塞,求救,经查,其服务器存在多个数据库应用和网站,其中一个不经常使用的小网站数据库产生了一个恐怖的copy to tmp table 操做,致使整个硬盘i/o和cpu压力超载。Kill掉该操做一切恢复。

u  Sending data

l  Sending data 并非发送数据,别被这个名字所欺骗,这是从物理磁盘获取数据的进程,若是你的影响结果集较多,那么就须要从不一样的磁盘碎片去抽取数据,

l  偶尔出现该状态链接无碍。

l  回到上面影响结果集的问题,通常而言,若是sending data链接过多,一般是某查询的影响结果集过大,也就是查询的索引项不够优化。

l  若是出现大量类似的SQL语句出如今show proesslist列表中,而且都处于sending data状态,优化查询索引,记住用影响结果集的思路去思考。

u  Freeing items

l  理论上这玩意不会出现不少。偶尔出现无碍

l  若是大量出现,内存,硬盘可能已经出现问题。好比硬盘满或损坏。

u  Sorting for …

l  和Sending data相似,结果集过大,排序条件没有索引化,须要在内存里排序,甚至须要建立临时结构排序。

u  其余

l  还有不少状态,遇到了,去查查资料。基本上咱们遇到其余状态的阻塞较少,因此不关心。

分析流程

l  基本流程

n  详细了解问题情况

u  Too many connections 是常见表象,有不少种缘由。

u  索引损坏的状况在innodb状况下不多出现。

u  如出现其余状况应追溯日志和错误信息。

n  了解基本负载情况和运营情况

u  基本运营情况

l  当前每秒读请求

l  当前每秒写请求

l  当前在线用户

l  当前数据容量

u  基本负载状况

l  学会使用这些指令

n  Top

n  Vmstat

n  uptime

n  iostat

n  df

l  Cpu负载构成

n  特别关注i/o压力( wa%)

n  多核负载分配

l  内存占用

n  Swap分区是否被侵占

n  如Swap分区被侵占,物理内存是否较多空闲

l  磁盘状态

n  硬盘满和inode节点满的状况要迅速定位和迅速处理

n  了解具体链接情况

u  当前链接数

l  Netstat –an|grep 3306|wc –l

l  Show processlist

u  当前链接分布 show processlist

l  前端应用请求数据库不要使用root账号!

n  Root账号比其余普通账号多一个链接数许可。

n  前端使用普通账号,在too many connections的时候root账号仍能够登陆数据库查询 show processlist!

n  记住,前端应用程序不要设置一个不叫root的root账号来糊弄!非root帐户是骨子里的,而不是名义上的。

l  状态分布

n  不一样状态表明不一样的问题,有不一样的优化目标。

n  参见如上范例。

l  雷同SQL的分布

n  是否较多雷同SQL出如今同一状态

u  当前是否有较多慢查询日志

l  是否锁定

l  影响结果集

n  频繁度分析

u  写频繁度

l  若是i/o压力高,优先分析写入频繁度

l  Mysqlbinlog 输出最新binlog文件,编写脚本拆分

l  最多写入的数据表是哪一个

l  最多写入的数据SQL是什么

l  是否存在基于同一主键的数据内容高频重复写入?

n  涉及架构优化部分,参见架构优化-缓存异步更新

u  读取频繁度

l  若是cpu资源较高,而i/o压力不高,优先分析读取频繁度

l  程序中在封装的db类增长抽样日志便可,抽样比例酌情考虑,以不显著影响系统负载压力为底线。

l  最多读取的数据表是哪一个

l  最多读取的数据SQL是什么

n  该SQL进行explain 和set profiling断定

n  注意断定时须要避免query cache影响

u  好比,在这个SQL末尾增长一个条件子句 and 1=1 就能够避免从query cache中获取数据,而获得真实的执行状态分析。

l  是否存在同一个查询短时间内频繁出现的状况

n  涉及前端缓存优化

n  抓大放小,解决显著问题

u  不苛求解决全部优化问题,可是应以保证线上服务稳定可靠为目标。

u  解决与评估要同时进行,新的策略或解决方案务必通过评估后上线。

总结

l  要学会怎样分析问题,而不是单纯拍脑壳优化

l  慢查询只是最基础的东西,要学会优化0.01秒的查询请求。

l  当发生链接阻塞时,不一样状态的阻塞有不一样的缘由,要找到缘由,若是不对症下药,就会南辕北辙

n  范例:若是自己系统内存已经超载,已经使用到了swap,而还在考虑加大缓存来优化查询,那就是自寻死路了。

l  监测与跟踪要常常作,而不是出问题才作

n  读取频繁度抽样监测

u  全监测不要搞,i/o吓死人。

u  按照一个抽样比例抽样便可。

u  针对抽样中发现的问题,能够按照特定SQL在特定时间内监测一段全查询记录,但仍要考虑i/o影响。

n  写入频繁度监测

u  基于binlog解开便可,可定时或不定时分析。

n  微慢查询抽样监测

u  高并发状况下,查询请求时间超过0.01秒甚至0.005秒的,建议酌情抽样记录。

n  链接数预警监测

u  链接数超过特定阈值的状况下,虽然数据库没有崩溃,建议记录相关链接状态。

l  学会经过数据和监控发现问题,分析问题,然后解决问题瓜熟蒂落。特别是要学会在平常监控中发现隐患,而不是问题爆发了才去处理和解决。


Mysql 运维优化

存储引擎类型

l  Myisam 速度快,响应快。表级锁是致命问题。

l  Innodb 目前主流存储引擎

n  行级锁

u  务必注意影响结果集的定义是什么

u  行级锁会带来更新的额外开销,可是一般状况下是值得的。

n  事务提交

u  对i/o效率提高的考虑

u  对安全性的考虑

l  HEAP 内存引擎

n  频繁更新和海量读取状况下仍会存在锁定情况

内存使用考量

l  理论上,内存越大,越多数据读取发生在内存,效率越高

l  要考虑到现实的硬件资源和瓶颈分布

l  学会理解热点数据,并将热点数据尽量内存化

n  所谓热点数据,就是最多被访问的数据。

n  一般数据库访问是不平均的,少数数据被频繁读写,而更多数据鲜有读写。

n  学会制定不一样的热点数据规则,并测算指标。

u  热点数据规模,理论上,热点数据越少越好,这样能够更好的知足业务的增加趋势。

u  响应知足度,对响应的知足率越高越好。

u  好比依据最后更新时间,总访问量,回访次数等指标定义热点数据,并测算不一样定义模式下的热点数据规模

性能与安全性考量

l  数据提交方式

n  innodb_flush_log_at_trx_commit = 1 每次自动提交,安全性高,i/o压力大

n  innodb_flush_log_at_trx_commit = 2 每秒自动提交,安全性略有影响,i/o承载强。

l  日志同步

n  Sync-binlog    =1 每条自动更新,安全性高,i/o压力大

n  Sync-binlog = 0 根据缓存设置状况自动更新,存在丢失数据和同步延迟风险,i/o承载力强。

l  性能与安全自己存在相悖的状况,须要在业务诉求层面决定取舍

n  学会区分什么场合侧重性能,什么场合侧重安全

n  学会将不一样安全等级的数据库用不一样策略管理

存储压力优化

l  顺序读写性能远高于随机读写

l  日志类数据可使用顺序读写方式进行

l  将顺序写数据和随机读写数据分红不一样的物理磁盘,有助于i/o压力的疏解,前提是,你确信你的i/o压力主要来自于可顺序写操做(因随机读写干扰致使不能顺序写,可是确实能够用顺序写方式进行的i/o操做)。

运维监控体系

l  系统监控

n  服务器资源监控

u  Cpu, 内存,硬盘空间,i/o压力

u  设置阈值报警

n  服务器流量监控

u  外网流量,内网流量

u  设置阈值报警

n  链接状态监控

u  Show processlist 设置阈值,每分钟监测,超过阈值记录

l  应用监控

n  慢查询监控

u  慢查询日志

u  若是存在多台数据库服务器,应有汇总查阅机制。

n  请求错误监控

u  高频繁应用中,会出现偶发性数据库链接错误或执行错误,将错误信息记录到日志,查看每日的比例变化。

u  偶发性错误,若是数量极少,能够不用处理,可是需时常监控其趋势。

u  会存在恶意输入内容,输入边界限定缺少致使执行出错,需基于此防止恶意入侵探测行为。

n  微慢查询监控

u  高并发环境里,超过0.01秒的查询请求都应该关注一下。

n  频繁度监控

u  写操做,基于binlog,按期分析。

u  读操做,在前端db封装代码中增长抽样日志,并输出执行时间。

u  分析请求频繁度是开发架构 进一步优化的基础

u  最好的优化就是减小请求次数!

l  总结:

n  监控与数据分析是一切优化的基础。

n  没有运营数据监测就不要妄谈优化!

n  监控要注意不要产生太多额外的负载,不要因监控带来太多额外系统开销


Mysql 架构优化

架构优化目标

防止单点隐患

l  所谓单点隐患,就是某台设备出现故障,会致使总体系统的不可用,这个设备就是单点隐患。

l  理解连带效应,所谓连带效应,就是一种问题会引起另外一种故障,举例而言,memcache+mysql是一种常见缓存组合,在前端压力很大时,若是memcache崩溃,理论上数据会经过mysql读取,不存在系统不可用状况,可是mysql没法对抗如此大的压力冲击,会所以连带崩溃。因A系统问题致使B系统崩溃的连带问题,在运维过程当中会频繁出现。

n  实战范例: 在mysql链接不及时释放的应用环境里,当网络环境异常(同机房友邻服务器遭受拒绝服务攻击,出口阻塞),网络延迟加重,空链接数急剧增长,致使数据库链接过多崩溃。

n  实战范例2:前端代码 一般咱们封装 mysql_connect和memcache_connect,两者的顺序不一样,会产生不一样的连带效应。若是mysql_connect在前,那么一旦memcache链接阻塞,会连带mysql空链接过多崩溃。

n  连带效应是常见的系统崩溃,平常分析崩溃缘由的时候须要认真考虑连带效应的影响,头疼医头,脚疼医脚是不行的。

方便系统扩容

l  数据容量增长后,要考虑可以将数据分布到不一样的服务器上。

l  请求压力增长时,要考虑将请求压力分布到不一样服务器上。

l  扩容设计时须要考虑防止单点隐患。

安全可控,成本可控

l  数据安全,业务安全

l  人力资源成本>带宽流量成本>硬件成本

n  成本与流量的关系曲线应低于线性增加(流量为横轴,成本为纵轴)。

n  规模优点

l  本教程仅就与数据库有关部分讨论,与数据库无关部门请自行参阅其余学习资料。

      

分布式方案

分库&拆表方案

l  基本认识

n  用分库&拆表是解决数据库容量问题的惟一途径。

n  分库&拆表也是解决性能压力的最优选择。

n  分库 – 不一样的数据表放到不一样的数据库服务器中(也多是虚拟服务器)

n  拆表 – 一张数据表拆成多张数据表,可能位于同一台服务器,也可能位于多台服务器(含虚拟服务器)。

l  去关联化原则

n  摘除数据表之间的关联,是分库的基础工做。

n  摘除关联的目的是,当数据表分布到不一样服务器时,查询请求容易分发和处理。

n  学会理解反范式数据结构设计,所谓反范式,第一要点是不用外键,不容许Join操做,不容许任何须要跨越两个表的查询请求。第二要点是适度冗余减小查询请求,好比说,信息表,fromuid, touid, message字段外,还须要一个fromuname字段记录用户名,这样查询者经过touid查询后,可以当即获得发信人的用户名,而无需进行另外一个数据表的查询。

n  去关联化处理会带来额外的考虑,好比说,某一个数据表内容的修改,对另外一个数据表的影响。这一点须要在程序或其余途径去考虑。

l  分库方案

n  安全性拆分

u  将高安全性数据与低安全性数据分库,这样的好处第一是便于维护,第二是高安全性数据的数据库参数配置能够以安全优先,而低安全性数据的参数配置以性能优先。参见运维优化相关部分。

n  顺序写数据与随机读写数据分库

u  顺序数据与随机数据区分存储地址,保证物理i/o优化。这个实话说,我只据说了概念,还没学会怎么实践。

n  基于业务逻辑拆分

u  根据数据表的内容构成,业务逻辑拆分,便于平常维护和前端调用。

u  基于业务逻辑拆分,能够减小前端应用请求发送到不一样数据库服务器的频次,从而减小连接开销。

u  基于业务逻辑拆分,可保留部分数据关联,前端web工程师可在限度范围内执行关联查询。

n  基于负载压力拆分

u  基于负载压力对数据结构拆分,便于直接将负载分担给不一样的服务器。

u  基于负载压力拆分,可能拆分后的数据库包含不一样业务类型的数据表,平常维护会有必定的烦恼。

l  分表方案

n  数据量过大或者访问压力过大的数据表须要切分

n  忙闲分表

u  单数据表字段过多,可将频繁更新的整数数据与非频繁更新的字符串数据切分

u  范例 user表 ,我的简介,地址,QQ号,联系方式,头像 这些字段为字符串类型,更新请求少; 最后登陆时间,在线时常,访问次数,信件数这些字段为整数型字段,更新频繁,能够将后面这些更新频繁的字段独立拆出一张数据表,表内容变少,索引结构变少,读写请求变快。

n  横向切表

u  等分切表,如哈希切表或其余基于对某数字取余的切表。等分切表的优势是负载很方便的分布到不一样服务器;缺点是当容量继续增长时没法方便的扩容,须要从新进行数据的切分或转表。并且一些关键主键不易处理。

u  递增切表,好比每1kw用户开一个新表,优势是能够适应数据的自增趋势;缺点是每每新数据负载高,压力分配不平均。

u  日期切表,适用于日志记录式数据,优缺点等同于递增切表。

u  我的倾向于递增切表,具体根据应用场景决定。

n  热点数据分表

u  将数据量较大的数据表中将读写频繁的数据抽取出来,造成热点数据表。一般一个庞大数据表常常被读写的内容每每具备必定的集中性,若是这些集中数据单独处理,就会极大减小总体系统的负载。

u  热点数据表与旧有数据关系

l  能够是一张冗余表,即该表数据丢失不会妨碍使用,因源数据仍存在于旧有结构中。优势是安全性高,维护方便,缺点是写压力不能分担,仍须要同步写回原系统。

l  能够是非冗余表,即热点数据的内容原有结构再也不保存,优势是读写效率所有优化;缺点是当热点数据发生变化时,维护量较大。

l  具体方案选择须要根据读写比例决定,在读频率远高于写频率状况下,优先考虑冗余表方案。

u  热点数据表能够用单独的优化的硬件存储,好比昂贵的闪存卡或大内存系统。

u  热点数据表的重要指标

l  热点数据的定义须要根据业务模式自行制定策略,常见策略为,按照最新的操做时间;按照内容丰富度等等。

l  数据规模,好比从1000万条数据,抽取出100万条热点数据。

l  热点命中率,好比查询10次,多少次命中在热点数据内。

l  理论上,数据规模越小,热点命中率越高,说明效果越好。须要根据业务自行评估。

u  热点数据表的动态维护

l  加载热点数据方案选择

n  定时从旧有数据结构中按照新的策略获取

n  在从旧有数据结构读取时动态加载到热点数据

l  剔除热点数据方案选择

n  基于特定策略,定时将热点数据中访问频次较少的数据剔除

n  如热点数据是冗余表,则直接删除便可,如不是冗余表,须要回写给旧有数据结构。

u  一般,热点数据每每是基于缓存或者key-value 方案冗余存储,因此这里提到的热点数据表,其实更可能是理解思路,用到的场合可能并很少….

l  表结构设计

n  查询冗余表设计

u  涉及分表操做后,一些常见的索引查询可能须要跨表,带来没必要要的麻烦。确认查询请求远大于写入请求时,应设置便于查询项的冗余表。

u  实战范例,

l  用户分表,将用户库分红若干数据表

l  基于用户名的查询和基于uid的查询都是高并发请求。

l  用户分表基于uid分红数据表,同时基于用户名作对应冗余表。

u  冗余表要点

l  数据一致性,简单说,同增,同删,同更新。

l  能够作全冗余,或者只作主键关联的冗余,好比经过用户名查询uid,再基于uid查询源表。

n  中间数据表

u  为了减小会涉及大规模影响结果集的表数据操做,好比count,sum操做。应将一些统计类数据经过中间数据表保存。

u  中间数据表应能经过源数据表恢复。

u  实战范例:

l  论坛板块的发帖量,回帖量,每日新增数据等

l  网站每日新增用户数等。

l  后台能够经过源数据表更新该数字。

n  历史数据表

u  历史数据表对应于热点数据表,将需求较少又不能丢弃的数据存入,仅在少数状况下被访问。

主从架构

l  基本认识

n  读写分离对负载的减轻远远不如分库分表来的直接。

n  写压力会传递给从表,只读从库同样有写压力,同样会产生读写锁!

n  一主多从结构下,主库是单点隐患,很难解决(如主库当机,从库能够响应读写,可是没法自动担当主库的分发功能)

n  主从延迟也是重大问题。一旦有较大写入问题,如表结构更新,主从会产生巨大延迟。

l  应用场景

n  在线热备

n  异地分布

u  写分布,读统一。

u  仍然困难重重,受限于网络环境问题巨多!

n  自动障碍转移

u  主崩溃,从自动接管

n  我的建议,负载均衡主要使用分库方案,主从主要用于热备和障碍转移。

l  潜在优化点

n  为了减小写压力,有些人建议主不建索引提高i/o性能,从创建索引知足查询要求。我的认为这样维护较为麻烦。并且从自己会继承主的i/o压力,所以优化价值有限。该思路特此分享,不作推荐。

故障转移处理

l  要点

n  程序与数据库的链接,基于虚地址而非真实ip,由负载均衡系统监控。

n  保持主从结构的简单化,不然很难作到故障点摘除。

l  思考方式

n  遍历对服务器集群的任何一台服务器,前端web,中间件,监控,缓存,db等等,假设该服务器出现故障,系统是否会出现异常?用户访问是否会出现异常。

n  目标:任意一台服务器崩溃,负载和数据操做均会很短期内自动转移到其余服务器,不会影响业务的正常进行。不会形成恶性的数据丢失。(哪些是能够丢失的,哪些是不能丢失的)

缓存方案

缓存结合数据库的读取

l  Memcached是最经常使用的缓存系统

l  Mysql 最新版本已经开始支持memcache插件,但据牛人分析,尚不成熟,暂不推荐。

l  数据读取

n  并非全部数据都适合被缓存,也并非进入了缓存就意味着效率提高。

n  命中率是第一要评估的数据。

n  如何评估进入缓存的数据规模,以及命中率优化,是很是须要细心分析的。

l  实景分析: 前端请求先链接缓存,缓存未命中链接数据库,进行查询,未命中状态比单纯链接数据库查询多了一次链接和查询的操做;若是缓存命中率很低,则这个额外的操做非但不能提升查询效率,反而为系统带来了额外的负载和复杂性,得不偿失。

n  相关评估相似于热点数据表的介绍。

n  善于利用内存,请注意数据存储的格式及压缩算法。

l  Key-value 方案繁多,本培训文档暂不展开。

缓存结合数据库的写入

l  利用缓存不但能够减小数据读取请求,还能够减小数据库写入i/o压力

l  缓存实时更新,数据库异步更新

n  缓存实时更新数据,并将更新记录写入队列

n  可使用相似mq的队列产品,自行创建队列请注意使用increment来维持队列序号。

n  不建议使用 get 后处理数据再set的方式维护队列

l  测试范例:

l  范例1

$var=Memcache_get($memcon,”var”);

 $var++;

memcache_set($memcon,”var”,$var);

这样一个脚本,使用apache ab去跑,100个并发,跑10000次,而后输出缓存存取的数据,很遗憾,并非1000,而是5000多,6000多这样的数字,中间的数字全在 get & set的过程当中丢掉了。

缘由,读写间隔中其余并发写入,致使数据丢失。

l  范例2

用memcache_increment来作这个操做,一样跑测试

会获得完整的10000,一条数据不会丢。

l  结论: 用increment存储队列编号,用标记+编号做为key存储队列内容。

n  后台基于缓存队列读取更新数据并更新数据库

l  基于队列读取后能够合并更新

l  更新合并率是重要指标

l  实战范例:

某论坛热门贴,前端不断有views=views+1数据更新请求。

缓存实时更新该状态

后台任务对数据库作异步更新时,假设执行周期是5分钟,那么五分钟可能会接收到这样的请求多达数十次乃至数百次,合并更新后只执行一次update便可。

相似操做还包括游戏打怪,生命和经验的变化;我的主页访问次数的变化等。

n  异步更新风险

l  先后端同时写,可能致使覆盖风险。

l  使用后端异步更新,则前端应用程序就不要写数据库,不然可能形成写入冲突。一种兼容的解决方案是,前端和后端不要写相同的字段。

l  实战范例:

用户在线上时,后台异步更新用户状态。

管理员后台屏蔽用户是直接更新数据库。

结果管理员屏蔽某用户操做完成后,因该用户在线有操做,后台异步更新程序再次基于缓存更新用户状态,用户状态被复活,屏蔽失效。

l  缓存数据丢失或服务崩溃可能致使数据丢失风险。

l  如缓存中间出现故障,则缓存队列数据不会回写到数据库,而用户会认为已经完成,此时会带来比较明显的用户体验问题。

l  一个不完全的解决方案是,确保高安全性,高重要性数据实时数据更新,而低安全性数据经过缓存异步回写方式完成。此外,使用相对数值操做而不是绝对数值操做更安全。

n  范例:支付信息,道具的购买与得到,一旦丢失会对用户形成极大的伤害。而经验值,访问数字,若是只丢失了不多时间的内容,用户仍是能够容忍的。

n  范例:若是使用 Views=Views+…的操做,一旦出现数据格式错误,从binlog中反推是能够进行数据还原,可是若是使用Views=特定值的操做,一旦缓存中数据有错误,则直接被赋予了一个错误数据,没法回溯!

l  异步更新如出现队列阻塞可能致使数据丢失风险。

l  异步更新一般是使用缓存队列后,在后台由cron或其余守护进程写入数据库。

l  若是队列生成的速度>后台更新写入数据库的速度,就会产生阻塞,致使数据越累计越多,数据库响应迟缓,而缓存队列没法迅速执行,致使溢出或者过时失效。

相关文章
相关标签/搜索