1.经过用户反馈获取存在性能问题的SQL;javascript
2.经过慢查日志获取存在性能问题的SQL;java
3.实时获取存在性能问题的SQL;mysql
slow_query_log # 启动中止记录慢查日志,慢查询日志默认是没有开启的能够在配置文件中开启(on) slow_query_log_file # 指定慢查日志的存储路径及文件,日志存储和数据从存储应该分开存储 long_query_time # 指定记录慢查询日志SQL执行时间的阀值默认值为10秒一般,对于一个繁忙的系统来讲,改成0.001秒(1毫秒)比较合适 log_queries_not_using_indexes #是否记录未使用索引的SQL
mysqldumpslow
和pt-query-digest
pt-query-digest --explain h=127.0.0.1,u=root,p=p@ssWord slow-mysql.log
SELECT id,user,host,DB,command,time,state,info FROM information_schema.processlist WHERE TIME>=60
查询当前服务器执行超过60s的SQL,能够经过脚本周期性的来执行这条SQL,就能查出有问题的SQL。sql
经过上图能够清晰的了解到MySql查询执行的大体过程:数据库
1.发送SQL语句。缓存
2.查询缓存,若是命中缓存直接返回结果。bash
3.SQL解析,预处理,再由优化器生成对应的查询执行计划。服务器
4.执行查询,调用存储引擎API获取数据。session
5.返回结果。架构
query_cache_type # 设置查询缓存是否可用 query_cache_size # 设置查询缓存的内存大小 query_cache_limit # 设置查询缓存可用的存储最大值(加上sql_no_cache能够提升效率) query_cache_wlock_invalidate # 设置数据表被锁后是否返回缓存中的数据 query_cache_min_res_unit # 设置查询缓存分配的内存块的最小单
缓存查找是利用对大小写敏感的哈希查找来实现的,Hash查找只能进行全值查找(sql彻底一致), 若是缓存命中,检查用户权限,若是权限容许,直接返回,查询不被解析,也不会生成查询计划。
在一个读写比较频繁的系统中,建议关闭缓存
,由于缓存更新会加锁。将query_cache_type
设置为off
,query_cache_size
设置为0
。
一条查询能够有多种查询方式,查询优化器会对每一种查询方式的(存储引擎)统计信息进行比较,找到成本最低的查询方式,这也就是索引不能太多的缘由。
一、统计信息不许确
二、成本估算与实际的执行计划成本不一样
三、给出的最优执行计划与估计的不一样
四、MySQL不考虑并发查询
五、会基于固定规则生成执行计划
六、MySQL不考虑不受其控制的成本,如存储过程,用户自定义函数
查询优化器:对查询进行优化并查询mysql认为的成本最低的执行计划。 为了生成最优的执行计划,查询优化器会对一些查询进行改写
能够优化的sql类型
一、从新定义表的关联顺序;
二、将外链接转换为内链接;
三、使用等价变换规则;
四、优化count(),min(),max();
五、将一个表达式转换为常数;
六、子查询优化;
七、提早终止查询,如发现一个不成立条件(如where id = -1),当即返回一个空结果;
八、对in()条件进行优化;
set profiling = 1; #启动profile,这是一个session级的配制执行查询
show profiles; # 查询每个查询所消耗的总时间的信息
show profiles for query N; # 查询的每一个阶段所消耗的时间
启动监控和历史记录表:use performance_schema
update setup_instruments set enabled='YES',TIME = 'YES' WHERE NAME LIKE 'stage%'; update set_consumbers set enabled='YES',TIME = 'YES' WHERE NAME LIKE 'event%';
1.利用主从复制,先对从服务器进入修改,而后主从切换
2.(推荐)
添加一个新表(修改后的结构),老表数据导入新表,老表创建触发器,修改数据同步到新表, 老表加一个排它锁(重命名), 新表重命名, 删除老表。
alter table sbtest4 modify c varchar(150) not null default ''
分担读负载 可经过 一主多从,升级硬件来解决。
拆分简单,不容许跨库。但并不能减小写负载
以上两种方式只能暂时解决读写性能问题。
对一个库中的相关表进行水平拆分到不一样实例的数据库中
1.分区键要能尽量避免跨分区查询的发生
2.分区键要尽量使各个分区中的数据平均
随着业务的发展,数据库成为了整个系统性能的一个瓶颈,这时候就须要对数据库进行优化,可是单单是优化只能提升有限的一点性能,这时候要想解决问题须要的是从数据库架构层面去思考问题。数据库的架构是一个很大的课题,里面最实用的有两个,一个是数据库拆分,一个是读写分离。今天就来谈谈数据库的两种拆分方式。
垂直拆分很简单,就是根据不一样的业务来划分不一样的数据库。好比一个电商系统根据业务能够分红商品表、会员表、订单表。原先,这些表都是放在同一个数据库服务器上,如今须要垂直拆分数据库,就是将商品表单独放在一个数据库中,会员表单独放在一个数据库中,订单表单独放在一个数据库中,这样就解决了表与表之间的io竞争。
垂直拆分比较简单,水平拆分就比较复杂了,要考虑不少东西。垂直拆分根据业务来拆分,或者说的直白点就是根据表名来拆分,而水平拆分是根据表里面的字段来拆分(记住是根据字段来拆分,而不是拆分字段,拆分后的每一张表的表结构都是同样)。好比要拆分用户表,能够根据用户的注册时间这一字段来拆分整个表,2016年注册的用户放在用户表1中,2017年注册的用户放在用户表2中,2018年注册的用户放在用户表3中。这就是水平拆分,看似很简单,实际上要考虑的东西是不少的。就好比上述的例子,咱们用时间来拆分,就会有局限性。一个好产品上线后,在开始的时候用户数量都是不多的,都须要必定时间的沉淀,才会有一个用户数量的爆发期。若是用时间来拆分,就会出现一种状况,就是用户表1的规模很小,而用户表2的规模却很大,是用户表1的好几倍,而用户表三多是用户表1的好几十倍。这样的话,拆分水平拆分的意义就不大了。通常用户表都是用户id来拆分的,具体还要结合实际业务去分析。因此,水平拆分是一件很复杂的事情,你们在进行水平拆分的时候必定要考虑到方方面面,这样才能设计出优秀的数据库架构方案。