历时七天,史上最强MySQL优化总结,今后优化So Easy!

1、概述

1. 为何要优化node

  • 一个应用吞吐量瓶颈每每出如今数据库的处理速度上
  • 随着应用程序的使用,数据库数据逐渐增多,数据库处理压力逐渐增大
  • 关系型数据库的数据是存放在磁盘上的,读写速度较慢(与内存中的数据相比)

2. 如何优化mysql

  • 表、字段的设计阶段,考量更优的存储和计算
  • 数据库自身提供的优化功能,如索引
  • 横向扩展,主从复制、读写分离、负载均衡和高可用
  • 典型SQL语句优化(收效甚微)

2、字段设计

1. 典型方案算法

①. 对精度有要求sql

  • decimal
  • 小数转整数

②. 尽可能使用整数表示字符串(IP)数据库

  • inet_ aton("ip' )
  • inet_ ntoa(num)

③. 尽量使用not null缓存

  • nuI数值的计算逻辑比较复杂

④. 定长和非定长的选择bash

  • 较长的数字数据可使用decimal
  • char为定长(超过长度的内容将被截掉), varchar为非定长,text对内容 长度的保存额外保存而varchar对长度的保存占用数据空间

⑤. 字段数不要过多字段注释是必要的、字段命名见名思意、能够预留字段以备扩展服务器

2. 范式网络

①. 第一范式:段原子性(关系型数据库有列的念,默认就符合了)并发

②. 第二范式:消除对主键的部分依赖(由于主键可能不止一个);使用一 个与业务无关的字段做为主键

③. 第三范式:消除对主键的传递依赖;高内聚, 如商品表可分为商品简略信息表和商品详情表两张表

3、存储引擎的选择(MyISAM和Innodb)

1. 功能差别

Innodb支持事务、 行级锁定、外健

2. 存储差别

①. 存储方式:MyISAM的数据和索弓 |是分开存储的(.MYI.MYD) , 而Innodb是存在一块儿的(.frm)

②. 表可移动性:能够经过移动表对应的MYI和MYD可以实现表的移动,而Innodb还有 额外的关联文件

③. 碎片空间:MyISAM删除数据时会产生碎片空间(占用表文件空间),须要按期经过optimizetable table-name手动优化。而Innodb不会。

④. 有序存储:Innodb插入数据时按照主键有序来插入。所以表中数据默认按主键有序(耗费写入时间,由于须要在b+ tree中查找插入点,但查找效率高)

3. 选择差别

①. 读多写少用MyISAM:新闻、博客网站

②. 读多写也多用Innodb:

  • 支持事务/外键,保证数据-致性、完整性
  • 并发能力强(行锁)

4、索引

1. 什么是索引

从数据中提取的具备标识性的关键字,而且有到对应数据的映射关系

2. 类型

①. 主键索引primary key:要求关键字惟一且不为null

②. 普通索引key:符合索引仅按照第一字段有序

③. 惟一索引unique key:要求关键字惟一

④. 全文索引fulltext key (不支持中文)

3. 索引管理语法

①. 查看索引

  • show create table student
  • desc student

②. 创建索引

  • 建立时指定,如first. name varchar(1 6),last name(1 6) , key name(first_ name,last_ name)
  • 更改表结构:alter table student add key/unique key/primary key/ultext key key. name(first_ name,last_ name)

③. 删除索引

  • alter table student drop key key_ name
  • 若是删除的是主键索引,而且主键自增加,则须要alter modify先取消自增加再删除

4. 执行计划explain

分析SQL执行是否用到了索引,用到了什么索引

5. 索引使用的场景

  • where:若是查找字段都创建了索引,则会索引覆盖
  • order by:若是排序字段创建了索引,而索引又是有序排列的,直接根据索引拿对应数据便可,与读取查询出来的全部数据再排序相比效率很高
  • join:若是join on的条件字段创建了索引,查找会变得高效
  • 索引覆盖:直接对索引作查找,而不去读取数据

6. 语法细节

即便创建了索引,有些场景也不必定使用

  • where id+1 = ?建议写成where id = ?-1,即保证索弓|字段的独立出现
  • like语句不要在关键字前模糊匹配,即"%keyword不会使用索引,而"keyword% 会使用索引
  • or关键两边条件字段都创建索引时才会使用索引,只要有一边不是就会作全表扫描
  • 状态值。像性别这样的状态值,-个关键字对应不少条数据,会认为使用索引比全表扫描效率还低

7. 索引的存储结构

  • btree:搜索多叉树:结点内关键字有序排列,关键字之间有一个指针,查找效率log(nodeSize,N),其中nodeSize指一 个结点内关键字数量 (这取决于关键字长度和结点大小)

  • b+ tree:由btree升级而来,数据和关键字存在一块空间,省去了由关键字到数据的映射找数据存放地的时间

5、查询缓存

1. 将select查询结果缓存起来,key为SQL语句,value为查询结果

若是SQL功能同样,但只是多个空格或略微改动都会致使key的不匹配

2. 客户端开启

query. cache. _type
复制代码
  • 0-不开启
  • 1-开启,默认缓存每条select,针对某个sq不缓存: select sql-no-cache
  • 2-开启,默认都不缓存,经过select sql-cache制定缓存哪-个条

3. 客户端设置缓存大小

query_ cache .size
复制代码

4. 重蛋缓存

reset query cache
复制代码

5. 缓存失效

日对数据表的改动会致使基 于该数据表的全部缓存失效(表层面的管理)

6、分区

1. 默认状况下一张表对应一组存储文件,但当数据量较大时(一般千万条级别)须要将数据分到多组存储文件,保证单个文件的处理效率

2. partition by分区函数(分区字段)(分区逻辑)

  • hash-分区字段为整型
  • key-分区字段为字符串
  • range-基于比较,只支持less than
  • list-基于状态值

3. 分区管理

  • 建立时分区:create table article0 partition by key(title) partitions 10
  • 修改表结构:alter table article add partition(分区逻辑)

4. 分区字段应选择经常使用的检素字段,不然分区意义不大

7、水平分割和垂直分割

1. 水平

多张结构相同的表存储同一类型数据

单独一张表保证id惟一性

2. 垂直

分割字段到多张表,这些表记录是一对应关系

8、集群

1. 主从复制

①. 首先手动将slave和master同步一下

  • stop slave
  • master导出数据到slave执行一遍
  • show master status with read lock记录File和Position
  • 到slave.上change master to

②. start slave查看Slave_ IO_ Running和Slave_ SQL_ _Running,必须都为YES

③. master可读可写,但slave只能读,不然主从复制会失效须要从新手动同步

④. mysqlreplicate快速配置主从复制

2. 读写分离(基于主从复制)

①. 使用原stcConecton

WriteDatabase提供写链接

ReadDatabase提供读链接

②. 借助Sping AOP和Aspec实现数据源动态切换

  • RoutingDataSourcelmpl extends AbstractRoutingDataSource,重写determineDatasource,注入到SqISessionFactory, 配置defaultTargetDatasource和targetDatasource (根据determineDatasource的返回值选择 具体数据源value-ref)

  • DatasourceAspect切面组件,配置切入点@Pointcut aspect0 (全部DAO类的全部方法),配置前置加强@Before(" aspect0") before(Joinpoint point), 经过point.getSignature.getName获取方法名,与METHOD TYPE MAP的前缀集合比对,将write/read设置到当前线程上(也是接下来要执行DAO方法的线程,前置加强将其拦截下来了)

  • DatasourceHandler,使用ThreadLocal在前置通知中将方法要使用的数据源绑定到执行该方法的线程上,执行方法要获取数据源时再根据当前线程获取

3. 负载均衡

算法

  • 轮询
  • 加权轮询
  • 依据负载状况

4. 高可用

为单机服务提供一个冗余机

  • 心跳检测
  • 虚IP
  • 主从复制

9、典型SQL

1. 线上DDL

为了不长时间表级锁定

  • copy策略,逐行复制,记录复制期间旧表SQL日志从新执行
  • mysq|5.6 online ddl,大大缩短锁定时间

2. 批量导入

①. 先禁用索引和约束,导入以后统一创建

②. 避免逐条事务

innodb为了保证一致性,默认为每条SQL加事务(也是要耗费时间的),批量导入前应手动创建事务,导入完毕后手动提交事务。

3. limit offset,rows

避兔较大的offset (较大页码数)

offset用来跳过数据,彻底能够用过滤筛选数据,而不是查出来以后再经过offset跳过

4. select *

尽可能查询所需字段,减小网络传输延时(影响不大)

5. order by rand()

会为每条数据生成一个随机数最后根据随机数排序,可使用应用程序生成随机主键代替

6. limit 1

若是肯定了仅仅检索一条数据,建议都加上limit 1

10、慢查询日志

1. 定位查询效率较低的SQL,针对性地作优化

2. 配置项

  • 开启slow_ query. log
  • 临界时间long_ query. time

3. 慢查询日志会本身记录超过临界时间的SQL,并保存在datadir下的xxx-slow.log中

11、Profile

1. 自动记录每条SQL的执行时间和具体某个SQL的详细步骤花费的时间

2. 配置项日

开启profiling

3. 查看日志信息show profiles

4. 查看具体SQL的详细步骤花费的时间日

show profiles for query Query_ ID
复制代码

12、典型的服务器配置

1. max_ connections, 最大客户端链接数

2. table_ open_ cache, 表文件缓存句柄数,加快表文件的读写

3. key_ buffer. _size, 索引缓存大小

4. innodb_ buffer. pool size, innodb的缓冲池大小,实现innodb各类功能的前提

5. innodb_ file_ per_ table,每一个表一个ibd文件, 不然innodb共享 表空间

十3、压测工具MySQLSlap

1. 自动生成sq|并执行来测试性能

myqslap -a-to-generate sql -root -root
复制代码

2. 并发测试

mysqlslap --auto-generate-sql --concurrency= 100 -uroot -proot,模拟100个客户端执行sql

3. 多轮测试,反应平均状况

mysqlslap --auto-generate-sql --concurrency= 100 --interations=3 -uroot -proot,模拟100个客户端执行sql.执行3轮

4. 存储引擎测试

  • --engine=innodb:mysqlslap --auto-generate-sql --concurrency= 100 --interations=3 -- engine-innodb -uroot -proot,模拟100个客户端执行sql.执行3轮,innodb的处理性能

  • -- engine= myisam:mysqlslap -- auto-generate-sql --concurrency= 100 --interations=3 --engine-innodb -uroot -proot,模拟100个客户端执行sql.执行3轮,myisam的处理性能

相关文章
相关标签/搜索