【Mysql技术内幕InnoDB存储引擎】读书笔记

1、存储引擎

一、InnoDB引擎

设计目标是面向在线事务(OLTP)处理的应用。php

支持事务、行级锁、经过多版本并发控制(MVCC)支持高并发、提供一致性非锁定读、next-key locking避免幻读、主键汇集索引前端

二、MyISAM引擎

设计目标是面向OLAP应用。mysql

不支持事务、不支持行锁、表锁设计、支持全文索引算法

三、其余存储引擎

sql

2、InnoDB体系结构

一、线程模型

InnoDB存储引擎是多线程模型,后台有多个不一样的线程,用于处理不一样的任务。数据库

  • Master Thread:核心线程,将缓冲池中的数据异步刷新到磁盘
  • IO Thread:负责io请求的回调处理
  • Purge Thread:负责undo页的回收
  • Page Cleaner Thread:负责脏页的刷新

1.一、Master Thread

内部由多个循环组成。包括主循环(loop),后台循环(background loop)缓存

主循环每隔一秒的操做数据结构

  • 把日志缓冲刷新到磁盘,即便这个事务尚未提交。很好的解释了再大的事务提交时间也很短
  • 合并插入缓冲
  • 至多刷新n(可配置,自动调整,1.2版本以后)个脏页到磁盘
  • 没有用户活动,切换到background loop

主循环每隔10秒的操做多线程

  • 合并最多5个插入缓冲
  • 缓冲日志刷新到磁盘
  • 删除无用的undo页
  • 刷新脏页到磁盘(超过70%,刷新100页,没超过70%,刷新10页)

二、内存模型

2.一、缓冲池

InnoDB是基于磁盘的存储系统,为了弥补cpu和磁盘性能的差距,将从磁盘读出的数据保存在内存中,下次读取先从缓冲池中读取。有数据更新也先更新缓冲池的数据,经过checkpoint机制写回磁盘。缓冲池中包括索引页、数据页、undo页、插入缓存、锁信息等架构

2.二、缓冲池管理(LRU List)

最近作少使用算法,最频繁使用的页在List前端,最少使用的页在List末尾。当缓冲池容量不足容纳新数据时,先从尾部释放数据页。新数据插入在List的midpoint(List的5/8,对朴素LRU的优化,朴素LRU插入List头部。避免大量一次性查询把频繁使用的页刷出缓冲池)

2.三、脏页管理(Flush List)

当数据被更新,缓冲池中的数据首先被更新,修改以后的页称为脏页。脏页会保存到Flush List中,经过checkpoint机制把脏页数据写回磁盘

2.四、重作日志(redo log)缓冲

首先把重作日志信息存入缓冲区,而后按照必定频率同步到重作日志文件中。如下三种状况都会触发重作日志缓存同步到重作日志文件:

  • Master Thread 每隔一秒刷新
  • 每一个事务提交时
  • 重作日志缓冲池容量达到阈值,通常是1/2

2.五、check point技术

为了防止宕机致使事务未提交信息丢失,在事务提交时,先把数据保存到重作日志(redo log)中,再修改页。保证了持久性(D)

发生宕机,重启以后自动从重作日志中恢复数据。

可是这里有如下问题:

  • 重作日志过大,宕机重启恢复数据太慢
  • 重作日志不能无限扩容,须要循环利用
  • 重作日志不可用怎么办

check point就是为了解决这些问题:

  • 缩短数据库恢复时间
  • 重作日志不可用,刷新脏页
  • 缓冲池不够用,将脏页刷新到磁盘

check point触发时机:

  • Master Thread check point。每隔一秒触发一次
  • LRU List check point。保证LRU List中有100个空闲页,若是清理的页中有脏页,触发check point 强制刷新脏页数据到磁盘
  • Dirty Page too mush check point。脏页太多,超过阈值,触发check point 强制刷新脏页数据到磁盘

三、关键特性

3.一、插入缓存

(1)为何须要插入缓存?

咱们知道索引分为汇集索引和非汇集索引。

汇集索引通常是自增的惟一id,页中的数据记录按顺序存放,写入的时候不须要随机读取其余页中的数据,写入速度很快(若是用UUID做为主键,写入速度会很慢,每次写入都须要随机读)

实际应用中,一张表每每还有非汇集索引的存在。非汇集索引叶子节点的插入不是顺序的,须要离散的访问非汇集索引页,随机读取致使了插入数据的性能降低。插入缓存就是为了优化这种场景下的插入速度

(2)什么场景会触发插入缓存?

  • 索引是辅助索引
  • 索引不是惟一索引

对于非汇集索引的插入,会先判断非汇集索引页是否在缓冲池中,若是在缓冲池中,直接插入索引页,若是没在,先放入到insert buffer对象中,而后再以必定的频率把insert buffer中的数据和非汇集索引的叶子节点进行数据合并

(3)实现原理

insert buffer 的数据结构也是B+树,有记录要插入的时候,会对记录进行封装,按照记录的插入顺序进行编号,是顺序写入

3.二、两次写

(1)为何须要插入两次写?

若是InnoDB正在写入某个页的数据到磁盘,正好写了一部分的时候宕机了。这种状况称为部分写失效,会致使数据丢失

(2)实现原理

double write由两部分组成。一部分是double write缓冲,一部分是物理磁盘连续共享空间。在刷新脏页数据的时候,先复制一份脏页数据到两次写缓存中,在顺序写入共享磁盘中(由于是顺序写性能影响不大)。最后写入数据存储磁盘中(离散写)

3.三、自适应hash索引优化

hash是很是快的查询方式,时间负责度为O(1)。而B+树的查找次数取决于树的高度。

若是一个页被频繁的访问,并且访问模式也相同(联合索引使用最左原则)。会自动针对这页数据根据缓冲池中的索引创建Hash索引提升查询速度

3.四、异步IO

能够在发出一个IO请求后,在发出另外的IO请求,不必等待上一次的IO请求处理完成。把所有IO请求都发出,等待全部IO操做的完成,这就是AIO(Aysnc IO)

 3、文件

MySQL据库和InnoDB存储引擎有不少类型的文件,每种文件用处不一样。主要有参数文件、sokcet文件、pid文件、日志文件、表结构文件、存储引擎文件

一、日志文件

  • 错误日志:记录启动运行以及关闭遇到的错误信息
  • 查询日志:记录全部的查询记录
  • 二进制文件(binlog):记录全部的数据更改记录。用于数据恢复和数据复制。事务中未提交的二进制日志会存放到缓冲中,等事务提交时直接将缓冲中的日志同步到二进制文件中。经过配置能够指定写缓冲多少次以后同步到磁盘,若是值设置大于1,当发生宕机时可能会丢失数据
  • 慢查询日志:查询时间超过指定阈值的记录

二、InnoDB存储引擎文件

  • 表空间文件:存储数据
  • 重作日志文件:存储事务日志

4、表

一、索引组织表

InnoDB中,表数据都是按照主键顺序组织存放的。每张表都有主键,若是没有显示的定义主键,会把惟一索引做为主键。若是惟一索引也没有,会自动建立6字节大小的指针做为主键

二、存储结构

全部数据都存放在表空间中,表空间又由段、区、页组成

  • 段:表空间由各个段组成。段的管理由引擎自身完成
  • 区:每一个区大小为1M,由连续页组成
  • 页:磁盘管理的最小单位,默认每一个页大小16k
  • 行:数据是按行进行存放的,一个页最多存放16k/2-200=7992行

5、索引

数据库的索引结构是B+树,高度通常在2-4层,一次查找只须要2-4次的io。索引分为汇集索引和非汇集索引

一、汇集索引

按照每张表的主键构建的B+树,叶子节点中存储着整张表的行记录数据,每一个叶子节点经过双向链表进行链接。由于实际的数据页只能按照一个汇集索引进行排列,每张表只能拥有一个汇集索引

汇集索引对于主键的范围查找和排序查找速度很是快。

二、非汇集索引(辅助索引)

叶子节点不包含行记录的所有数据,叶子节点只存储了键值和指向汇集索引的书签

三、索引建立和删除

3.一、Online Scheme Change(OSC)

在线架构改变,经过php脚本实现,在索引的建立或删除过程当中,能够有读写事务对表进行操做。过程以下:

  • 建立和原表结构同样的新表
  • 对新表进行alter table操做
  • 建立临时表
  • 对原表添加触发器,把新产生的数据变化同步到临时表
  • 把原表的数据同步到新表
  • 将临时表的数据同步到新表
  • 对新表建立辅助索引
  • 再次回放临时表的数据到新表
  • 新表和旧表交换名字rename

3.二、mysql5.6开始支持online DDL

经过新的alter语法,能够选择索引的建立方式

四、什么样的数据适合建立辅助索引?

Cardinality表示索引中惟一值的数据的估计值(不是实时更新,使用采样法延迟更新),应尽量接近表中数据总行数。

五、联合索引

联合索引也是一棵B+树,不一样的是索引键值的数量大于等于2。联合索引的第二个好处是已经对第二个键值作了排序处理,减小了一次额外的排序操做

6、锁

一、MyISAM引擎

MyISAM引擎的锁是表锁设计,并发状况下读没有问题,可是写的性能会比较低

二、InnoDB引擎

2.一、锁的类型

  • 共享锁(S Lock)
  • 排它锁(X Lock)

2.二、一致性非锁定读

实现原理是经过MVCC机制实现,若是读取的行正处于update或delete中,读操做不会去等待行上X锁的释放,而是去读取行的快照数据。

一致性非锁定读能够极大的提升并发性能

不一样的事务隔离级别,读取的快照版本是有差异的

  • 读已提交隔离级别,老是读取最新的快照版本。可能会产生幻读
  • 可重复读隔离级别,老是读取事务开始后第一次读取的快照版本。能够避免幻读的产生

2.三、一致性锁定读

默认配置下,采用可重复读的隔离级别,读取数据采起的是一致性非锁定读。

可是某些场景下须要对读取操做加锁来保证严格的数据一致性,这时候能够显式的对读取的记录进行加锁:

  • select *** for update(对读取记录加X锁)
  • select *** lock in share model(对读取记录加S锁)

2.四、锁的算法

  • record lock:单个记录的锁。
  • gap lock:间隙锁,锁定一个范围,不包括记录自己
  • next-key lock:gap lock+record lock

默认隔离级别(可重复读)下,默认加的是next-key lock(为了解决幻读问题),当索引中含有惟一属性时,会降级为record lock。

在读已提交隔离级别下,加的是record lock

举个例子:

如今表z,有a,b两列,a是主键索引,b创建辅助索引。如今记录以下:(1,1)(3,1)(5,3)(7,6)(10,8)

select * from z where b=3 for update

由于锁是经过对索引加锁实现的。因此这里须要对主键索引和辅助索引加锁,主键索引加的锁是record lock,辅助索引加的锁是next-key lock,锁定范围是(1,3)、三、(3,6)

相关文章
相关标签/搜索