深刻理解MySQL系列之redo log、undo log和binlog

事务的实现

redo log保证事务的持久性,undo log用来帮助事务回滚及MVCC的功能。html

InnoDB存储引擎体系结构

redo log

Write Ahead Log策略

事务提交时,先写重作日志再修改页;当因为发生宕机而致使数据丢失时,就能够经过重作日志来完成数据的恢复。数据库

  • InnoDB首先将重作日志信息先放到重作日志缓存
  • 按必定频率刷新到重作日志文件

重作日志文件: 在默认状况,InnoDB存储引擎的数据目录下会有两个名为ib_logfile1和ib_logfile2的文件。每一个InnoDB存储引擎至少有1个重作日志文件组(group),每一个文件组下至少有2个重作日志文件。缓存

下面图一,很好说明重作日志组以循环写入方式运行,InnoDB存储引擎先写ib_logfile1,当达到文件最后时,会切换至重作日志文件ib_logfile2.数据结构

而图2,增长一个OS Buffer,有助于理解fsync过程。并发

在这里插入图片描述

关于log group,称为重作日志组,是一个逻辑上的概念。InnoDB存储引擎实际只有一个log group。
mvc

log group中第一个redo log file,其前2KB部分保存4个512字节大小块:异步

重作日志缓冲刷新到磁盘

下面三种状况刷新:函数

  • Master Thread每一秒将重作日志缓冲刷新到重作日志文件
  • 每一个事务提交时会将重作日志缓冲刷新到重作日志文件
  • 当重作日志缓冲池剩余空间小于1/2时,重作日志刷新到重作日志文件

补充上述三种状况第二种,触发写磁盘过程由参数innodb_flush_log_at_trx_commit控制,表示提交(commit)操做时,处理重作日志的方式。性能

参数innodb_flush_log_at_trx_commit有效值有0、一、2spa

  • 0表示当提交事务时,并不将事务的重作日志写入磁盘上日志文件,而是等待主线程每秒刷新。
  • 1表示在执行commit时将重作日志缓冲同步写到磁盘,即伴有fsync的调用
  • 2表示将重作日志异步写到磁盘,即写到文件系统的缓存中。不保证commit时确定会写入重作日志文件。

0,当数据库发生宕机时,部分日志未刷新到磁盘,所以会丢失最后一段时间的事务。
2,当操做系统宕机时,重启数据库后会丢失未从文件系统缓存刷新到重作日志文件那部分事务。

下图有助于理解

在这里插入图片描述

重作日志块

在InnoDB存储引擎中,重作日志都是以512字节进行存储的。意味着重作日志缓存、重作日志文件都是以块(block)的方式进行保存的,每块512字节。

重作日志头12字节,重作日志尾8字节,故每一个重作日志块实际能够存储492字节。

重作日志格式

redo log是基于页的格式来记录的。默认状况下,innodb的页大小是16KB(由 innodb_page_size变量控制),一个页内能够存放很是多的log block(每一个512字节),而log block中记录的又是数据页的变化。

log body的格式分为4部分:

  • redo_log_type:占用1个字节,表示redo log的日志类型。
  • space:表示表空间的ID,采用压缩的方式后,占用的空间可能小于4字节。
  • page_no:表示页的偏移量,一样是压缩过的。
  • redo_log_body表示每一个重作日志的数据部分,恢复时会调用相应的函数进行解析。例如insert语句和delete语句写入redo log的内容是不同的。

在这里插入图片描述

以下图,分别是insert和delete大体的记录方式。

在这里插入图片描述

redo日志恢复

下面LSN(Log Sequence Number)表明checkpoint,当数据库在LSN为10000时发生宕机,恢复操做仅恢复LSN10000-LSN13000范围内日志

undo log

undo log的做用

undo是逻辑日志,只是将数据库逻辑地恢复到原来的样子;全部修改都被逻辑地取消了,可是数据结构和页自己在回滚以后可能不大相同。

undo log有两个做用:提供回滚和多个行版本控制(MVCC)。

  • InnoDB存储引擎回滚时,对于每一个INSERT,会完成一个DELETE;对于每一个DELETE,会执行一个INSERT;对于每一个UPDATE,会执行一个相反的UPDATE,将修改前的行放回去。

  • MVCC: 当用户读取一行记录时,若该记录已经被其余事务占用,当前事务能够经过undo读取以前的行版本信息,以此实现非锁定读取。

undo log的存储方式

innodb存储引擎对undo的管理采用段的方式。rollback segment称为回滚段,每一个回滚段中有1024个undo log segment。

在之前老版本,只支持1个rollback segment,这样就只能记录1024个undo log segment。后来MySQL5.5能够支持128个rollback segment,即支持128*1024个undo操做,还能够经过变量 innodb_undo_logs (5.6版本之前该变量是 innodb_rollback_segments )自定义多少个rollback segment,默认值为128。

undo log默认存放在共享表空间中。

在这里插入图片描述

事务提交undo log处理过程

当事务提交时,InnoDB存储引擎会作如下两件事:

  • 将undo log放入一个列表中,以供以后的purge使用,是否能够最终删除undo log及所在页由purge线程来判断
  • 判断undo log 所在的页是否能够重用,若能够,分配给下个事务使用

当事务提交时,首先将undo log放入链表中,而后判断undo页的使用空间是否小于3/4,如果,则表示该undo页能够被重用,以后新的undo log记录在当前undo log的后面

undo log分为:

  • insert undo log
  • update undo log

由于事务隔离性,insert undo log对其余事务不可见,因此该undo log能够在事务提交后直接删除,不须要进行purge操做。

update undo log记录的是对delete和update操做产生的undo log。该undo log可能须要提供MVCC机制,所以不能提交时就进行删除

update分为两种状况:

  1. update的列若是不是主键列,在undo log中直接反向记录是如何update的。即update是直接进行的。
  2. update主键的操做能够分为两步:
  • 首先将原主键记录标记为已删除,所以须要产生一个类型为TRX_UNDO_DEL_MARK_REC的undo log
  • 以后插入一条新的记录,产生一个类型为TRX_UNDO_INSERT_MARK_REC的undo log

InnoDB purge时,会先从history列表找undo log,而后再从undo page中找undo log;能够避免大量随机读取操做,从而提升purge效率。

MVCC(多版本并发控制)

MVCC其实就是在每一行记录后面增长两个隐藏列,记录建立版本号和删除版本号,而每个事务在启动的时候,都有一个惟一的递增的版本号。

MVCC只在REPEATABLE READ 和READ COMMITTED两个隔离级别下工做。读未提交不存在版本问题,序列化则对全部读取行加锁。

示例:

  1. 插入操做:记录的建立版本号就是事务版本号

如插入一条记录,事务id假设是1,则建立版本号也是1

id name create version delete version
1 test 1
  1. 更新操做:先标记旧版本号为已删除,版本号就是当前版本号,再插入一条新的记录

如事务2把name字段更新
update table set name = 'new test' where id = 1;

原来的记录被标记删除,删除版本号为2,并插入新记录,建立版本号为2

id name create version delete version
1 test 1 2
1 new test 2
  1. 删除操做:把事务版本做为删除版本号

如事务3把记录删除
delete from table where id = 1;

id name create version delete version
1 test 2 3
  1. 查询操做

需知足如下两个条件的记录才能被事务查询出来:

  • InnoDB只查找版本早于当前事务版本的数据行
  • 行的删除版本要么未定义,要么大于当前版本号,这能够确保事务读取到的行,在事务未开始以前未被删除

MVCC好处:减小锁的争用,提高性能

binlog

二进制文件概念及做用

二进制文件(binary log)记录了对MySQL数据库执行更改的全部操做(不包含SELECT、SHOW等,由于对数据没有修改)

二进制文件主要几种做用:

  • 恢复:某些数据的恢复须要二进制日志
  • 复制: 经过复制和执行二进制日志使一台远程的MySQL(slave)与另外一台MySQL数据库(master)进行实时同步
  • 审计: 用户能够经过二进制日志中信息来进行审计,判断是否有对数据库进行注入的攻击
二进制文件三个格式

MySQL 5.1开始引入binlog_format参数,该参数可设值有STATEMENT、ROW和MIX(三种模式优缺点可参考https://mp.weixin.qq.com/s/KB73550tKpNccW-WKxT7-A)

  1. STATEMENT: 二进制文件记录的是日志的逻辑SQL语句
  2. ROW:记录表的行更改状况。若是设置了ROW模式,能够将InnoDB事务隔离级别设为READ_COMMITTED,以得到更好的并发性
  3. MIX:MySQL默认采用STATEMENT格式进行二进制文件的记录,但在一些状况下会使用ROW,可能的状况有:
  • 表的存储引擎为NDB,这时对表DML操做都以ROW格式进行
  • 使用了UUID()、USER()、CURRENT_USER()、FOUND_ROWS()、ROW_COUNT()等不肯定函数
  • 使用了INSERT DELAY语句
  • 使用了用户定义函数
  • 使用了临时表
redo log和二进制文件区别

(二进制文件用来进行POINT-IN-TIME(PIT))的恢复及主从复制环境的创建。

  1. 二进制文件会记录全部与MySQL数据库有关的日志记录,包括InnoDB、MyISAM等其余存储引擎的日志。而InnoDB存储引擎的重作日志只记录有关该存储引擎自己的事务日志。
  2. 记录的内容不一样,不管用户将二进制日志文件记录的格式设为STATEMENT、ROW或MIXED,其记录的都是关于一个事务的具体操做内容,即该日志是逻辑日志。而InnoDB存储引擎的重作日志文件记录的是关于每一个页的更改的物理状况。
  3. 此外,写入的时间页不一样,二进制日志文件仅再事务提交前进行提交,即只写磁盘一次,不论这时该事务多大。而在事务进行的过程当中,却不断有重作日志条目(reod entry)被写入到重作日志文件中。

group commit

若事务为非只读事务,则每次事务提交时须要进行一次fsync操做,以此保证重作日志都已经写入磁盘。但磁盘fsync性能有限,为提升磁盘fsync效率,当前数据库都提供group commit功能,即一次能够刷新确保多个事务日志被写入文件。

对InnoDB group commit,进行两阶段操做:

  • 修改内存中事务对应的信息,而且将日志写入重作日志缓冲
  • 调用fsync将确保日志都从重作日志缓冲写入磁盘

InnoDB1.2前,开启二进制文件,group commit功能失效问题:

开启二进制文件后,其步骤以下:
1)当事务提交时,InnoDB存储引擎进行prepare操做
2)MySQL数据库上层写入二进制文件
3)InnoDB将日志写入重作日志文件

  • a)修改内存中事务对应的信息,并将日志写入重作日志缓冲
  • b)调用fsync将确保日志都从重作日志缓冲写入磁盘

其中在保证MySQL数据库上层二进制文件的写入顺序,和InnoDB事务提交顺序一致,MySQL内部使用了prepare_commit_mutex锁,从而步骤3)中a)步不能够在其余事务执行步骤b)时进行,从而致使roup commit功能失效。

在这里插入图片描述

解决方案即是BLGC(Binary Log Group Commit)

MySQL 5.6 BLGC实现方式分为三个阶段:

  • Flush阶段:将每一个事务的二进制文件写入内存
  • Sync阶段:将内存中的二进制刷新到磁盘,若队列有多个事务,那么仅一次fsync操做就完成了二进制日志的写入,这就是BLGC
  • Commit阶段:leader根据顺序调用存储引擎层事务提交,因为innodb本就支持group commit,因此解决了由于锁 prepare_commit_mutex 而致使的group commit失效问题。

在这里插入图片描述

参考:
《MySQL技术内幕》
https://mp.weixin.qq.com/s/rNFy_qwnNWUvzjYznOXKJw
https://www.cnblogs.com/hapjin/archive/2019/09/28/11521506.html
https://mp.weixin.qq.com/s/E-iJRPt5YRdLUja8RwzZ3A

相关文章
相关标签/搜索