MySQL当前已经发布到MySQL8.0版本,在新的版本中,能够看到MySQL以前被人诟病的优化器部分作了不少的改动,因为笔者以前的工做环境是5.6,最近切换到最新的8.0版本,本文涵盖了一些本人感兴趣的和优化器相关的部分,主要包括MySQL5.7的cost model以及MySQL8.0的直方图功能。html
本文基于当前最新的MySQL8.0.12版本,主要是讲下cost model 和 histogram的用法和相关代码mysql
为何须要配置cost model常量 ? 咱们知道MySQL已经发展了好几十年的历史,可是在优化器中依然使用了hardcode的权重值来衡量io, cpu等资源状况,而这些权重值其实是基于多年前甚至十来年前的经验设定的。想一想看,这么多年硬件的发展多么迅速。几十上百个核心的服务器不在少数甚至在某些大型公司大规模使用,ssd早就成为主流,NVME也在崛起。高速RDMA网络正在走入寻常百姓家。这一切甚至影响到数据库系统的实现和变革。显而易见,那些hardcode的权值已通过时了,咱们须要提供给用户可定义的方式,甚至更进一步的,可以智能的根据硬件环境自动设定。sql
MySQL5.7引入两个新的系统表, 经过这两个系统表暴露给用户来进行更新,以下:数据库
root@(none) 04:05:24>select * from mysql.server_cost; +------------------------------+------------+---------------------+---------+---------------+ | cost_name | cost_value | last_update | comment | default_value | +------------------------------+------------+---------------------+---------+---------------+ | disk_temptable_create_cost | NULL | 2018-04-23 13:55:20 | NULL | 20 | | disk_temptable_row_cost | NULL | 2018-04-23 13:55:20 | NULL | 0.5 | | key_compare_cost | NULL | 2018-04-23 13:55:20 | NULL | 0.05 | | memory_temptable_create_cost | NULL | 2018-04-23 13:55:20 | NULL | 1 | | memory_temptable_row_cost | NULL | 2018-04-23 13:55:20 | NULL | 0.1 | | row_evaluate_cost | NULL | 2018-04-23 13:55:20 | NULL | 0.1 | +------------------------------+------------+---------------------+---------+---------------+ 6 rows in set (0.00 sec) 其中default_value是generated column,其表达式已经固定死了默认值: `default_value` float GENERATED ALWAYS AS ( (case `cost_name` when _utf8mb3'disk_temptable_create_cost' then 20.0 when _utf8mb3'disk_temptable_row_cost' then 0.5 when _utf8mb3'key_compare_cost' then 0.05 when _utf8mb3'memory_temptable_create_cost' then 1.0 when _utf8mb3'memory_temptable_row_cost' then 0.1 when _utf8mb3'row_evaluate_cost' then 0.1 else NULL end)) VIRTUAL root@(none) 04:05:35>select * from mysql.engine_cost; +-------------+-------------+------------------------+------------+---------------------+---------+---------------+ | engine_name | device_type | cost_name | cost_value | last_update | comment | default_value | +-------------+-------------+------------------------+------------+---------------------+---------+---------------+ | default | 0 | io_block_read_cost | NULL | 2018-04-23 13:55:20 | NULL | 1 | | default | 0 | memory_block_read_cost | NULL | 2018-04-23 13:55:20 | NULL | 0.25 | +-------------+-------------+------------------------+------------+---------------------+---------+---------------+
你能够经过update语句来进行更新, 例如:json
root@(none) 04:05:52>update mysql.server_cost set cost_value = 40 where cost_name = 'disk_temptable_create_cost'; Query OK, 1 row affected (0.05 sec) Rows matched: 1 Changed: 1 Warnings: 0 root@(none) 04:07:13>select * from mysql.server_cost where cost_name = 'disk_temptable_create_cost'; +----------------------------+------------+---------------------+---------+---------------+ | cost_name | cost_value | last_update | comment | default_value | +----------------------------+------------+---------------------+---------+---------------+ | disk_temptable_create_cost | 40 | 2018-06-23 16:07:05 | NULL | 20 | +----------------------------+------------+---------------------+---------+---------------+ 1 row in set (0.00 sec) //更新后执行一次flush optimizer_costs操做来更新内存 //但老的session仍是会用老的cost数据 root@(none) 10:10:12>flush optimizer_costs; Query OK, 0 rows affected (0.00 sec)
能够看到用法也很是简单,上面包含了两张表:server_cost及engine_cost,分别对server层和引擎层进行配置api
全局cache维护了一个当前的cost model信息, 用户线程在lex_start时会去判断其有没有初始化本地指针,若是没有的话就去该cache中将指针拷贝到本地数组
初始化全局cache:服务器
Cost_constant_cache::init : 建立Cost_model_constants, 其中包含了两类信息: server层cost model和引擎层cost model, 类结构以下: Cost_constant_cache ----> Cost_model_constants ---> Server_cost_constants //server_cost ---> Cost_model_se_info --->SE_cost_constants //engine_cost 若是存储引擎提供了接口函数get_cost_constants的话,则从存储引擎那取
从系统表读取配置,适用于初始化和flush optimizer_costs并更新cache:网络
read_cost_constants() |--> read_server_cost_constants |--> read_engine_cost_constants
因为用户能够动态的更新系统表,执行完flush optimizer_costs后,有可能老的版本还在被某些session使用,所以须要引用计数,老的版本ref counter被降为0后才能被释放session
在每一个线程的thd上,挂了一个Cost_model_server的对象THD::m_cost_model, 在lex_start()时,若是发现线程的m_cost_model没有初始化,就会去获取全局的指针,存储到本地:
Cost_model_server::init const Cost_model_constants *m_cost_constants = cost_constant_cache->get_cost_constants(); // 会增长一个引用计数,以确保不会在引用时被删除 const Server_cost_constants *m_server_cost_constants = m_cost_constants->get_server_cost_constants(); // 一样获取的是全局指针
可见thd不建立本身的cost model, 只引用cache中的指针
struct TABLE::m_cost_model, 类型:Cost_model_table
其值取自上述thd中存储的cost model对象
统一的对象类型cost_estimate来存储计算的cost结果,包含四个维度:
double io_cost; ///< cost of I/O operations double cpu_cost; ///< cost of CPU operations double import_cost; ///< cost of remote operations double mem_cost; ///< memory used (bytes)
目前来看,除非根据工做负载,通过充分的测试才能得出合理的配置值,但如何配置,什么是合理的值,我的认为应该是能够自动调整配置的。关键是找出配置和硬件条件的对应关系。 这也是咱们将来能够努力的一个方向。
1. Cost Model官方文档
2. 官方博客1:The MySQL Optimizer Cost Model Project
3. 官方博客2: A new dimension to MySQL query optimizations
4. Optimizer Cost Model Improvements in MySQL 5.7.5 DMR
5.Slide: MySQL Cost Model
Related Worklog:
WL#7182: Optimizer Cost Model API
WL#7209: Handler interface changes for new cost model
WL#7276: Configuration data base for Optimizer Cost Model
WL#7315 Optimizer cost model: main memory management of cost constants
WL#7316 Optimizer cost model: Command for online updating of cost model constants
直方图也是MySQL一个万众期待的功能了,这个功能实际上在其余数据库产品中是很常见的,能够很好的指导优化器选择执行路径。利用直方图存储了指定列的数据分布。MariaDB从很早的10.0.2版本支持这个功能, 而MySQL在最新的8.0版本中也开始支持
MySQL里使用直方图是经过ANALYZE TABLE语法来执行:
ANALYZE [NO_WRITE_TO_BINLOG | LOCAL] TABLE tbl_name UPDATE HISTOGRAM ON col_name [, col_name] ... [WITH N BUCKETS] ANALYZE [NO_WRITE_TO_BINLOG | LOCAL] TABLE tbl_name DROP HISTOGRAM ON col_name [, col_name] ...
举个简单的例子:
咱们以普通的sysbench表为例: root@sb1 05:16:33>show create table sbtest1\G *************************** 1. row *************************** Table: sbtest1 Create Table: CREATE TABLE `sbtest1` ( `id` int(11) NOT NULL AUTO_INCREMENT, `k` int(11) NOT NULL DEFAULT '0', `c` char(120) NOT NULL DEFAULT '', `pad` char(60) NOT NULL DEFAULT '', PRIMARY KEY (`id`), KEY `k_1` (`k`) ) ENGINE=InnoDB AUTO_INCREMENT=200001 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci 1 row in set (0.01 sec) # 建立直方图并存储到数据词典中 root@sb1 05:16:38>ANALYZE TABLE sbtest1 UPDATE HISTOGRAM ON k with 10 BUCKETS; +-------------+-----------+----------+----------------------------------------------+ | Table | Op | Msg_type | Msg_text | +-------------+-----------+----------+----------------------------------------------+ | sb1.sbtest1 | histogram | status | Histogram statistics created for column 'k'. | +-------------+-----------+----------+----------------------------------------------+ 1 row in set (0.55 sec) root@sb1 05:17:03>ANALYZE TABLE sbtest1 UPDATE HISTOGRAM ON k,pad with 10 BUCKETS; +-------------+-----------+----------+------------------------------------------------+ | Table | Op | Msg_type | Msg_text | +-------------+-----------+----------+------------------------------------------------+ | sb1.sbtest1 | histogram | status | Histogram statistics created for column 'k'. | | sb1.sbtest1 | histogram | status | Histogram statistics created for column 'pad'. | +-------------+-----------+----------+------------------------------------------------+ 2 rows in set (7.98 sec) 删除pad列上的histogram: root@sb1 05:17:51>ANALYZE TABLE sbtest1 DROP HISTOGRAM ON pad; +-------------+-----------+----------+------------------------------------------------+ | Table | Op | Msg_type | Msg_text | +-------------+-----------+----------+------------------------------------------------+ | sb1.sbtest1 | histogram | status | Histogram statistics removed for column 'pad'. | +-------------+-----------+----------+------------------------------------------------+ 1 row in set (0.06 sec) root@sb1 05:58:12>ANALYZE TABLE sbtest1 DROP HISTOGRAM ON k; +-------------+-----------+----------+----------------------------------------------+ | Table | Op | Msg_type | Msg_text | +-------------+-----------+----------+----------------------------------------------+ | sb1.sbtest1 | histogram | status | Histogram statistics removed for column 'k'. | +-------------+-----------+----------+----------------------------------------------+ 1 row in set (0.08 sec) # 若是不指定bucket的话,默认Bucket的数量是100 root@sb1 05:58:27>ANALYZE TABLE sbtest1 UPDATE HISTOGRAM ON k; +-------------+-----------+----------+----------------------------------------------+ | Table | Op | Msg_type | Msg_text | +-------------+-----------+----------+----------------------------------------------+ | sb1.sbtest1 | histogram | status | Histogram statistics created for column 'k'. | +-------------+-----------+----------+----------------------------------------------+ 1 row in set (0.56 sec)
直方图统计信息存储于InnoDB数据词典中,能够经过information_schema表来获取
root@information_schema 05:34:49>SHOW CREATE TABLE INFORMATION_SCHEMA.COLUMN_STATISTICS\G *************************** 1. row *************************** View: COLUMN_STATISTICS Create View: CREATE ALGORITHM=UNDEFINED DEFINER=`mysql.infoschema`@`localhost` SQL SECURITY DEFINER VIEW `COLUMN_STATISTICS` AS select `mysql`.`column_statistics`.`schema_name` AS `SCHEMA_NAME`,`mysql`.`column_statistics`.`table_name` AS `TABLE_NAME`,`mysql`.`column_statistics`.`column_name` AS `COLUMN_NAME`,`mysql`.`column_statistics`.`histogram` AS `HISTOGRAM` from `mysql`.`column_statistics` where can_access_table(`mysql`.`column_statistics`.`schema_name`,`mysql`.`column_statistics`.`table_name`) character_set_client: utf8 collation_connection: utf8_general_ci 1 row in set (0.00 sec)
从column_statistics表的定义能够看到,有一个名为mysql.column_statistics系统表,但被隐藏了,没有对外暴露
如下举个简单的例子:
root@sb1 05:58:55>ANALYZE TABLE sbtest1 UPDATE HISTOGRAM ON k WITH 4 BUCKETS; +-------------+-----------+----------+----------------------------------------------+ | Table | Op | Msg_type | Msg_text | +-------------+-----------+----------+----------------------------------------------+ | sb1.sbtest1 | histogram | status | Histogram statistics created for column 'k'. | +-------------+-----------+----------+----------------------------------------------+ 1 row in set (0.63 sec) # 查询表上的直方图信息 root@sb1 06:00:43>SELECT JSON_PRETTY(HISTOGRAM) FROM INFORMATION_SCHEMA.COLUMN_STATISTICS WHERE SCHEMA_NAME='sb1' AND TABLE_NAME = 'sbtest1'\G *************************** 1. row *************************** JSON_PRETTY(HISTOGRAM): { "buckets": [ [ 38671, 99756, 0.249795, 17002 ], [ 99757, 100248, 0.500035, 492 ], [ 100249, 100743, 0.749945, 495 ], [ 100744, 172775, 1.0, 16630 ] ], "data-type": "int", "null-values": 0.0, "collation-id": 8, "last-updated": "2018-09-22 09:59:30.857797", "sampling-rate": 1.0, "histogram-type": "equi-height", "number-of-buckets-specified": 4 } 1 row in set (0.00 sec)
从输出的json能够看到,在执行了上述语句后产生的直方图,有4个bucket,数据类型为Int, 类型为equi-height,即等高直方图(另一种是等宽直方图,即SINGLETON)。每一个Bucket中,描述的信息包括:数值的上界和下界, 频率以及不一样值的个数。经过这些信息能够得到比较精确的数据分布状况,从而优化器来根据这些统计信息决定更优的执行计划。
若是列上存在大量的重复值,那么MySQL也可能选择等宽直方图,例如上例,咱们将列k上的值更新为一半10一半为20, 那么出来的直方图数据以下:
root@sb1 10:41:17>SELECT JSON_PRETTY(HISTOGRAM) FROM INFORMATION_SCHEMA.COLUMN_STATISTICS WHERE SCHEMA_NAME='sb1' AND TABLE_NAME = 'sbtest1'\G *************************** 1. row *************************** JSON_PRETTY(HISTOGRAM): { "buckets": [ [ 10, 0.499995 ], [ 20, 1.0 ] ], "data-type": "int", "null-values": 0.0, "collation-id": 8, "last-updated": "2018-09-22 14:41:17.312601", "sampling-rate": 1.0, "histogram-type": "singleton", "number-of-buckets-specified": 100 } 1 row in set (0.00 sec)
如上,对于SINGLETON类型,每一个bucket只包含两个值:列值,及对应的累计频率(即百分之多少的数据比当前Bucket里的值要小或相等)
注意这里的sampling-rate, 这里的值为1,表示读取了表上全部的数据来进行统计,但一般对于大表而言,咱们可能不但愿读太多的数据,由于可能产生过分的内存消耗,所以MySQL还提供了一个参数histogram_generation_max_mem_size来限制内存的使用上限。
若是表上的DML很少,那直方图基本是稳定的,但频繁写入的话,那咱们就可能须要去按期更新直方图,MySQL自己不会去主动更新。
优化器经过histogram来计算列的过滤性,大多数的谓词均可以使用到。具体参阅官方文档
代码结构:
以MySQL8.0.12为例,主要代码在sql/histogram目录下:
ls sql/histograms/ equi_height_bucket.cc equi_height_bucket.h equi_height.cc equi_height.h histogram.cc histogram.h singleton.cc singleton.h value_map.cc value_map.h value_map_type.h 类结构: namespace histograms |---> Histogram //基类 |--> Equi_height //等高直方图,模板类,实例化参数为数据类型,须要针对类型显示定义 // 见文件 "equi_height.cc" |--> Singleton //等宽直方图,只有值和其出现的频度被存储下来
建立及存储histogram:
处理histogram的相关函数和堆栈以下:
Sql_cmd_analyze_table::handle_histogram_command |--> update_histogram //更新histogram |-->histograms::update_histogram //调用namespace内的接口函数 a. 判断各个列: //histograms::field_type_to_value_map_type: 检查列类型是否支持 //covered_by_single_part_index: 若是列是Pk或者uk,不会为其建立histogram //若是是generated column, 则找到其依赖的列加入到set中 b. 判断取样的半分比,这主要受参数histogram_generation_max_mem_size限制,若是设的足够大,则会去读取全表数据进行分析 |-> fill_value_maps //开始从表上读取须要分析的列数据 |->ha_sample_init |->ha_sample_next |--> handler::sample_next //读取下一条记录,经过随机数的方式来进行取样 Value_map<T>::add_values // 将读到的数据加入到map中 |->... |->ha_sample_end |-> build_histogram //建立histogram对象 a. 肯定histogram类型:若是值的个数小于桶的个数,则使用Singleton,不然使用Equi_height类型 |->Singleton<T>::build_histogram |->Equi_height<T>::build_histogram |-> Histogram::store_histogram //将histogram信息存储到column_statistic表中 |-> dd::cache::Dictionary_client::update<dd::Column_statistics> |--> drop_histogram //删除直方图
使用histogram
使用的方式就比较简单了:
首先在表对象TABLE_SHARE中,增长成员m_histograms,其结构为一个unordered map,key值为field index, value为相应的histogram对象
获取列值过滤性的相关堆栈以下:
get_histogram_selectivity |-->Histogram::get_selectivity |->get_equal_to_selectivity_dispatcher |->get_greater_than_selectivity_dispatcher |->get_less_than_selectivity_dispatcher |-->write_histogram_to_trace // 写到optimizer_trace中
MySQL支持多种操做类型对直方图的使用,包括:
col_name = constant col_name <> constant col_name != constant col_name > constant col_name < constant col_name >= constant col_name <= constant col_name IS NULL col_name IS NOT NULL col_name BETWEEN constant AND constant col_name NOT BETWEEN constant AND constant col_name IN (constant[, constant] ...) col_name NOT IN (constant[, constant] ...)
经过直方图,咱们能够根据列上的条件判断出列值的过滤性,来辅助选择更优的执行计划。在没有直方图以前咱们须要经过在列上创建索引来得到相对精确的列值分布。但咱们知道索引是有很大的维护开销的,而直方图则能够灵活的按需建立。
WL#5384 PERFORMANCE_SCHEMA, HISTOGRAMS
WL#8706 Persistent storage of Histogram data
WL#8707 Classes/structures for Histograms
WL#8943 Extend ANALYZE TABLE with histogram support
WL#9223 Using histogram statistics in the optimizer
相关worklog:
WL#7338: Interface for improved records per key estimates
WL#7339 Use improved records per key estimate interface in optimizer
MySQL经过rec_per_key 接口来估算记录的个数(暗示每一个索引Key对应的记录个数),但在早前版本中这个数字是整数,对于小数会取整,不能表示准确的rec_per_key,从而影响到索引的选择,所以在5.7版本中,将其记录的值改为了float类型
相关worklog:
WL#7168 API for estimates for how much of table and index data that is in memory buffer
WL#7170: InnoDB buffer estimates for tables and indexes
WL#7340 IO aware cost estimate function for data access
在以前的版本中,优化器是没法知道数据的状态,是不是cache在内存中,仍是须要从磁盘读出来的,缺少这部分信息,致使优化器统一认为数据属于磁盘的来计算开销。这可能致使低效的执行计划。
相关代码:
server层新增api,用于获取表或索引上有百分之多少的数据是存储在cache中的
handler::table_in_memory_estimate handler::index_in_memory_estimate
而在innodb层,增长了一个全局变量buf_stat_per_index
(对应类型为buf_stat_per_index_t
) 来维护每一个索引在内存中的leaf page个数, 其内部实现了一个lock-free的hash结构,Key值为(m_space_id) << 32 | m_index_id)
, 在读入page时或者内存中建立新page时, 若是对应的page是leaf page,就递增计数;当从page hash中移除时,则递减计数。
为了减小性能的影响,计数器是经过lock-free hash的结构存储的,对应的结构为ut_lock_free_hash_t
。
基本的实现思路是:hash是一个定长的数组,数组元素为(key, val), 根据Key计算一个hash值再模上array size, 找到对应的槽位, 若是槽位被占用了,则向右查找一个空闲的slot。
当数组满了的时候,会建立一个新的更大的数组,在数据还没Move到这个新hash以前,全部的search都须要查询两个数组。当全部的记录到迁移到新数组,而且没有线程访问老的数组时,就能够把老的hash删除掉了。
在hash中存储的counter自己,也考虑到多核和numa架构,避免同时更新引发的cpu cache失效。在大量core的场景下这个问题可能很明显。Innodb封装计数操做到类ut_lock_free_cnt_t
中,使用数组维护counter, 按照cpu no做为index更新,须要获取counter值时则累加数组中的值。
这个Lock free hash并非个通用场景的hash结构:例如处理冲突的时候,可能占用其余key的槽位,hash不够用时,须要迁移到新的array中。实际上mysql自己实现了一个lf_hash,在扩展Hash时无需迁移数据,有空单独开篇博客讲一下。
你能够从information_schema.innodb_cached_indexes
表中读取到每一个索引cache的page个数。
当定义好接口,而且Innodb提供相应的统计数据后,优化器就能够利用这些信息来计算开销: