本文主要描述在网站的不一样的并发访问量级下,Mysql架构的演变前端
架构的可扩展性每每和并发是息息相关,没有并发的增加,也就没有必要作高可扩展性的架构,这里对可扩展性进行简单介绍一下,经常使用的扩展手段有如下两种mysql
Scale-up : 纵向扩展,经过替换为更好的机器和资源来实现伸缩,提高服务能力redis
Scale-out : 横向扩展, 经过加节点(机器)来实现伸缩,提高服务能力算法
对于互联网的高并发应用来讲,无疑Scale out才是出路,经过纵向的买更高端的机器一直是咱们所避讳的问题,也不是长久之计,在scale out的理论下,可扩展性的理想状态是什么?sql
一个服务,当面临更高的并发的时候,可以经过简单增长机器来提高服务支撑的并发度,且增长机器过程当中对线上服务无影响(no down time),这就是可扩展性的理想状态!后端
一个简单的小型网站或者应用背后的架构能够很是简单, 数据存储只须要一个mysql instance就能知足数据读取和写入需求(这里忽略掉了数据备份的实例),处于这个时间段的网站,通常会把全部的信息存到一个database instance里面。架构
在这样的架构下,咱们来看看数据存储的瓶颈是什么?并发
1.数据量的总大小 一个机器放不下时分布式
2.数据的索引(B+ Tree)一个机器的内存放不下时高并发
3.访问量(读写混合)一个实例不能承受
只有当以上3件事情任何一件或多件知足时,咱们才须要考虑往下一级演变。 今后咱们能够看出,事实上对于不少小公司小应用,这种架构已经足够知足他们的需求了,初期数据量的准确评估是杜绝过分设计很重要的一环,毕竟没有人愿意为不可能发生的事情而浪费本身的经历。
这里简单举个个人例子,对于用户信息这类表 (3个索引),16G内存能放下大概2000W行数据的索引,简单的读和写混合访问量3000/s左右没有问题,你的应用场景是否
通常当V1.0 遇到瓶颈时,首先最简便的拆分方法就是垂直拆分,何谓垂直?就是从业务角度来看,将关联性不强的数据拆分到不一样的instance上,从而达到消除瓶颈的目标。以图中的为例,将用户信息数据,和业务数据拆分到不一样的三个实例上。对于重复读类型比较多的场景,咱们还能够加一层cache,来减小对DB的压力。
在这样的架构下,咱们来看看数据存储的瓶颈是什么?
1.单实例单业务 依然存在V1.0所述瓶颈
遇到瓶颈时能够考虑往本文更高V版本升级, 如果读请求致使达到性能瓶颈能够考虑往V3.0升级, 其余瓶颈考虑往V4.0升级
此类架构主要解决V2.0架构下的读问题,经过给Instance挂数据实时备份的思路来迁移读取的压力,在Mysql的场景下就是经过主从结构,主库抗写压力,经过从库来分担读压力,对于写少读多的应用,V3.0主从架构彻底可以胜任
在这样的架构下,咱们来看看数据存储的瓶颈是什么?
1.写入量主库不能承受
对于V2.0 V3.0方案遇到瓶颈时,均可以经过水平拆分来解决,水平拆分和垂直拆分有较大区别,垂直拆分拆完的结果,在一个实例上是拥有全量数据的,而水平拆分以后,任何实例都只有全量的1/n的数据,如下图Userinfo的拆分为例,将userinfo拆分为3个cluster,每一个cluster持有总量的1/3数据,3个cluster数据的总和等于一份完整数据(注:这里再也不叫单个实例 而是叫一个cluster 表明包含主从的一个小mysql集群)
sharding key按连续区间段路由,通常用在有严格自增ID需求的场景上,如Userid, Userid Range的小例子:以userid 3000W 为Range进行拆分 1号cluster userid 1-3000W 2号cluster userid 3001W-6000W
List拆分与Range拆分思路同样,都是经过给不一样的sharding key来路由到不一样的cluster,可是具体方法有些不一样,List主要用来作sharding key不是连续区间的序列落到一个cluster的状况,如如下场景:
假定有20个音像店,分布在4个有经销权的地区,以下表所示:
地区 | 商店ID 号 |
北区 | 3, 5, 6, 9, 17 |
东区 | 1, 2, 10, 11, 19, 20 |
西区 | 4, 12, 13, 14, 18 |
中心区 | 7, 8, 15, 16 |
业务但愿可以把一个地区的全部数据组织到一块儿来搜索,这种场景List拆分能够轻松搞定
经过对sharding key 进行哈希的方式来进行拆分,经常使用的哈希方法有除余,字符串哈希等等,除余如按userid%n 的值来决定数据读写哪一个cluster,其余哈希类算法这里就不细展开讲了。
数据水平拆分引入的问题主要是只能经过sharding key来读写操做,例如以userid为sharding key的切分例子,读userid的详细信息时,必定须要先知道userid,这样才能推算出再哪一个cluster进而进行查询,假设我须要按username进行检索用户信息,须要引入额外的反向索引机制(相似HBASE二级索引),如在redis上存储username->userid的映射,以username查询的例子变成了先经过查询username->userid,再经过userid查询相应的信息。
实际上这个作法很简单,可是咱们不要忽略了一个额外的隐患,那就是数据不一致的隐患。存储在redis里的username->userid和存储在mysql里的userid->username必须须要是一致的,这个保证起来不少时候是一件比较困难的事情,举个例子来讲,对于修改用户名这个场景,你须要同时修改redis和mysql,这两个东西是很难作到事务保证的,如mysql操做成功 可是redis却操做失败了(分布式事务引入成本较高),对于互联网应用来讲,可用性是最重要的,一致性是其次,因此可以容忍小量的不一致出现. 毕竟从占比来讲,这类的不一致的比例能够微乎其微到忽略不计(通常写更新也会采用mq来保证直到成功为止才中止重试操做)
在这样的架构下,咱们来看看数据存储的瓶颈是什么?
在这个拆分理念上搭建起来的架构,理论上不存在瓶颈(sharding key能确保各cluster流量相对均衡的前提下),不过确有一件恶心的事情,那就是cluster扩容的时候重作数据的成本,如我原来有3个cluster,可是如今个人数据增加比较快,我须要6个cluster,那么咱们须要将每一个cluster 一拆为二,通常的作法是
1.摘下一个slave,停同步,
2.对写记录增量log(实现上能够业务方对写操做 多一次写持久化mq 或者mysql主建立trigger记录写 等等方式)
3.开始对静态slave作数据, 一拆为二
4.回放增量写入,直到追上的全部增量,与原cluster基本保持同步
5.写入切换,由原3 cluster 切换为6cluster
有没有相似飞机空中加油的感受,这是一个脏活,累活,容易出问题的活,为了不这个,咱们通常在最开始的时候,设计足够多的sharding cluster来防止可能的cluster扩容这件事情
云计算如今是各大IT公司内部做为节约成本的一个突破口,对于数据存储的mysql来讲,如何让其成为一个saas(Software as a Service)是关键点。在MS的官方文档中,把构建一个足够成熟的SAAS(MS简单列出了SAAS应用的4级成熟度)所面临的3个主要挑战:可配置性,可扩展性,多用户存储结构设计称为"three headed monster". 可配置性和多用户存储结构设计在Mysql saas这个问题中并非特别难办的一件事情,因此这里重点说一下可扩展性。
Mysql做为一个saas服务,在架构演变为V4.0以后,依赖良好的sharding key设计, 已经再也不存在扩展性问题,只是他在面对扩容缩容时,有一些脏活须要干,而做为saas,并不能避免扩容缩容这个问题,因此只要能把V4.0的脏活变成 1. 扩容缩容对前端APP透明(业务代码不须要任何改动) 2.扩容缩容全自动化且对在线服务无影响 那么他就拿到了做为Saas的门票.
对于架构实现的关键点,须要知足对业务透明,扩容缩容对业务不须要任何改动,那么就必须eat our own dog food,在你mysql saas内部解决这个问题,通常的作法是咱们须要引入一个Proxy,Proxy来解析sql协议,按sharding key 来寻找cluster, 判断是读操做仍是写操做来请求主 或者 从,这一切内部的细节都由proxy来屏蔽。
这里借淘宝的图来列举一下proxy须要干哪些事情
百度也有相似的解决方案,见文章最后资料部分连接
对于架构实现的关键点,扩容缩容全自动化且对在线服务无影响; 扩容缩容对应到的数据操做即为数据拆分和数据合并,要作到彻底自动化有很是多不一样的实现方式,整体思路和V4.0介绍的瓶颈部分有关,这里就不细展开讲了。以扩容为例,扩容后的服务和扩容前数据已经基本同步了,这时候如何作到切换对业务无影响? 其实关键点仍是在引入的proxy,这个问题转换为了如何让proxy作热切换后端的问题。这已经变成一个很是好处理的问题了.
另外值得关注的是:2014年5月28日——为了知足当下对Web及云应用需求,甲骨文宣布推出MySQL Fabric,在对应的资料部分我也放了不少Fabric的资料,有兴趣的能够看看,说不定会是之后的一个方向