1. 准备数据库服务,这里做为学习用,咱们就用一个数据库服务。
dhost1: localhost
2. 在dhost1服务建立三个数据库java
CREATE DATABASE db1 CHARACTER SET 'utf8'; CREATE DATABASE db2 CHARACTER SET 'utf8'; CREATE DATABASE db3 CHARACTER SET 'utf8';
3. 配置好dataHost dataNodenode
<mycat:schema xmlns:mycat="http://io.mycat/"> <!-- 注意:里面的元素必定要按 schema 、dataNode 、 dataHost的顺序配置 --> <schema name="mydb" checkSQLschema="true" sqlMaxLimit="100" dataNode="dn2"> </schema> <dataNode name="dn1" dataHost="dhost1" database="db1" /> <dataNode name="dn2" dataHost="dhost1" database="db2" /> <dataNode name="dn3" dataHost="dhost1" database="db3" /> <dataHost name="dhost1" maxCon="1000" minCon="10" balance="1" writeType="0" dbType="mysql" dbDriver="native"> <heartbeat>select user()</heartbeat> <writeHost host="hostM1" url="localhost:3306" user="xxx" password="xxx"> </writeHost> </dataHost> </mycat:schema>
分片表,是指那些有很大数据,须要切分到多个数据库的表,这样每一个分片都有一部分数据,全部分片构成了完整 的数据。mysql
<table name="t_goods" primaryKey="vid" autoIncrement="true" dataNode="dn1,dn2" rule="rule1" />
一个数据库中并非全部的表都很大,某些表是能够不用进行切分的,非分片是相对分片表来讲的,就是那些不需 要进行数据切分的表。linux
<table name="t_node" primaryKey="vid" autoIncrement="true" dataNode="dn1" />
示例算法
商家表,数据量500万内。sql
CREATE TABLE t_shops( id bigint PRIMARY KEY AUTO_INCREMENT, name varchar(100) not null );
<table name="t_shops" primaryKey="id" dataNode="dn1" />
INSERT INTO t_shops(name) values('xxx');
Mycat 中的ER 表是基于E-R 关系的数据分片策略,子表的记录与所关联的父表记录存放在同一个数据分片上,保证 数据Join 不会跨库操做。数据库
ER分片是解决跨分片数据join 的一种很好的思路,也是数据切分规划的一条重要规则。windows
<table name="customer" primaryKey="ID" dataNode="dn1,dn2" rule="sharding-by-intfile"> <childTable name="orders" primaryKey="ID" joinKey="customer_id" parentKey="id"> <childTable name="order_items" joinKey="order_id" parentKey="id" /> </childTable> </table>
一个真实的业务系统中,每每存在大量的相似字典表的表,这些表基本上不多变更。数组
问题:业务表每每须要和字典表Join查询,当业务表由于规模而进行分片之后,业务表与字典表之间的关联跨库 了。服务器
解决:Mycat中经过表冗余来解决这类表的join,即它的定义中指定的dataNode上都有一份该表的拷贝。(将字典 表或者符合字典表特性的表定义为全局表。 )
<table name="company" primaryKey="ID" type="global" dataNode="dn1,dn2,dn3" />
示例:
省份表 t_province,在各数据节点所在库上分别建立全局表:
CREATE TABLE t_province( id INT PRIMARY KEY, name varchar(100) not null );
<table name="t_province" primaryKey="ID" type="global" dataNode="dn1,dn2,dn3" />
重启mycat服务
插入数据看看
INSERT INTO t_province(id,name) values(1001,'浙江'); INSERT INTO t_province(id,name) values(1002,'江苏'); INSERT INTO t_province(id,name) values(1003,'上海'); INSERT INTO t_province(id,name) values(1004,'广东');
两个数据节点库上都同时写入了该数据。
在conf/rule.xml中定义分片规则:
<?xml version="1.0" encoding="UTF-8"?> <!DOCTYPE mycat:rule SYSTEM "rule.dtd"> <mycat:rule xmlns:mycat="http://io.mycat/"> <tableRule name="rule1"> <rule> <columns>id</columns> <algorithm>func1</algorithm> </rule> </tableRule> <function name="func1" class="io.mycat.route.function.PartitionByLong"> <property name="partitionCount">8</property> <property name="partitionLength">128</property> </function> </mycat:rule>
tableRule标签说明:
name 属性指定惟一的名字,用于标识不一样的表规则。
内嵌的rule 标签则指定对物理表中的哪一列进行拆分和使用什么路由算法。
● columns 内指定要拆分的列名字。
● algorithm 使用function 标签中的name 属性。链接表规则和具体路由算法。固然,多个表规则能够链接到同一个路由算法上。table 标签内使用。让逻辑表使用这个规则进行分片。
function标签说明:
name 指定算法的名字。
class 制定路由算法具体的类名字。
property 为具体算法须要用到的一些属性
分表分库虽然能解决大表对数据库系统的压力,但它并非万能的,也有一些不利之处,所以首要问题是分不分 库,分哪些库,什么规则分,分多少分片。
原则一:能不分就不分,1000 万之内的表,不建议分片,经过合适的索引,读写分离等方式,能够很好的解决性能问题。
原则二:分片数量尽可能少,分片尽可能均匀分布在多个DataHost 上,由于一个查询SQL 跨分片越多,则整体性能越差,虽然要好于全部数据在一个分片的结果,只在必要的时候进行扩容,增长分片数量。
原则三:分片规则须要慎重选择,分片规则的选择,须要考虑数据的增加模式,数据的访问模式,分片关联性问题,以及分片扩容问题,最经常使用的分片策略为范围分片,枚举分片,一致性Hash 分片,这几种分片都有利于扩容。
原则四:尽可能不要在一个事务中的SQL 跨越多个分片,分布式事务一直是个很差处理的问题。
原则五:查询条件尽可能优化,尽可能避免Select * 的方式,大量数据结果集下,会消耗大量带宽和CPU 资源,查询尽可能避免返回大量结果集,而且尽可能为频繁使用的查询语句创建索引。
这里特别强调一下分片规则的选择问题,若是某个表的数据有明显的时间特征,好比订单、交易记录等,则他们通 常比较合适用时间范围分片,由于具备时效性的数据,咱们每每关注其近期的数据,查询条件中每每带有时间字段 进行过滤,比较好的方案是,当前活跃的数据,采用跨度比较短的时间段进行分片,而历史性的数据,则采用比较 长的跨度存储。
整体上来讲,分片的选择是取决于最频繁的查询SQL 的条件,由于不带任何Where 语句的查询SQL,会便利全部的 分片,性能相对最差,所以这种SQL 越多,对系统的影响越大,因此咱们要尽可能避免这种SQL 的产生。
SQL统计分析
如何准确统计和分析当前系统中最频繁的SQL 呢?有几个简单作法:
● 采用特殊的JDBC 驱动程序,拦截全部业务SQL,并写程序进行分析
● 采用Mycat 的SQL 拦截器机制,写一个插件,拦截所欲SQL,并进行统计分析
● 打开MySQL 日志,分析统计全部SQL。
找出每一个表最频繁的SQL,分析其查询条件,以及相互的关系,并结合ER 图,就能比较准确的选择每一个表的分片 策略。
库内分表说明
对于你们常常提起的同库内分表的问题,这里作一些分析和说明,同库内分表,仅仅是单纯的解决了单一表数据过 大的问题,因为没有把表的数据分布到不一样的机器上,所以对于减轻MySQL 服务器的压力来讲,并无太大的做 用,你们仍是竞争同一个物理机上的IO、CPU、网络。
此外,库内分表的时候,要修改用户程序发出的SQL,能够想象一下A、B 两个表各自分片5 个分表状况下的Join SQL 会有多么的反人类。这种复杂的SQL 对于DBA 调优来讲,也是个很大的问题。所以,Mycat 和一些主流的数 据库中间件,都不支持库内分表,但因为MySQL 自己对此有解决方案,因此能够与Mycat 的分库结合,作到最佳 效果,下面是MySQL 的分表方案:
●MySQL 分区;
●MERGE 表(MERGE 存储引擎)。
通俗地讲MySQL 分区是将一大表,根据条件分割成若干个小表。mysql5.1 开始支持数据表分区了。如:某用户表 的记录超过了600 万条,那么就能够根据入库日期将表分区,也能够根据所在地将表分区。固然也可根据其余的条 件分区。
MySQL 分区支持的分区规则有如下几种:
●RANGE 分区:基于属于一个给定连续区间的列值,把多行分配给分区。
●LIST 分区:相似于按RANGE 分区,区别在于LIST 分区是基于列值匹配一个离散值集合中的某个值来进行选择。
●HASH 分区:基于用户定义的表达式的返回值来进行选择的分区,该表达式使用将要插入到表中的这些行的列值进行计算。这个函数能够包含MySQL 中有效的、产生非负整数值的任何表达式。
●KEY 分区:相似于按HASH 分区,区别在于KEY 分区只支持计算一列或多列,且MySQL 服务器提供其自身的哈希函数。必须有一列或多列包含整数值。
在Mysql 数据库中,Merge 表有点相似于视图,mysql 的merge 引擎类型容许你把许多结构相同的表合并为一个 表。以后,你能够执行查询,从多个表返回的结果就像从一个表返回的结果同样。每个合并的表必须有彻底相同 表的定义和结构,可是只支持MyISAM 引擎。
Mysql Merge 表的优势:
●分离静态的和动态的数据;
●利用结构接近的的数据来优化查询;
●查询时能够访问更少的数据;
●更容易维护大数据集。
在数据量、查询量较大的状况下,不要试图使用Merge 表来达到相似于Oracle 的表分区的功能,会很影响性能。 个人感受是和union 几乎等价。
Mycat 建议的方案是Mycat 分库+MySQL 分区,此方案具备如下优点:
●充分结合分布式的并行能力和MySQL 分区表的优化;
●能够灵活的控制表的数据规模;
●能够两个维度对表进行分片,MyCAT 一个维度分库,MySQL 一个维度分区。
1. 达到必定数量级才拆分(800 万)
2. 不到800 万但跟大表(超800 万的表)有关联查询的表也要拆分,在此称为大表关联表
3. 大表关联表如何拆:小于100 万的使用全局表;大于100 万小于800 万跟大表使用一样的拆分策略;没法跟大表使用相同规则的,能够考虑从java 代码上分步骤查询,不用关联查询,或者破例使用全局表。
4. 破例的全局表:如item_sku 表250 万,跟大表关联了,又没法跟大表使用相同拆分策略,也作成了全局表。破例的全局表必须知足的条件:没有太激烈的并发update,如多线程同时update 同一条id=1 的记录。虽有多线程update,但不是操做同一行记录的不在此列。多线程update 全局表的同一行记录会死锁。批量insert没问题。
5. 拆分字段是不可修改的
6. 拆分字段只能是一个字段,若是想按照两个字段拆分,必须新建一个冗余字段,冗余字段的值使用两个字段的值拼接而成(如大区+年月拼成zone_yyyymm 字段)。
7. 拆分算法的选择和合理性评判:按照选定的算法拆分后每一个库中单表不得超过800 万
8. 能不拆的就尽可能不拆。若是某个表不跟其余表关联查询,数据量又少,直接不拆分,使用单库便可。
DataNode 表明MySQL 数据库上的一个Database,所以一个分片表的DataNode 的分布可能有如下几种:
●都在一个DataHost 上
●在几个DataHost 上,但有连续性,好比dn1 到dn5 在Server1 上,dn6 到dn10 在Server2 上,依次类推
●在几个DataHost 上,但均匀分布,好比dn1,dn2,d3 分别在Server1,Server2,Server3 上,dn4 到dn5 又重复如此
通常状况下,不建议第一种,二对于范围分片来讲,在大多数状况下,最后一种状况最理想,由于当一个表的数据 均匀分布在几个物理机上的时候,跨分片查询或者随机查询,都是到不一样的机器上去执行,并行度最高,IO 竞争 也最小,所以性能最好。
当咱们有几十个表都分片的状况下,怎样设计DataNode 的分布问题,就成了一个难题,解决此难题的最好方式是 试运行一段时间,统计观察每一个DataNode 上的SQL 执行状况,看是否有严重不均匀的现象产生,而后根据统计结 果,从新映射DataNode 到DataHost 的关系。
Mycat 1.4 增长了distribute 函数,能够用于Table 的dataNode 属性上,表示将这些dataNode 在该Table 的分片 规则里的引用顺序从新安排,使得他们能均匀分布到几个DataHost 上:
<table name="oc_call" primaryKey="ID" dataNode="distribute(dn1$0-372,dn2$0-372)" rule="latest-monthcalldate"/>
其中dn1xxx 与dn2xxxx 是分别定义在DataHost1 上与DataHost2 上的377 个分片
1 分片枚举(列表分片)
经过在配置文件中配置可能的枚举id,本身配置分片,本规则适用于特定的场景,好比有些业务须要按照省份或区 县来作保存,而全国省份区县固定的,这类业务使用本条规则,配置以下:
<tableRule name="sharding-by-intfile"> <rule> <columns>user_id</columns> <algorithm>enum-func</algorithm> </rule> </tableRule> <function name="enum-func" class="io.mycat.route.function.PartitionByFileMap"> <property name="mapFile">sharding-by-enum.txt</property> <property name="type">0</property> <property name="defaultNode">0</property> </function>
function分片函数中配置说明:
●算法实现类为:io.mycat.route.function.PartitionByFileMap
●mapFile 标识配置文件名称;
●type 默认值为0,0 表示Integer,非零表示String;
●defaultNode defaultNode 默认节点:小于0 表示不设置默认节点,大于等于0 表示设置默认节点为第几个数据节点。
默认节点的做用:枚举分片时,若是碰到不识别的枚举值,就让它路由到默认节点 若是不配置默认节点
(defaultNode 值小于0 表示不配置默认节点),碰到不识别的枚举值就会报错。
like this:can’t find datanode for sharding column:column_name val:ffffffff
●sharding-by-enum.txt 放置在conf/下,配置内容示例:
10000=0 #字段值为10000的放到0号数据节点 10010=1
示例
客户表t_customer
CREATE TABLE t_customer( id BIGINT PRIMARY KEY, name varchar(100) not null, province int not null );
按省份进行数据分片,表配置:
<table name="t_customer" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="sharding-by-province" />
分片规则配置 rule.xml:
<mycat:rule xmlns:mycat="http://io.mycat/"> <tableRule name="sharding-by-province"> <rule> <columns>province</columns> <algorithm>sharding-by-province-func</algorithm> </rule> </tableRule> <function name="sharding-by-province-func" class="io.mycat.route.function.PartitionByFileMap"> <property name="mapFile">sharding-by-province.txt</property> <property name="type">0</property> <property name="defaultNode">0</property> </function> </mycat:rule>
sharding-by-province.txt文件中枚举分片
1001=0 1002=1 1003=2 1004=0
测试:插入数据
insert into t_customer(name,province) values('xxx01',1001); insert into t_customer(name,province) values('xxx02',1002); insert into t_customer(name,province) values('xxx03',1003); insert into t_customer(name,province) values('xxx04',1004); insert into t_customer(name,province) values('xxx05',1005);
此分片适用于,提早规划好分片字段某个范围属于哪一个分片
<tableRule name="range-sharding"> <rule> <columns>user_id</columns> <algorithm>rang-long</algorithm> </rule> </tableRule> <function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong"> <property name="mapFile">range-partition.txt</property> <property name="defaultNode">0</property> </function>
配置说明:
●mapFile 表明配置文件路径
●defaultNode 超过范围后的默认节点。
全部的节点配置都是从0 开始,及0 表明节点1。
mapFile中的定义规则:
start <= range <= end. range start-end=data node index K=1000,M=10000.
配置示例:
0-500M=0 500M-1000M=1 1000M-1500M=2
或
0-10000000=0 10000001-20000000=1
示例
在mycat中定义分片表:
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
<tableRule name="range-sharding-by-members-count"> <rule> <columns>members</columns> <algorithm>range-members-count</algorithm> </rule> </tableRule> <function name="range-members-count" class="io.mycat.route.function.AutoPartitionByLong"> <property name="mapFile">company-range-partition.txt</property> <property name="defaultNode">0</property> </function>
company-range-partition.txt中分片定义:
0-10=0 11-50=1 51-100=2 101-1000=0 1001-9999=1 10000-9999999=2
建立表
CREATE TABLE t_company( id BIGINT PRIMARY KEY, name varchar(100) not null, members int not null );
测试:
INSERT INTO t_company(name,members) VALUES('company01',10); INSERT INTO t_company(name,members) VALUES('company01',20); INSERT INTO t_company(name,members) VALUES('company01',200);
此规则为按日期段进行分片。
<tableRule name="sharding-by-date"> <rule> <columns>create_time</columns> <algorithm>sharding-by-date</algorithm> </rule> </tableRule> <function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate"> <property name="dateFormat">yyyy-MM-dd</property> <property name="sBeginDate">2018-01-01</property> <property name="sEndDate">2019-01-02</property> <property name="sPartionDay">10</property> </function>
配置说明:
●columns :标识将要分片的表字段
●algorithm :分片函数
●dateFormat :日期格式
●sBeginDate :开始日期
●sEndDate:结束日期
●sPartionDay :分区天数,即默认从开始日期算起,分隔10 天一个分区
sBeginDate,sEndDate配置状况说明:
● sBeginDate,sEndDate 都有指定
此时表的dataNode 数量的>=这个时间段算出的分片数,不然启动时会异常:
Exception in thread "main" java.lang.ExceptionInInitializerError at io.mycat.MycatStartup.main(MycatStartup.java:53) Caused by: io.mycat.config.util.ConfigException: Illegal table conf : table [ T_ORDER ] rule function [ shardi partition size : 4 > table datanode size : 3, please make sure table datanode size = function partition size
若是配置了sEndDate 则表明数据达到了这个日期的分片后循环从开始分片插入
● 没有指定 sEndDate 的状况
数据分片将依次存储到dataNode上,数据分片随时间增加,所需的dataNode数也随之增加,当超出了为该 表配置的dataNode数时,将获得以下异常信息:
[SQL] INSERT INTO t_order(order_time,customer_id,order_amount) VALUES ('2019-02-05',1001,203); [Err] 1064 - Can't find a valid data node for specified node index :T_ORDER -> ORDER_TIME -> 2019-02-05 -> Index : 3
示例
<table name="t_order" primaryKey="order_id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="order-sharding-by-date" />
<tableRule name="order-sharding-by-date"> <rule> <columns>order_time</columns> <algorithm>sharding-by-date</algorithm> </rule> </tableRule> <function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate"> <property name="dateFormat">yyyy-MM-dd</property> <property name="sBeginDate">2019-01-01</property> <property name="sEndDate">2019-02-02</property> <property name="sPartionDay">20</property> </function>
CREATE TABLE t_order ( order_id BIGINT PRIMARY KEY, order_time DATETIME, customer_id BIGINT, order_amount DECIMAL(8,2) );
测试
INSERT INTO t_order(order_time,customer_id,order_amount) VALUES ('2019-01-05',1001,201); INSERT INTO t_order(order_time,customer_id,order_amount) VALUES ('2019-01-25',1001,202); INSERT INTO t_order(order_time,customer_id,order_amount) VALUES ('2019-02-15',1001,203); INSERT INTO t_order(order_time,customer_id,order_amount) VALUES ('2019-03-15',1001,203);
请去看数据的分布!
按月份列分区,每一个天然月一个分片。
<tableRule name="sharding-by-month"> <rule> <columns>create_time</columns> <algorithm>sharding-by-month</algorithm> </rule> </tableRule> <function name="sharding-by-month" class="io.mycat.route.function.PartitionByMonth"> <property name="dateFormat">yyyy-MM-dd</property> <property name="sBeginDate">2014-01-01</property> </function>
配置说明:
●columns: 分片字段,字符串类型
●dateFormat : 日期字符串格式,默认为yyyy-MM-dd
●sBeginDate : 开始日期,无默认值
●sEndDate:结束日期,无默认值
●节点从0 开始分片
使用场景:
场景1:默认设置(不指定sBeginDate、sEndDate)
节点数量必须是12 个,对应1 月~12 月
●"2017-01-01" = 节点0
●"2018-01-01" = 节点0
●"2018-05-01" = 节点4
●"2019-12-01" = 节点11
场景2 :仅指定sBeginDate
sBeginDate = "2017-01-01" 该配置表示"2017-01 月"是第0 个节点,从该时间按月递增,无最大节点
●"2014-01-01" = 未找到节点
●"2017-01-01" = 节点0
●"2017-12-01" = 节点11
●"2018-01-01" = 节点12
●"2018-12-01" = 节点23
场景3: 指定sBeginDate=1月、sEndDate=12月
sBeginDate = "2015-01-01" sEndDate = "2015-12-01" 该配置可当作与场景1 一致。
●"2014-01-01" = 节点0
●"2014-02-01" = 节点1
●"2015-02-01" = 节点1
●"2017-01-01" = 节点0
· ●"2017-12-01" = 节点11
●"2018-12-01" = 节点11
场景4:
sBeginDate = "2015-01-01"sEndDate = "2015-03-01" 该配置表示只有3 个节点;很难与月份对应上;平均分散到 3 个节点上
此规则为对分片字段进行十进制运算,来分片数据。
<tableRule name="mod-sharding"> <rule> <columns>user_id</columns> <algorithm>mod-fun</algorithm> </rule> </tableRule> <function name="mod-fun" class="io.mycat.route.function.PartitionByMod"> <!-- how many data nodes --> <property name="count">3</property> </function>
配置说明:
●count 指明dataNode 的数量,是求模的基数
此种在批量插入时可能存在批量插入单事务插入多数据分片,增大事务一致性难度
此种规则是取模运算与范围约束的结合,主要为了后续数据迁移作准备,便可以自主决定取模后数据的节点 分布
<tableRule name="sharding-by-pattern"> <rule> <columns>user_id</columns> <algorithm>sharding-by-pattern</algorithm> </rule> </tableRule> <function name="sharding-by-pattern" class="io.mycat.route.function.PartitionByPattern"> <property name="patternValue">256</property> <property name="defaultNode">2</property> <property name="mapFile">partition-pattern.txt</property> </function>
partition-pattern.txt
1-32=0 #余数为1-32的放到数据节点0上 33-64=1 65-96=2 97-128=3 129-160=4 161-192=5 193-224=6 225-256=7 0-0=7
配置说明:
●patternValue 即求模基数
●defaoultNode 默认节点,若是配置了默认节点,若是id 非数据,则会分配在defaoultNode 默认节点
●mapFile 指定余数范围分片配置文件
本条规则相似于十进制的求模范围分片,区别在因而二进制的操做,是分片列值的二进制低10 位&1111111111。 此算法的优势在于若是按照10 进制取模运算,在连续插入1-10 时候1-10 会被分到1-10 个分片,增大了插入的事 务控制难度,而此算法根据二进制则可能会分到连续的分片,减小插入事务控制难度。
二进制低10&1111111111 的结果是 0-1023 一共是1024个值,按范围分红多个连续的片(最大1024个片)
<tableRule name="rule1"> <rule> <columns>user_id</columns> <algorithm>func1</algorithm> </rule> </tableRule> <function name="func1" class="io.mycat.route.function.PartitionByLong"> <property name="partitionCount">2,1</property> <property name="partitionLength">256,512</property> </function>
配置说明:
●partitionCount 分片个数列表。
●partitionLength 分片范围列表
分区长度:默认为最大2^n=1024 ,即最大支持1024 分区
约束:
●count,length 两个数组的长度必须是一致的。
●1024 = sum((count[i] * length[i])),count 和length 两个向量的点积恒等于1024
用法例子:
本例的分区策略:但愿将数据水平分红3 份,前两份各占25%,第三份占50%。(本例非均匀分区)
// |<——————— 1024 ———————————>| // |<—- 25 6—>|<—- 256 —>|<———-512————->| // | partition0 | partition1 | partition2 |
共2 份,故count[0]=2 | 共1 份,故count[1]=1 |
若是须要平均分配设置:平均分为4 分片,partitionCount*partitionLength=1024
<function name="func1" class="io.mycat.route.function.PartitionByLong"> <property name="partitionCount">4</property> <property name="partitionLength">256</property> </function>
先进行范围分片计算出分片组,组内再求模。
优势能够避免扩容时的数据迁移,又能够必定程度上避免范围分片的热点问题。综合了范围分片和求模分片的优
点,分片组内使用求模能够保证组内数据比较均匀,分片组之间是范围分片能够兼顾范围查询。
最好事先规划好分片的数量,数据扩容时按分片组扩容,则原有分片组的数据不须要迁移。因为分片组内数据比 较均匀,因此分片组内能够避免热点数据问题。
<tableRule name="auto-sharding-rang-mod"> <rule> <columns>id</columns> <algorithm>rang-mod</algorithm> </rule> </tableRule> <function name="rang-mod" class="io.mycat.route.function.PartitionByRangeMod"> <property name="mapFile">partition-range-mod.txt</property> <property name="defaultNode">21</property> </function>
配置说明:
●mapFile 配置文件路径
●defaultNode 超过范围后的默认节点顺序号,节点从0 开始。
partition-range-mod.txt 如下配置一个范围表明一个分片组,=号后面的数字表明该分片组所拥有的分片的数量。
0-200M=5 //表明有5个分片节点 200M1-400M=1 400M1-600M=4 600M1-800M=4 800M1-1000M=6
一致性hash 算法有效解决了分布式数据的扩容问题。
<tableRule name="sharding-by-murmur"> <rule> <columns>user_id</columns> <algorithm>murmur</algorithm> </rule> </tableRule> <function name="murmur" class="io.mycat.route.function.PartitionByMurmurHash"> <!-- 默认是0--> <property name="seed">0</property> <!-- 要分片的数据库节点数量,必须指定,不然无法分片--> <property name="count">2</property> <!-- 一个实际的数据库节点被映射为多少个虚拟节点,默认是160 --> <property name="virtualBucketTimes">160</property> <!-- <property name="weightMapFile">weightMapFile</property> 节点的权重,没有指定权重的节点默认是1。以properties 文件的格式填写,以从0 开始到count-1 的整数值也 就是节点索引为key,以节点权重值为值。全部权重值必须是正整数,不然以1 代替--> <!-- <property name="bucketMapPath">/etc/mycat/bucketMapPath</property> 用于测试时观察各物理节点与虚拟节点的分布状况,若是指定了这个属性,会把虚拟节点的murmur hash 值与物理 节点的映射按行输出到这个文件,没有默认值,若是不指定,就不会输出任何东西--> </function>
此规则是在运行阶段有应用自主决定路由到那个分片。
<tableRule name="sharding-by-substring"> <rule> <columns>user_id</columns> <algorithm>sharding-by-substring</algorithm> </rule> </tableRule> <function name="sharding-by-substring" class="io.mycat.route.function.PartitionDirectBySubString"> <property name="startIndex">0</property><!-- zero-based --> <property name="size">2</property> <property name="partitionCount">8</property> <property name="defaultPartition">0</property> </function>
配置说明:
此方法为直接根据字符子串(必须是数字)计算分区号(由应用传递参数,显式指定分区号)。 例如id=05- 100000002 在此配置中表明根据id 中从startIndex=0,开始,截取siz=2 位数字即05,05 就是获取的分区,若是 没传 默认分配到defaultPartition
此种规则相似于取模范围约束,只是计算的数值是取前几个字符的ASCII值和,再取模,再对余数范围分片。
<tableRule name="sharding-by-prefixpattern"> <rule> <columns>user_id</columns> <algorithm>sharding-by-prefixpattern</algorithm> </rule> </tableRule> <function name="sharding-by-pattern" class="io.mycat.route.function.PartitionByPrefixPattern"> <property name="patternValue">256</property> <property name="prefixLength">5</property> <property name="mapFile">partition-pattern.txt</property> </function>
partition-pattern.tx
range start-end =data node index
#ASCII #8-57=0-9 阿拉伯数字 #6四、65-90=@、A-Z #97-122=a-z 1-4=0 # 余数1-4的放到0号数据节点 5-8=1 9-12=2 13-16=3 17-20=4 21-24=5 25-28=6 29-32=7 0-0=7
配置说明:
●patternValue 即求模基数,
●prefixLength ASCII 截取的位数,求这几位字符的ASCII码值的和,再求余patternValue
●mapFile 配置文件路径,配置文件中配置余数范围分片规则。
在实现分库分表的状况下,数据库自增主键已没法保证自增主键的全局惟一。
CREATE TABLE t_customer( id BIGINT PRIMARY KEY, name varchar(100) not null, province int not null );
<table name="t_customer" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="sharding-by-province" />
为此,MyCat 提供了全局sequence,而且提供了包含本地配置和数据库配置等多种实现方式。
原理:此方式MyCAT 将sequence 配置到文件中,当使用到sequence 中的配置后,MyCAT 会更新 conf中的 sequence_conf.properties 文件中sequence 当前的值。
配置方式:
一、在sequence_conf.properties 文件中作以下配置:
GLOBAL.HISIDS= GLOBAL.MINID=1001 GLOBAL.MAXID=1000000000 GLOBAL.CURID=1000
其中HISIDS 表示使用过的历史分段(通常无特殊须要可不配置),MINID 表示最小ID 值,MAXID 表示最大 ID 值, CURID 表示当前ID 值。
二、server.xml 中配置:
<system><property name="sequnceHandlerType">0</property></system>
注:sequnceHandlerType 须要配置为0,表示使用本地文件方式。
使用示例:
insert into table1(id,name) values( 10044,‘test’);
缺点:当MyCAT 从新发布后,配置文件中的sequence 会恢复到初始值。 优势:本地加载,读取速度较快。
为表配置主键自增值的序列:
规则:在sequence_conf.properties 中配置以表名为名的序列
T_COMPANY.CURID=501 T_COMPANY.MINID=1 T_COMPANY.MAXID=1000000000
就可使用了。
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
INSERT INTO t_company(name,members) VALUES('company06',200); select * from t_company;
原理
在数据库中创建一张表,存放sequence 名称(name),sequence 当前值(current_value),步长(increment int类 型,每次读取多少个sequence)等信息;
Sequence 获取步骤:
1. 当初次使用该sequence 时,根据传入的sequence 名称,从数据库这张表中读取current_value,和increment 到MyCat 中,并将数据库中的current_value 设置为原current_value 值+increment 值。
2. MyCat 将读取到current_value+increment 做为本次要使用的sequence 值,下次使用时,自动加1,当使用increment 次后,执行步骤1)相同的操做。
MyCat 负责维护这张表,用到哪些sequence,只须要在这张表中插入一条记录便可。若某次读取的 sequence 没 有用完,系统就停掉了,则此次读取的sequence 剩余值不会再使用。
配置方式:
server.xml 配置:
<system><property name="sequnceHandlerType">1</property></system>
注:sequnceHandlerType 须要配置为1,表示使用数据库方式生成sequence。
数据库配置:
1) 建立MYCAT_SEQUENCE 表
-- 建立存放sequence 的表 DROP TABLE IF EXISTS MYCAT_SEQUENCE; -- name sequence 名称 -- current_value 当前value -- increment 增加步长! 可理解为mycat 在数据库中一次读取多少个sequence. 当这些用完后, 下次再从数据库中 读取。 CREATE TABLE MYCAT_SEQUENCE ( name VARCHAR(50) NOT NULL, current_value INT NOT NULL, increment INT NOT NULL DEFAULT 100, PRIMARY KEY(name)); -- 插入一条sequence INSERT INTO MYCAT_SEQUENCE(name,current_value,increment) VALUES ('GLOBAL', 100000, 100);
2) 建立相关function
-- 获取sequence当前值(返回当前值,增量)的函数 DROP FUNCTION IF EXISTS mycat_seq_currval; CREATE FUNCTION mycat_seq_currval(seq_name VARCHAR(50)) RETURNS varchar(64) BEGIN DECLARE retval VARCHAR(64); SET retval='-999999999,null'; SELECT concat(CAST(current_value AS CHAR),',',CAST(increment AS CHAR)) INTO retval FROM MYCAT_SEQUENCE WHERE name = seq_name; RETURN retval; END; -- 设置sequence 值的函数 DROP FUNCTION IF EXISTS mycat_seq_setval; CREATE FUNCTION mycat_seq_setval(seq_name VARCHAR(50),value INTEGER) RETURNS varchar(64) BEGIN UPDATE MYCAT_SEQUENCE SET current_value = value WHERE name = seq_name; RETURN mycat_seq_currval(seq_name); END; -- 获取下一个sequence 值 DROP FUNCTION IF EXISTS mycat_seq_nextval; CREATE FUNCTION mycat_seq_nextval(seq_name VARCHAR(50)) RETURNS varchar(64) BEGIN UPDATE MYCAT_SEQUENCE SET current_value = current_value + increment WHERE name = seq_name; RETURN mycat_seq_currval(seq_name); END;
注意:MYCAT_SEQUENCE 表和以上的3 个function,须要放在同一个节点上。function 请直接在具体节点的数据 库上执行,若是执行的时候报: you might want to use the less safe log_bin_trust_function_creators variable
须要对数据库作以下设置: windows 下my.ini[mysqld]加上log_bin_trust_function_creators=1 linux 下/etc/my.cnf 下my.ini[mysqld]加上log_bin_trust_function_creators=1 修改完后,便可在mysql 数据库中执行 上面的函数。
3) sequence_db_conf.properties 相关配置,指定sequence 相关配置在哪一个节点上:
例如:
USER_SEQ=test_dn1
使用示例:
insert into table1(id,name) values( 10044,'test');
配置表的主键自增使用序列:
1 在序列定义表中增长名字为表名的序列:
INSERT INTO MYCAT_SEQUENCE(name,current_value,increment) VALUES ('T_COMPANY', 1,100);
2 在sequence_db_conf.properties中增长表的序列配置
T_COMPANY=dn1
3 主键自增就可使用了
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
INSERT INTO t_company(name,members) VALUES('company08',200); select * from t_company;
原理:
ID= 64 位二进制:42(毫秒)+5(机器ID)+5(业务编码)+12(重复累加)
换算成十进制为18 位数的long 类型,每毫秒能够并发12 位二进制的累加。
使用方式:
1 配置server.xml
<property name="sequnceHandlerType">2</property>
2 在mycat 下配置:sequence_time_conf.properties
WORKID=0-31 任意整数 表示机器id(或mycat实例id) DATAACENTERID=0-31 任意整数 业务编码
多个mycat 节点下每一个mycat 配置的WORKID,DATAACENTERID 不一样,组成惟一标识,总共支持32*32=1024 种 组合。
ID 示例:56763083475511 。
主键自增配置
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
INSERT INTO t_company(name,members) VALUES('company09',200); select * from t_company;
<property name="sequnceHandlerType">3</property>
配置
1 Zk 的链接信息统一在myid.properties 的zkURL 属性中配置。此只需关注zkURL。
loadZk=false zkURL=127.0.0.1:2181 clusterId=mycat-cluster-1 myid=mycat_fz_01 clusterSize=3 clusterNodes=mycat_fz_01,mycat_fz_02,mycat_fz_04 #server booster ; booster install on db same server,will reset all minCon to 2 type=server boosterDataHosts=dataHost1
基于ZK 与本地配置的分布式ID 生成器,ID 结构:long 64 位,ID 最大可占63 位:
● |current time millis(微秒时间戳38 位,可使用17 年)|clusterId(机房或者ZKid,经过配置文件配置5位)|instanceId(实例ID,能够经过ZK 或者配置文件获取,5 位)|threadId(线程ID,9 位)|increment(自增,6 位)
● 一共63 位,能够承受单机房单机器单线程1000*(2^6)=640000 的并发。
● 无悲观锁,无强竞争,吞吐量更高
2 配置文件:sequence_distributed_conf.properties,只要配置里面:INSTANCEID=ZK 就是从ZK 上获取 InstanceID。(能够经过ZK 获取集群(机房)惟一InstanceID,也能够经过配置文件配置InstanceID)
测试:
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
INSERT INTO t_company(name,members) VALUES('company10',200); select * from t_company;
<property name="sequnceHandlerType">4</property>
Zk 的链接信息统一在myid.properties 的zkURL 属性中配置。
配置:
配置文件:sequence_conf.properties 只要配置好ZK 地址和表名的以下属性
●TABLE.MINID 某线程当前区间内最小值
●TABLE.MAXID 某线程当前区间内最大值
●TABLE.CURID 某线程当前区间内当前值
文件配置的MAXID 以及MINID 决定每次取得区间,这个对于每一个线程或者进程都有效。文件中的这三个属性配置 只对第一个进程的第一个线程有效,其余线程和进程会动态读取ZK
测试:
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
INSERT INTO t_company(name,members) VALUES('company12',200); select * from t_company;
咱们配置分片表主键自增。
<table name="t_company" primaryKey="id" autoIncrement="true" dataNode="dn1,dn2,dn3" rule="range-sharding-by-members-count" />
如需经过 select last_insert_id() 来得到自增主键值,则表定义中主键列需是自增的AUTO_INCREMENT:
CREATE TABLE t_company( id BIGINT PRIMARY KEY AUTO_INCREMENT, name varchar(100) not null, members int not null );
若是没有指定 AUTO_INCREMENT,则select last_insert_id() 获取不到刚插入数据的主键值。
CREATE TABLE t_company( id BIGINT PRIMARY KEY, name varchar(100) not null, members int not null );
Mybatis 中新增记录后获取last_insert_id 的示例:
<insert id="insert" parameterType="com.study.user.model.User"> insert into t_user (user_name,login_name,login_pwd,role_id) values(#{userName},#{loginName},#{loginPwd},#{roleId}) <selectKey resultType="java.lang.Long" order="AFTER" keyProperty="id"> select last_insert_id() as id </selectKey> </insert>