SpringBoot 2.3 整合最新版 ShardingJdbc + Druid + MyBatis

今天项目不忙,想搞一下shardingJDBC分库分表看看,主要想实现如下几点:css

  1. 舍弃xml配置,使用.yml或者.properties文件+java的方式配置spring。
  2. 使用 Druid 做为数据库链接池,同时开启监控界面,并支持监控多数据源。
  3. 不依赖 com.dangdang  sharding-jdbc-core 包。此包过于古老,最后一次更新在2016年。目测只是封装了一层,意义不大。感受若是不是dangdang公司内部开发,不必用这个包。(且本人实测不能和最新的Druid包一块儿用,insert语句报错)

  折腾了半天,网上找的例子大部分跑不通。直接本身从零开搞,所有组件直接上当前最新版本。java

  SpringBoot: 2.3.0mysql

  mybatis: 2.1.3web

  druid: 1.1.22算法

  sharding-jdbc: 4.1.1spring

  注意:这里由于是本身边看源码边配置,(sharding官网的例子多是版本问题基本无法用,GitHub 我这里网络基本打不开),因此数据源和sharding大部分用java代码配置。部分配置,应该能够简化到 .yml / .properties 文件中。如您有兴趣优化,成功后可发一份demo给116269651@qq.com,感谢。sql

Sharding-JDBC简介

  Apache ShardingSphere 是一套开源的分布式数据库中间件解决方案组成的生态圈,它由 JDBC、Proxy 和 Sidecar(规划中)这 3 款相互独立,却又可以混合部署配合使用的产品组成。数据库

  Sharding-JDBC定位为轻量级 Java 框架,在 Java 的 JDBC 层提供的额外服务。 它使用客户端直连数据库,以 jar 包形式提供服务,无需额外部署和依赖,可理解为加强版的 JDBC 驱动,彻底兼容 JDBC 和各类 ORM 框架。apache

  • 适用于任何基于 JDBC 的 ORM 框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template 或直接使用 JDBC。
  • 支持任何第三方的数据库链接池,如:DBCP, C3P0, BoneCP, Druid, HikariCP 等。
  • 支持任意实现JDBC规范的数据库。目前支持 MySQL,Oracle,SQLServer,PostgreSQL 以及任何遵循 SQL92 标准的数据库。

Sharding配置示意图

  简单的理解以下图,对sharding-jdbc进行配置,其实就是对全部须要进行分片的表进行配置。对表的配置,则主要是对分库的配置和分表的配置。这里能够只分库不分表,或者只分表不分库,或者同时包含分库和分表逻辑。api

  先看一下个人项目目录结构总体以下:

  

1、POM依赖配置

  完整的pom表以下,其中主要是对 mysql-connector-java、mybatis-spring-boot-starter、druid-spring-boot-starter、sharding-jdbc-core 的依赖。

  注意:sharding-jdbc-core 我用的4.0+的版本,由于已经晋升为 apache 基金会的顶级项目,其 groupId 变为了 org.apache.shardingsphere,以前是io.shardingsphere。

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <parent>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter-parent</artifactId>
        <version>2.3.0.RELEASE</version>
        <relativePath/> <!-- lookup parent from repository -->
    </parent>
    <groupId>com.example</groupId>
    <artifactId>shardingjdbc</artifactId>
    <version>0.0.1-SNAPSHOT</version>
    <name>shardingjdbc</name>
    <description>Demo project for Spring Boot</description>

    <properties>
        <!--<sharding.jdbc.version>3.0.0</sharding.jdbc.version>-->
        <java.version>1.8</java.version>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
        <dependency>
            <groupId>org.springframework</groupId>
            <artifactId>spring-tx</artifactId>
        </dependency>
        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <scope>runtime</scope>
        </dependency>
        <dependency>
            <groupId>org.mybatis.spring.boot</groupId>
            <artifactId>mybatis-spring-boot-starter</artifactId>
            <version>2.1.3</version>
        </dependency>
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>druid-spring-boot-starter</artifactId>
            <version>1.1.22</version>
        </dependency>
        <dependency>
            <groupId>org.apache.shardingsphere</groupId>
            <artifactId>sharding-jdbc-core</artifactId>
            <version>4.1.1</version>
        </dependency>
        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <optional>true</optional>
        </dependency>
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-test</artifactId>
            <scope>test</scope>
            <exclusions>
                <exclusion>
                    <groupId>org.junit.vintage</groupId>
                    <artifactId>junit-vintage-engine</artifactId>
                </exclusion>
            </exclusions>
        </dependency>
        <dependency>
            <groupId>log4j</groupId>
            <artifactId>log4j</artifactId>
            <version>1.2.16</version>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
            <version>1.7.5</version>
        </dependency>
    </dependencies>

    <build>
        <resources>
            <resource>
                <directory>src/main/java</directory>
                <includes>
                    <include>**/*.xml</include>
                </includes>
            </resource>
        </resources>
        <plugins>
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                    <encoding>UTF-8</encoding>
                </configuration>
            </plugin>
            <plugin>
                <groupId>org.springframework.boot</groupId>
                <artifactId>spring-boot-maven-plugin</artifactId>
            </plugin>
        </plugins>
    </build>

</project>

2、application.properties

  这里配置了两个数据源,目前还没试过自动装配多个数据源。为避免自动装备产生问题,属性前缀要和自动装备扫描的区分开,这里我用 datasource0  datasource1

  下面 spring.datasource.druid 开头的配置,会被 druid 的代码自动扫描装配。

#################################### common config : ####################################
spring.application.name=shardingjdbc
# 应用服务web访问端口
server.port=8080

# mybatis配置
mybatis.mapper-locations=classpath:com/example/shardingjdbc/mapper/*.xml
mybatis.type-aliases-package=com.example.shardingjdbc.**.entity

datasource0.url=jdbc:mysql://localhost:3306/test0?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=Asia/Shanghai
datasource0.driver-class-name=com.mysql.cj.jdbc.Driver
datasource0.type=com.alibaba.druid.pool.DruidDataSource
datasource0.username=root
datasource0.password=852278

datasource1.url=jdbc:mysql://localhost:3306/test1?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=Asia/Shanghai
datasource1.driver-class-name=com.mysql.cj.jdbc.Driver
datasource1.type=com.alibaba.druid.pool.DruidDataSource
datasource1.username=root
datasource1.password=852278

#
##### 链接池配置 #######
# 过滤器设置(第一个stat很重要,没有的话会监控不到SQL)
spring.datasource.druid.filters=stat,wall,log4j2

##### WebStatFilter配置 #######
#启用StatFilter
spring.datasource.druid.web-stat-filter.enabled=true
#添加过滤规则
spring.datasource.druid.web-stat-filter.url-pattern=/*
#排除一些没必要要的url
spring.datasource.druid.web-stat-filter.exclusions=*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*
#开启session统计功能
spring.datasource.druid.web-stat-filter.session-stat-enable=true
#缺省sessionStatMaxCount是1000个
spring.datasource.druid.web-stat-filter.session-stat-max-count=1000
#spring.datasource.druid.web-stat-filter.principal-session-name=
#spring.datasource.druid.web-stat-filter.principal-cookie-name=
#spring.datasource.druid.web-stat-filter.profile-enable=

##### StatViewServlet配置 #######
#启用内置的监控页面
spring.datasource.druid.stat-view-servlet.enabled=true
#内置监控页面的地址
spring.datasource.druid.stat-view-servlet.url-pattern=/druid/*
#关闭 Reset All 功能
spring.datasource.druid.stat-view-servlet.reset-enable=false
#设置登陆用户名
spring.datasource.druid.stat-view-servlet.login-username=admin
#设置登陆密码
spring.datasource.druid.stat-view-servlet.login-password=123
#白名单(若是allow没有配置或者为空,则容许全部访问)
spring.datasource.druid.stat-view-servlet.allow=127.0.0.1
#黑名单(deny优先于allow,若是在deny列表中,就算在allow列表中,也会被拒绝)
spring.datasource.druid.stat-view-servlet.deny=

 

3、数据源和分片配置

  以下代码,先从配置文件读取数据源的所须要的属性,而后生成 Druid 数据源。注意这里配置语句中的 setFilters,若是不添加 filters,则 Duird 监控界面没法监控到sql。另外,其余诸如最大链接数之类的属性这里没有配,按需配置便可。数据源建立好后,添加到 dataSourceMap 集合中。

  再往下注释比较清楚,构造 t_user 表的分片规则(包括分库规则 + 分表规则),而后将全部表的分片规则组装成 ShardingRuleConfiguration

  最后,将前两步配好的 dataSourceMap  shardingRuleConfiguration 交给 ShardingDataSourceFactory,用来构造数据源。

  到这里,sharding 、druid 的配置代码就都写好了。剩下基本都是业务代码了。

package com.example.shardingjdbc.config;

import com.alibaba.druid.pool.DruidDataSource;
import com.example.shardingjdbc.sharding.UserShardingAlgorithm;
import org.apache.shardingsphere.api.config.sharding.ShardingRuleConfiguration;
import org.apache.shardingsphere.api.config.sharding.TableRuleConfiguration;
import org.apache.shardingsphere.api.config.sharding.strategy.StandardShardingStrategyConfiguration;
import org.apache.shardingsphere.shardingjdbc.api.ShardingDataSourceFactory;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

import javax.sql.DataSource;
import java.util.HashMap;
import java.util.Map;
import java.util.Properties;

@Configuration
public class DataSourceConfig {
    @Value("${datasource0.url}")
    private String url0;
    @Value("${datasource0.username}")
    private String username0;
    @Value("${datasource0.password}")
    private String password0;
    @Value("${datasource0.driver-class-name}")
    private String driverClassName0;

    @Value("${datasource1.url}")
    private String url1;
    @Value("${datasource1.username}")
    private String username1;
    @Value("${datasource1.password}")
    private String password1;
    @Value("${datasource1.driver-class-name}")
    private String driverClassName1;

    @Value(("${spring.datasource.druid.filters}"))
    private String filters;

    @Bean("dataSource")
    public DataSource dataSource() {
        try {
            DruidDataSource dataSource0 = new DruidDataSource();
            dataSource0.setDriverClassName(this.driverClassName0);
            dataSource0.setUrl(this.url0);
            dataSource0.setUsername(this.username0);
            dataSource0.setPassword(this.password0);
            dataSource0.setFilters(this.filters);

            DruidDataSource dataSource1 = new DruidDataSource();
            dataSource1.setDriverClassName(this.driverClassName1);
            dataSource1.setUrl(this.url1);
            dataSource1.setUsername(this.username1);
            dataSource1.setPassword(this.password1);
            dataSource1.setFilters(this.filters);

            //分库设置
            Map<String, DataSource> dataSourceMap = new HashMap<>(2);
            //添加两个数据库database0和database1
            dataSourceMap.put("ds0", dataSource0);
            dataSourceMap.put("ds1", dataSource1);

            // 配置 t_user 表规则
            TableRuleConfiguration userRuleConfiguration = new TableRuleConfiguration("t_user", "ds${0..1}.t_user${0..1}");
            // 配置分表规则
            userRuleConfiguration.setTableShardingStrategyConfig(new StandardShardingStrategyConfiguration("id", UserShardingAlgorithm.tableShardingAlgorithm));
            // 配置分库规则
            userRuleConfiguration.setDatabaseShardingStrategyConfig(new StandardShardingStrategyConfiguration("id", UserShardingAlgorithm.databaseShardingAlgorithm));
            // Sharding全局配置
            ShardingRuleConfiguration shardingRuleConfiguration = new ShardingRuleConfiguration();
            shardingRuleConfiguration.getTableRuleConfigs().add(userRuleConfiguration);
            // 建立数据源
            DataSource dataSource = ShardingDataSourceFactory.createDataSource(dataSourceMap, shardingRuleConfiguration, new Properties());
            return dataSource;
        } catch (Exception ex) {
            ex.printStackTrace();
            return null;
        }
    }
}

DataSourceConfig.java

  上面构造分片规则的时候,我定义了User表的分片算法类 UserShardingAlgorithm,并定义了两个内部类分别实现了数据库分片和表分片的逻辑。代码以下:

package com.example.shardingjdbc.sharding;

import org.apache.shardingsphere.api.sharding.standard.PreciseShardingAlgorithm;
import org.apache.shardingsphere.api.sharding.standard.PreciseShardingValue;

import java.util.Collection;

public class UserShardingAlgorithm {
    public static final DatabaseShardingAlgorithm databaseShardingAlgorithm = new DatabaseShardingAlgorithm();
    public static final TableShardingAlgorithm tableShardingAlgorithm = new TableShardingAlgorithm();

    static class DatabaseShardingAlgorithm implements PreciseShardingAlgorithm<Long> {
        @Override
        public String doSharding(Collection<String> databaseNames, PreciseShardingValue<Long> shardingValue) {
            for (String database : databaseNames) {
                if (database.endsWith(String.valueOf(shardingValue.getValue() % 2))) {
                    return database;
                }
            }

            return "";
        }
    }

    static class TableShardingAlgorithm implements PreciseShardingAlgorithm<Long> {
        @Override
        public String doSharding(Collection<String> tableNames, PreciseShardingValue<Long> shardingValue) {
            for (String table : tableNames) {
                if (table.endsWith(String.valueOf(shardingValue.getValue() % 2))) {
                    return table;
                }
            }

            return "";
        }
    }
}

  这里实现分片规则时,实现的接口是 PreciseShardingAlgorithm,即精确分片,将指定的键值记录映射到指定的1张表中(最多1张表)。这个接口基本上能知足80%的需求了。

  其余的还有 Range、ComplexKey、Hint分片规则,这3种均可以将符合条件的键值记录映射到多张表,便可以将记录 a 同时插入A、B 或 B、C多张表中。其中,

    Range 是范围筛选分片。我我的理解,好比id尾数1-5插入A表,6-0插入B表,这种状况,使用Range做为筛选条件更方便。也能够根据时间范围分片。(若有误请指正)。

    ComplexKey 看名字就是组合键分片,能够同时根据多个键,制定映射规则。

    Hint 看名字没看懂,但看源码其实也是组合键分片,但仅支持对组合键进行精确筛选。

    而 ComplexKey 支持对组合键进行范围筛选。因此能够理解为 ComplexKey 是 Hint 的高级版本。  

  无论实现哪一种分片算法,都要确保算法覆盖全部可能的键值。

4、使用行表达式配置分片策略(对第三步优化,可略过)

    上面第三步,咱们经过实现 PreciseShardingValue 接口,来定义分片算法。这样每有一张表须要分片,都要从新定义一个类,太麻烦。

  Sharding 提供了行表达式配置的方式,对简单的分片逻辑,直接定义一个行表达式便可。(这种方式其实就是直接在 .yml 文件中配置分片策略的解析方式)

  和上面的代码相似,这里之改动了两行,直接 new 一个 InlineShardingStrategyConfiguration,省去了定义分片算法类的繁琐步骤。

// 配置 t_user 表规则
            TableRuleConfiguration userRuleConfiguration = new TableRuleConfiguration("t_user", "ds${0..1}.t_user${0..1}");
            // 行表达式分表规则
            userRuleConfiguration.setTableShardingStrategyConfig(new InlineShardingStrategyConfiguration("id", "t_user${id % 2}"));
            // 行表达式分库规则
            userRuleConfiguration.setDatabaseShardingStrategyConfig(new InlineShardingStrategyConfiguration("id", "ds${id % 2}"));

            // Sharding全局配置
            ShardingRuleConfiguration shardingRuleConfiguration = new ShardingRuleConfiguration();
            shardingRuleConfiguration.getTableRuleConfigs().add(userRuleConfiguration);

5、分布式主键(雪花算法)

  分库后,不能再使用 mysql 的自增主键,不然会产生重复主键。自定义主键,主要须要解决两个问题:

  1. 主键惟一(必须)
  2. 主键单调递增(可选)(提高索引效率,减小索引重排产生的空间碎片)

  Sharding 内部提供了2个主键生成器,一个使用雪花算法 SnowflakeShardingKeyGenerator,一个使用 UUID(考虑上面第2条,所以不使用 UUID)。

  雪花算法的主要原理:用一个 64 bit 的 long 型数字作主键。其中,

    第 1 位,1 bit 做为符号位永远为 0,表示是正数。

    第 2 - 42 位, 41 个 bit 填充时间戳。

    第 43 - 52 位,10 个 bit 填充机器惟一id。举个例子,能够用前4位标识机房号,后6位标识机器号。

    第 53 - 64 位,12 个 bit 填充id序号。范围 0 - 4095,即每台机器每 1 毫秒最多生成 4096 个不一样的主键id。

  雪花算法的主要实现代码以下

  1. 先判断时钟是否回调。这里默认容忍回调时间为0,若有回调则会产生异常。能够经过配置 max.tolerate.time.difference.milliseconds 属性,让其自旋等待时钟回到上一次执行时间。
  2. 按当前毫秒数,递增生成id序号。若是时钟进入了下一毫秒,则从0开始从新生成id序号。
  3. 将 时间戳 + 机器序号 + id序号 拼装成 主键id。这里机器序号默认为0,能够经过 worker.id 属性进行配置。不一样的服务器须要配置成不一样的数字,范围 0 - 1023。

  其中 EPOCH 是时钟基准,sharding中设置的是2016年11月1日,那么41位的时间戳差很少能够用70年,一直到2086年。

public synchronized Comparable<?> generateKey() {
        long currentMilliseconds = timeService.getCurrentMillis();
        if (this.waitTolerateTimeDifferenceIfNeed(currentMilliseconds)) {
            currentMilliseconds = timeService.getCurrentMillis();
        }

        if (this.lastMilliseconds == currentMilliseconds) {
            if (0L == (this.sequence = this.sequence + 1L & 4095L)) {
                currentMilliseconds = this.waitUntilNextTime(currentMilliseconds);
            }
        } else {
            this.vibrateSequenceOffset();
            this.sequence = (long)this.sequenceOffset;
        }

        this.lastMilliseconds = currentMilliseconds;
        return currentMilliseconds - EPOCH << 22 | this.getWorkerId() << 12 | this.sequence;
    }

 

6、业务代码

  使用分布式的主键ID生成器,须要给不一样的表注入不一样的ID生成器,在config包下加一个KeyIdConfig类,以下:

  这里,为了保持时钟的统一,能够能够专门找一台机器做为时钟服务,而后给全部主键生成器配置时钟服务。

@Configuration
public class KeyIdConfig {
    @Bean("userKeyGenerator")
    public SnowflakeShardingKeyGenerator userKeyGenerator() {
        return new SnowflakeShardingKeyGenerator();
    }

    @Bean("orderKeyGenerator")
    public SnowflakeShardingKeyGenerator orderKeyGenerator() {
        return new SnowflakeShardingKeyGenerator();
    }
}

  其余业务代码,具体能够参看源代码,在文末提供源码下载地址。

  启动类以下:

package com.example.shardingjdbc;
 
 import org.mybatis.spring.annotation.MapperScan;
 import org.springframework.boot.SpringApplication;
 import org.springframework.boot.autoconfigure.SpringBootApplication;
 
 @MapperScan("com.example.shardingjdbc.mapper")
 @SpringBootApplication
 public class ShardingjdbcApplication {
     public static void main(String[] args) {
         SpringApplication.run(ShardingjdbcApplication.class, args);
     }
 }

  注意,这里我在启动类上加了 @MapperScan 注解。多是由于引用依赖的问题,.properties 配置的 mybatis 包扫描目录无论用了,后面有时间再研究。

7、其余

  除了基本的分库分表规则之外,还有一些其余的配置,好比绑定表。这里先不一一举例了,参照官方文档配便可。

  举个例子:如今有 order, order_detail两张表,1:1的关系。

  在配置的时候,应该将相同 order_id 的 order 记录 和 order_detail 记录 映射到相同尾号的表中。这样方便链接查询。好比都插入到  order0, order_detail0中。

  若是配置了绑定关系,那么只会产生一条查询 select * from order0 as o join order_detail0 as d  on o.order_id = d.order_id。

  不然会产生笛卡儿积查询, 

    select * from order0 as o join order_detail0 as d  on o.order_id = d.order_id。

    select * from order0 as o join order_detail1 as d  on o.order_id = d.order_id。

    select * from order1 as o join order_detail0 as d  on o.order_id = d.order_id。

    select * from order1 as o join order_detail1 as d  on o.order_id = d.order_id。

8、总结

  项目启动前,先建立数据库 test0, test1, 而后分别建表 t_user0, t_user1。 能够所有在同一台机器。

  项目启动后,访问 http://localhost:8080/user/save, id 是 偶数的都插入到了 test0 库的 t_user0 表中, 奇数的都插入到了 test1 库中的 t_user1 表中。

  druid 的后台监控页面地址: http://localhost:8080/druid/。

  项目启动后,sharding日志会将配置已 yml 格式的形式打印出来,也能够省去 java 配置,将其优化到 .yml 配置文件中去,以下图:

  

  源码下载地址:https://474b.com/file/14960372-448059323

  做者QQ: 116269651

相关文章
相关标签/搜索