快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

怎么用ShardingSphere5.0.0-alpha实现mysql数据分表分片

本篇内容主要讲解“怎么用ShardingSphere5.0.0-alpha实现MySQL数据分表分片”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用ShardingSphere5.0.0-alpha实现mysql数据分表分片”吧!

创新互联公司于2013年开始,先为瓮安等服务建站,瓮安等地企业,进行企业商务咨询服务。为瓮安企业网站制作PC+手机+微官网三网同步一站式服务解决您的所有建站问题。

声明

  • 本文会基于 Springboot + mybatis + shardingsphere + mysql5.6 + druid 进行实战讲解

  • 本文的实战内容为分表、以及数据分片, 不涉及分库, 读写分离之类的

  • 本文不会介绍 shardingsphere 的历史、概念以及分库分表的相关理论

  • 本文采用的 shardingsphere 版本是 5.0.0-alpha, 具体见 pom 文件

  • 本文涉及的源码请参考 码云地址

  • 如果看 官方文档 时, 请选对版本 !!!

正文

实现目标

我们有一张逻辑用户表 user_info, 我们把它水平拆分成 user_info0user_info1 两张物理表 当我们往用户表插数据时, 数据会按照一定的规则(根据id取模), 写入到其中一张 user_info 表中.

准备工作

1. 数据库表
create database miaosha;

DROP TABLE IF EXISTS `user_info0`;
CREATE TABLE `user_info0` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `user_label` varchar(32) COLLATE utf8_bin DEFAULT NULL,
  `username` varchar(64) COLLATE utf8_bin DEFAULT NULL,
  `email` varchar(64) COLLATE utf8_bin DEFAULT NULL,
  `phone` varchar(64) COLLATE utf8_bin DEFAULT NULL,
  `password` varchar(128) COLLATE utf8_bin NOT NULL,
  `active` tinyint(4) NOT NULL DEFAULT '1',
   PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=7 DEFAULT CHARSET=utf8 COLLATE=utf8_bin;


DROP TABLE IF EXISTS `user_info1`;
CREATE TABLE `user_info1` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `user_label` varchar(32) COLLATE utf8_bin DEFAULT NULL,
  `username` varchar(64) COLLATE utf8_bin DEFAULT NULL,
  `email` varchar(64) COLLATE utf8_bin DEFAULT NULL,
  `phone` varchar(64) COLLATE utf8_bin DEFAULT NULL,
  `password` varchar(128) COLLATE utf8_bin NOT NULL,
  `active` tinyint(4) NOT NULL DEFAULT '1',
  PRIMARY KEY (`id`)
) ENGINE=InnoDB AUTO_INCREMENT=6 DEFAULT CHARSET=utf8 COLLATE=utf8_bin;
2. pom 依赖


    4.0.0
    
        org.springframework.boot
        spring-boot-starter-parent
        2.3.2.RELEASE
        
    
    com.nimo
    shardingsphere-demo
    0.0.1-SNAPSHOT
    shardingsphere-demo

    
        1.8
    
  
    
        
            org.springframework.boot
            spring-boot-starter-web
        
      
        
            org.mybatis.spring.boot
            mybatis-spring-boot-starter
            2.1.4
        

        
            mysql
            mysql-connector-java
            runtime
        
      
        
            org.projectlombok
            lombok
            true
        
      
        
            org.springframework.boot
            spring-boot-starter-test
            test
        

        
        
            org.apache.shardingsphere
            shardingsphere-jdbc-core-spring-boot-starter
            5.0.0-alpha
        

        
        
            com.alibaba
            druid
            1.2.3
        

    

    
        
            
                org.springframework.boot
                spring-boot-maven-plugin
                
                    
                        
                            org.projectlombok
                            lombok
                        
                    
                
            
        
    

3. application.yml

再次强调下, 本文采用的 shardingsphere 版本是 5.0.0-alpha. 不同版本配置会有差异.

填写配置文件时,一定要小心, 坑死了; 不信你不配置 com.alibaba.druid.pool.DruidDataSource试试,

或者你用默认的数据源替换试试 om.zaxxer.hikari.HikariDataSource

server:
  port: 8777

spring:
  shardingsphere:
 
    props:
      sql-show: true
      
    datasource:
      names: ds0
      # 注意这里的数据源配置用的是 druid
      common:
        type: com.alibaba.druid.pool.DruidDataSource
      ds0:
        url: jdbc:mysql://127.0.0.1:3306/miaosha?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT%2b8
        username: root
        password: '123456'
        driver-class-name: com.mysql.cj.jdbc.Driver
    rules:
      sharding:
        key-generators:
          # 此处必须要配置,否则会导致报错,因为shardingsphere-jdbc-core-spring-boot-starter需要加载此项配置,官网的demo例子有错
          snowflake:
            type: SNOWFLAKE
            props:
              worker-id: 123
        sharding-algorithms:
          table-inline:
            type: INLINE
            props:
              # 不要漏掉 $ 或 ->
              algorithm-expression: user_info$->{id % 2}
        tables:
          user_info:
            # 配置 user_info 的分表的规则
            actual-data-nodes: ds0.user_info$->{0..1}
            table-strategy:
              standard:
                sharding-column: id
                sharding-algorithm-name: table-inline
    enabled: true

mybatis:
  typeAliasesPackage: com.nimo.shardingspheredemo.entity
  mapperLocations: classpath:mapper/*.xml
4. 主要代码
// sql 

   insert into user_info(id, username, password) values (#{id}, #{username}, #{password})

 
 // 新增一个用户信息
@PostMapping("userinfo")
public Object addUserInfo(@RequestBody UserInfo userInfo) {
   return userInfoMapper.addUser(userInfo);
}
5. 测试命令
curl -X POST --location "http://localhost:8777/userinfo" \
    -H "Content-Type: application/json" \
    -d "{
          \"id\": 18,
          \"username\": \"wangbadan\",
          \"password\": \"123456\"
        }"
问题

我们创建表时设置的 主键id是自增的, 理论上是不用传的, 但是我们往表中插数据, 是根据 主键id 取模来决定具体往哪张表中插的. 所以这个主键 id 此时必须得有.

另外, 如果我们的服务有多个, 那么这个 id 如何生成?

如何解决

首先把 sql 改写为如下方式:

// sql 

   insert into user_info(username, password)
    values ( #{username}, #{password})

然后在原有配置的基础上, 追加如下配置信息(通过雪花算法生成id)

spring:
  shardingsphere:
    rules:
      sharding: 
        tables:
          user_info:
            key-generate-strategy:
              key-generator-name: snowflake
              column: id

怎么用ShardingSphere5.0.0-alpha实现mysql数据分表分片

测试

curl -X POST --location "http://localhost:8777/userinfo" \
    -H "Content-Type: application/json" \
    -d "{
          \"username\": \"wangbadan\",
          \"password\": \"123456\"
        }"

总结

本文强调的是 分表, 分片的实战 demo 配置, 后面会逐渐更新 分库、读写分离的实战 demo, 跟之前的 Spring Secutiry 的实战教程一样, 讲究循序渐进.

到此,相信大家对“怎么用ShardingSphere5.0.0-alpha实现mysql数据分表分片”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!


网站名称:怎么用ShardingSphere5.0.0-alpha实现mysql数据分表分片
文章位置:http://6mz.cn/article/pjcdho.html

其他资讯