分布式全局ID之雪花算法

系列文章目录

提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加

雪花算法


提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录


前言

提示:这里可以添加本文要记录的大概内容:

在当今的数据驱动世界中,对于许多应用程序来说,生成唯一的标识符是至关重要的。这些标识符可以用于标识数据记录、跟踪事务或管理资源。而雪花算法就是一种流行且高效的生成唯一标识符的方法。

雪花算法的核心思想是通过结合多个字段来生成一个全局唯一的标识符。它通常由多个部分组成,包括时间戳、机器标识符和序列号。通过这种方式,雪花算法可以确保在分布式系统中生成的标识符是唯一的,并且在时间和空间上具有良好的扩展性。

在这篇博客中,我将深入探讨雪花算法的原理、实现以及其在实际应用中的优势。我将介绍如何使用雪花算法生成唯一的标识符,以及如何将其集成到你的应用程序中。此外,我还将探讨一些常见的问题和注意事项,以帮助你更好地理解和应用雪花算法。


提示:以下是本篇文章正文内容,下面案例可供参考

一、什么是雪花算法?

雪花算法是一种分布式唯一ID生成算法,由Twitter公司开发并开源。它的核心思想是,利用64位的二进制数字,将这个数字划分为不同的位段,每个位段表示不同的含义,如时间戳、机器ID、序列号等,然后对每个位段进行相应的位移和运算,最后生成一个全局唯一的ID。具体来说,雪花算法将64位ID分成以下几个部分:

  • 时间戳:41位,记录当前时间戳与起始时间戳的差值(精确到毫秒级别),可以使用69.7年。
  • 机器ID:10位,用于标识不同的机器,可以支持1024台机器。
  • 序列号:12位,表示同一毫秒内生成的不同ID,支持每台机器每毫秒产生4096个ID。

二、雪花算法的特点

  • 生成的所有的id都是随着时间递增
  • 生成的ID是唯一且有序的,可以用于分布式系统中的分布式锁、分布式数据库等场景。
  • 支持分布式部署,每台机器都可以独立生成ID,不会产生冲突。
  • 可以根据需求灵活调整位数分配,以满足不同规模系统的需求。

三、雪花算法生成的ID和UUID生成的ID区别

  • 长度:雪花算法生成的 ID 通常是 64 位,而 UUID 生成的 ID 是 128 位。
  • 组成部分:雪花算法生成的 ID 由时间戳、机器 ID 和序列号组成,而 UUID 生成的 ID 包含多个部分,如时间、计数器和硬件标识等。
  • 生成方式:雪花算法生成的 ID 是通过位运算和算术运算生成的,而 UUID 生成的 ID 是通过随机数生成器或者哈希函数等方式生成的。
  • 性能:雪花算法生成的 ID 性能较好,生成速度较快,适用于高并发场景,而 UUID 生成的 ID 性能相对较差,生成速度较慢。
  • 可读性:雪花算法生成的 ID 可读性较差,不容易理解其含义,而 UUID 生成的 ID 可读性较好,可以通过其组成部分了解其生成的时间、机器等信息。
  • 唯一性:雪花算法生成的 ID 在同一台机器上、同一毫秒内是唯一的,而 UUID 生成的 ID 在全球范围内是唯一的。
  • ID自增:雪花算法生成的ID是自增的,索引效率高,而UUID生成的不是自增的,效率低。

四、雪花算法实现

雪花算法的简单实现

1.引入相关依赖,hutool工具包已经提供雪花算法ID生成的工具类。

xml 复制代码
<!-- https://mvnrepository.com/artifact/cn.hutool/hutool-all -->
<dependency>
  <groupId>cn.hutool</groupId>
  <artifactId>hutool-all</artifactId>
  <version>5.7.13</version>
</dependency>

2.实现代码

java 复制代码
//参数1为机器标识
//参数2为数据标识
Snowflake snowflake = IdUtil.getSnowflake(1, 1);
long id = snowflake.nextId();//Snowflake生成Long类型id


//简单使用
long id = IdUtil.getSnowflakeNextId();//IdUtil生成long类型id
String id = snowflake.getSnowflakeNextIdStr();//Snowflake生成String类型id

雪花算法实现之Mybatis Plus

1.导入依赖

xml 复制代码
<dependencies>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter</artifactId>
    </dependency>
    <dependency>
      <groupId>org.projectlombok</groupId>
      <artifactId>lombok</artifactId>
      <optional>true</optional>
    </dependency>
    <dependency>
      <groupId>com.baomidou</groupId>
      <artifactId>mybatis-plus-boot-starter</artifactId>
      <version>3.4.2</version>
    </dependency>
    <dependency>
      <groupId>mysql</groupId>
      <artifactId>mysql-connector-java</artifactId>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-test</artifactId>
      <scope>test</scope>
      <exclusions>
        <exclusion>
          <groupId>org.junit.vintage</groupId>
          <artifactId>junit-vintage-engine</artifactId>
        </exclusion>
      </exclusions>
    </dependency>
  </dependencies>

2.编写相关配置,在 application.yml 配置文件中添加 MySQL 数据库的相关配置:

yaml 复制代码
spring.datasource.driver-class-name=com.mysql.cj.jdbc.Driver
spring.datasource.url=jdbc:mysql://192.168.66.100:3306/test?serverTimezone=UTC
spring.datasource.username=root
spring.datasource.password=123456

3.开启MapperScan扫描,在 Spring Boot 启动类中添加 @MapperScan 注解,扫描 Mapper 文件夹

java 复制代码
@SpringBootApplication
@MapperScan("com.itbaizhan.sonwflake.mapper")
public class Application {
  public static void main(String[] args) {
    SpringApplication.run(Application.class, args);
   }
}

4.实现雪花算法,在实体类id属性上加上 @TableId(type = IdType.ASSIGN_ID)注解

java 复制代码
@Data
public class User {
  @TableId(type = IdType.ASSIGN_ID)// 雪花算法
  private Long id;
  private String name;
  private Integer age;
  private String email;
}

5.编写Mapper

java 复制代码
public interface UserMapper extends BaseMapper<User> {
}

总结

提示:这里对文章进行总结:

雪花算法 - 为每一片雪花赋予独一无二的标识符

相关推荐
谭震鸿3 小时前
Zookeeper集群搭建Centos环境下
分布式·zookeeper·centos
天冬忘忧8 小时前
Kafka 工作流程解析:从 Broker 工作原理、节点的服役、退役、副本的生成到数据存储与读写优化
大数据·分布式·kafka
IT枫斗者12 小时前
如何解决Java EasyExcel 导出报内存溢出
java·服务器·开发语言·网络·分布式·物联网
求积分不加C12 小时前
Kafka怎么发送JAVA对象并在消费者端解析出JAVA对象--示例
java·分布式·kafka·linq
GDDGHS_14 小时前
“Kafka面试攻略:核心问题与高效回答”
分布式·面试·kafka
꧁薄暮꧂15 小时前
kafka中的数据清理策略
数据库·分布式·kafka
hong16168815 小时前
大数据技术Kafka详解:消息队列(Messages Queue)
大数据·分布式·kafka
eternal199516 小时前
优化算法|基于Deep-Q-Network(DQN)的邻域搜索算法求解分布式柔性作业车间调度问题
分布式·算法
呼啦啦啦啦啦啦啦啦18 小时前
【Rabbitmq篇】RabbitMQ⾼级特性----持久性,发送⽅确认,重试机制
分布式·rabbitmq
꧁薄暮꧂1 天前
kafka是如何做到高效读写
分布式·kafka