分布式全局ID之雪花算法

系列文章目录

提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加

雪花算法


提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录


前言

提示:这里可以添加本文要记录的大概内容:

在当今的数据驱动世界中,对于许多应用程序来说,生成唯一的标识符是至关重要的。这些标识符可以用于标识数据记录、跟踪事务或管理资源。而雪花算法就是一种流行且高效的生成唯一标识符的方法。

雪花算法的核心思想是通过结合多个字段来生成一个全局唯一的标识符。它通常由多个部分组成,包括时间戳、机器标识符和序列号。通过这种方式,雪花算法可以确保在分布式系统中生成的标识符是唯一的,并且在时间和空间上具有良好的扩展性。

在这篇博客中,我将深入探讨雪花算法的原理、实现以及其在实际应用中的优势。我将介绍如何使用雪花算法生成唯一的标识符,以及如何将其集成到你的应用程序中。此外,我还将探讨一些常见的问题和注意事项,以帮助你更好地理解和应用雪花算法。


提示:以下是本篇文章正文内容,下面案例可供参考

一、什么是雪花算法?

雪花算法是一种分布式唯一ID生成算法,由Twitter公司开发并开源。它的核心思想是,利用64位的二进制数字,将这个数字划分为不同的位段,每个位段表示不同的含义,如时间戳、机器ID、序列号等,然后对每个位段进行相应的位移和运算,最后生成一个全局唯一的ID。具体来说,雪花算法将64位ID分成以下几个部分:

  • 时间戳:41位,记录当前时间戳与起始时间戳的差值(精确到毫秒级别),可以使用69.7年。
  • 机器ID:10位,用于标识不同的机器,可以支持1024台机器。
  • 序列号:12位,表示同一毫秒内生成的不同ID,支持每台机器每毫秒产生4096个ID。

二、雪花算法的特点

  • 生成的所有的id都是随着时间递增
  • 生成的ID是唯一且有序的,可以用于分布式系统中的分布式锁、分布式数据库等场景。
  • 支持分布式部署,每台机器都可以独立生成ID,不会产生冲突。
  • 可以根据需求灵活调整位数分配,以满足不同规模系统的需求。

三、雪花算法生成的ID和UUID生成的ID区别

  • 长度:雪花算法生成的 ID 通常是 64 位,而 UUID 生成的 ID 是 128 位。
  • 组成部分:雪花算法生成的 ID 由时间戳、机器 ID 和序列号组成,而 UUID 生成的 ID 包含多个部分,如时间、计数器和硬件标识等。
  • 生成方式:雪花算法生成的 ID 是通过位运算和算术运算生成的,而 UUID 生成的 ID 是通过随机数生成器或者哈希函数等方式生成的。
  • 性能:雪花算法生成的 ID 性能较好,生成速度较快,适用于高并发场景,而 UUID 生成的 ID 性能相对较差,生成速度较慢。
  • 可读性:雪花算法生成的 ID 可读性较差,不容易理解其含义,而 UUID 生成的 ID 可读性较好,可以通过其组成部分了解其生成的时间、机器等信息。
  • 唯一性:雪花算法生成的 ID 在同一台机器上、同一毫秒内是唯一的,而 UUID 生成的 ID 在全球范围内是唯一的。
  • ID自增:雪花算法生成的ID是自增的,索引效率高,而UUID生成的不是自增的,效率低。

四、雪花算法实现

雪花算法的简单实现

1.引入相关依赖,hutool工具包已经提供雪花算法ID生成的工具类。

xml 复制代码
<!-- https://mvnrepository.com/artifact/cn.hutool/hutool-all -->
<dependency>
  <groupId>cn.hutool</groupId>
  <artifactId>hutool-all</artifactId>
  <version>5.7.13</version>
</dependency>

2.实现代码

java 复制代码
//参数1为机器标识
//参数2为数据标识
Snowflake snowflake = IdUtil.getSnowflake(1, 1);
long id = snowflake.nextId();//Snowflake生成Long类型id


//简单使用
long id = IdUtil.getSnowflakeNextId();//IdUtil生成long类型id
String id = snowflake.getSnowflakeNextIdStr();//Snowflake生成String类型id

雪花算法实现之Mybatis Plus

1.导入依赖

xml 复制代码
<dependencies>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter</artifactId>
    </dependency>
    <dependency>
      <groupId>org.projectlombok</groupId>
      <artifactId>lombok</artifactId>
      <optional>true</optional>
    </dependency>
    <dependency>
      <groupId>com.baomidou</groupId>
      <artifactId>mybatis-plus-boot-starter</artifactId>
      <version>3.4.2</version>
    </dependency>
    <dependency>
      <groupId>mysql</groupId>
      <artifactId>mysql-connector-java</artifactId>
    </dependency>
    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-test</artifactId>
      <scope>test</scope>
      <exclusions>
        <exclusion>
          <groupId>org.junit.vintage</groupId>
          <artifactId>junit-vintage-engine</artifactId>
        </exclusion>
      </exclusions>
    </dependency>
  </dependencies>

2.编写相关配置,在 application.yml 配置文件中添加 MySQL 数据库的相关配置:

yaml 复制代码
spring.datasource.driver-class-name=com.mysql.cj.jdbc.Driver
spring.datasource.url=jdbc:mysql://192.168.66.100:3306/test?serverTimezone=UTC
spring.datasource.username=root
spring.datasource.password=123456

3.开启MapperScan扫描,在 Spring Boot 启动类中添加 @MapperScan 注解,扫描 Mapper 文件夹

java 复制代码
@SpringBootApplication
@MapperScan("com.itbaizhan.sonwflake.mapper")
public class Application {
  public static void main(String[] args) {
    SpringApplication.run(Application.class, args);
   }
}

4.实现雪花算法,在实体类id属性上加上 @TableId(type = IdType.ASSIGN_ID)注解

java 复制代码
@Data
public class User {
  @TableId(type = IdType.ASSIGN_ID)// 雪花算法
  private Long id;
  private String name;
  private Integer age;
  private String email;
}

5.编写Mapper

java 复制代码
public interface UserMapper extends BaseMapper<User> {
}

总结

提示:这里对文章进行总结:

雪花算法 - 为每一片雪花赋予独一无二的标识符

相关推荐
Data跳动5 小时前
Spark内存都消耗在哪里了?
大数据·分布式·spark
Java程序之猿6 小时前
微服务分布式(一、项目初始化)
分布式·微服务·架构
来一杯龙舌兰7 小时前
【RabbitMQ】RabbitMQ保证消息不丢失的N种策略的思想总结
分布式·rabbitmq·ruby·持久化·ack·消息确认
节点。csn8 小时前
Hadoop yarn安装
大数据·hadoop·分布式
NiNg_1_23410 小时前
基于Hadoop的数据清洗
大数据·hadoop·分布式
隔着天花板看星星11 小时前
Spark-Streaming集成Kafka
大数据·分布式·中间件·spark·kafka
技术路上的苦行僧15 小时前
分布式专题(8)之MongoDB存储原理&多文档事务详解
数据库·分布式·mongodb
龙哥·三年风水15 小时前
workman服务端开发模式-应用开发-后端api推送修改二
分布式·gateway·php
小小工匠16 小时前
分布式协同 - 分布式事务_2PC & 3PC解决方案
分布式·分布式事务·2pc·3pc
闯闯的日常分享18 小时前
分布式锁的原理分析
分布式