利用雪花算法+Redis 自增 ID,生成订单号

在我们的项目中,我们需要定义一些全局唯一的 ID,比如订单号,支付单号等等。

这些ID有以下几个基本要求:

1、不能重复

2、不可被预测

3、能适应分库分表

为了生成一个这样一个全局的订单号,自定义了一个分布式 ID 生成器,其中包含了三部分

定义了一个全局的 ID 生成器------DistributeID,其中定义了方法------generateWithSnowflake

他就是借助雪花算法生成唯一 ID 的,这个方法的声明如下:

java 复制代码
/**
 * 利用雪花算法生成一个唯一ID
 */
public static String generateWithSnowflake(BusinessCode businessCode,long workerId,
                                           String externalId) {
    long id = IdUtil.getSnowflake(workerId).nextId();
    return generate(businessCode, externalId, id);
}

需要三个参数:

BusinessCode businessCode

  • 主要是区分业务的,比如订单号、支付单号、优惠券单号等等,不同的业务定义一个不同的 BusinessCode

long workerId

  • 用于区分不同的 worker,这个 woker 其实就是一个机器实例,我们需要能保证不同的机器上的 workerId 不一样。

String externalId

  • 这个就是一个业务单号,比如买家 ID,这个字段会用于基于基因法进行订单号生成。

主要介绍下这个workerId我们如何获取。

在我的项目中,workerId 的获取我们是通过WorkerIdHolder实现的。

代码如下:

java 复制代码
@Component
public class WorkerIdHolder implements CommandLineRunner {

    @Autowired
    private RedissonClient redissonClient;

    public static long WORKER_ID;

    @Override
    public void run(String... args) throws Exception {
        RAtomicLong atomicLong = redissonClient.getAtomicLong("workerId");
        WORKER_ID = atomicLong.incrementAndGet() % 32;
    }
}

这个类实现了CommandLineRunner接口,那么在 Spring 容器启动的过程中,run方法就会被调用。

run 方法中的主要逻辑就是去 redis 中获取一个自增 id,然后我们再基于拿到的这个自增 id对32取模,就能得到一个 workerId 了。

为什么是32?主要是因为雪花算法对这个 workerId 有要求,不能超过32,否则会报错。

当我们有10台机器依次启动的过程中,就会获取到10个自增 id,比如是1000-1010吧,那么把他们对32取模就能得到一个10个不同的数字,就可以把这个数组保存在一个常量中,当作 workderId 来用了。

相关推荐
肥宅小叽14 分钟前
【shardingsphere分布式主键无效】
分布式
大G哥1 小时前
Kotlin Lambda语法错误修复
android·java·开发语言·kotlin
行走__Wz1 小时前
计算机学习路线与编程语言选择(信息差)
java·开发语言·javascript·学习·编程语言选择·计算机学习路线
Micro麦可乐2 小时前
最新Spring Security实战教程(十四)OAuth2.0精讲 - 四种授权模式与资源服务器搭建
java·服务器·spring boot·spring·spring security·oauth2·oauth2授权
进击的小白菜2 小时前
如何高效实现「LeetCode25. K 个一组翻转链表」?Java 详细解决方案
java·数据结构·leetcode·链表
悻运3 小时前
如何在sheel中运行Spark
大数据·分布式·spark
悟能不能悟3 小时前
java实现一个操作日志模块功能,怎么设计
java·开发语言
caihuayuan53 小时前
[数据库之十四] 数据库索引之位图索引
java·大数据·spring boot·后端·课程设计
blammmp3 小时前
算法专题四:前缀和
java·开发语言·算法
悻运4 小时前
Spark处理过程-案例数据清洗
大数据·分布式·spark