在高并发抢券系统中,我们通常会将用户的抢券结果优先写入 Redis,以保证系统响应速度和并发处理能力。但数据的最终一致性要求我们必须将这些结果最终同步到 MySQL 的持久化库中。本文将详细介绍一种基于线程池 + Redis Hash 扫描的异步数据同步方案,助力构建高性能的电商系统。
一、同步方案整体思路
我们将抢券成功的用户信息(如用户ID、活动ID)先写入 Redis 的 Hash 结构中,并使用特定的 key 格式分散压力,如:
QUEUE:COUPON:SEIZE:SYNC:{活动id % 10}
随后由定时任务启动线程池,扫描这些同步队列,从 Redis 中批量读取数据并写入 MySQL 的 coupon
表中。写入成功后,再从 Redis 中删除对应的记录,实现一次完整的同步。
同步流程如下:
-
Redis记录用户抢券成功信息(Hash结构)。
-
每分钟启动一次同步定时任务。
-
任务从多个同步队列中并发读取数据。
-
将数据写入数据库后,从 Redis 中删除。
二、线程池配置方案
我们使用 Spring 定义一个线程池,核心代码如下:
@Configuration
public class ThreadPoolConfiguration {
@Bean("syncThreadPool")
public ThreadPoolExecutor synchronizeThreadPool(RedisSyncProperties redisSyncProperties) {
int corePoolSize = 1;
int maxPoolSize = redisSyncProperties.getQueueNum(); // 可配置队列个数
long keepAliveTime = 120;
TimeUnit unit = TimeUnit.SECONDS;
RejectedExecutionHandler rejectedHandler = new ThreadPoolExecutor.DiscardPolicy();
return new ThreadPoolExecutor(
corePoolSize,
maxPoolSize,
keepAliveTime,
unit,
new SynchronousQueue<>(),
rejectedHandler
);
}
}
🚀 推荐使用 10~20 个线程作为最大线程数,视具体业务场景配置。
三、批量读取Redis Hash数据
Redis 使用游标扫描的方式批量获取数据,避免一次性读取过多带来的性能问题。
public void getData(String queue) {
Cursor<Map.Entry<String, Object>> cursor = null;
ScanOptions scanOptions = ScanOptions.scanOptions().count(10).build();
try {
cursor = redisTemplate.opsForHash().scan(queue, scanOptions);
List<SyncMessage<Object>> messages = cursor.stream()
.map(entry -> SyncMessage.builder()
.key(entry.getKey().toString())
.value(entry.getValue())
.build())
.collect(Collectors.toList());
messages.forEach(System.out::println);
} finally {
if (cursor != null) {
cursor.close();
}
}
}
☝️ 注意:游标使用完必须关闭,避免资源泄漏。
四、测试验证效果
我们模拟多个线程处理多个队列,代码如下:
@Test
public void test_threadPool() throws InterruptedException {
for (int i = 0; i < 10; i++) {
threadPoolExecutor.execute(new RunnableSimple(i));
}
Thread.sleep(3000); // 模拟线程池回收
for (int i = 10; i < 20; i++) {
threadPoolExecutor.execute(new RunnableSimple(i));
}
Thread.sleep(9999999); // 保证主线程不退出
}
日志输出示例:
获取QUEUE:COUPON:SEIZE:SYNC:{8}队列的数据1条
SyncMessage(key=1716346406098296832, value=1721415300848590848, data=null)
说明数据同步流程正确执行。
五、小结
本方案采用 Redis + 多线程 + 定时任务 的方式高效同步抢券结果至数据库,具备以下优势:
-
🚀 高并发性能强:Redis写入极快,异步处理减轻数据库压力。
-
🔁 数据一致性保障:写入成功后再清除Redis数据,避免数据丢失。
-
🧵 线程池灵活扩展:线程数可配置,适应不同并发规模。
-
🔍 批量处理高效:scan命令搭配Hash结构,读取性能优异。
在真实电商项目中,该方案已被多次验证,值得参考和实践。
如果你也在搭建类似的高并发系统,欢迎评论交流。如果本文对你有帮助,欢迎点赞 + 收藏!