通过Golang订阅binlog实现轻量级的增量日志解析,并解决缓存不一致的开源库cacheflow

文章目录

通过Golang订阅binlog实现轻量级的增量日志解析,并解决缓存不一致的开源库cacheflow

代码开源库地址 https://github.com/xzhHas/cacheflow

cacheflow:https://github.com/xzhHas/cacheflow

为什么需要缓存一致性

  • 更新数据库后,旧缓存可能被读到,造成数据不一致。
  • 复杂系统中引入 Canal、MQ、独立同步服务会增加维护成本。
  • 以最小成本开启 binlog→缓存维护,保证最终一致性和读性能。
  • 避免数据库数据更新之后,缓存里面还在维护旧的数据。

快速开始

go 复制代码
package main

import "github.com/xzhHas/cacheflow"

func main() {
  s, _ := cacheflow.StartSyncer(cacheflow.Config{
    MySQL: cacheflow.MySQLConfig{Addr: "127.0.0.1:3306", User: "root", Password: "", Flavor: "mysql", ServerID: 1001},
    Redis: cacheflow.RedisConfig{Addr: "127.0.0.1:6379", DB: 0},
    Tables: []cacheflow.TableConfig{{DB: "user", Table: "users", Strategy: cacheflow.CacheAside}},
  })
  defer s.Stop()
}
  • 不提供 Key 时默认使用 db:table:id
  • 监听整个库:{DB:"user", Table:"*", Strategy: cacheflow.CacheAside}
  • 监听多个表,在syncer里面也提供了Tables()的函数,可以支持监听一个库里面的多张表,如下:
go 复制代码
// cacheflow库
func Tables(db string, strategy CacheStrategy, names ...string) []TableConfig {
    tcs := make([]TableConfig, 0, len(names))
    for _, n := range names {
        tcs = append(tcs, TableConfig{DB: db, Table: n, Strategy: strategy})
    }
    return tcs
// 案例
func main() {
	tables:=cacheflow.Tables(db,cacheflow.CacheAside,"users","order","xxx","xxx")
  s, _ := cacheflow.StartSyncer(cacheflow.Config{
    MySQL: cacheflow.MySQLConfig{Addr: "127.0.0.1:3306", User: "root", Password: "", Flavor: "mysql", ServerID: 1001},
    Redis: cacheflow.RedisConfig{Addr: "127.0.0.1:6379", DB: 0},
    Tables: tables, // 修改这里即可
  })
  defer s.Stop()
}

适配微服务 :将 StartSyncer 放在服务初始化钩子里,优雅退出时调用 Stop

内置功能

  • 策略 提供两种缓存一致性解决方案,可自行选择
    • CacheAside:删除缓存,读时重建(默认,强最终一致性)
    • WriteThrough:写穿,将变更数据写入缓存,更友好的读延迟,支持 TTLSeconds
  • Key 构造
    • 默认 db:table:id
    • id 时支持 KeyFields 组合值;可加 Prefix 前缀
  • 事件接口(类似 Canal)
    • Subscribe(func(Event)) 注册回调;或消费 Events() <-chan Event
  • 失败重试(可选)
    • RabbitMQ 生产/消费,同步失败后退避重试
  • 自动 server_id
    • 未配置时自动生成;用环境变量 CACHEFLOW_SERVER_ID=12345 覆盖
  • 监听范围
    • 指定表或整个库(Table: "*");支持批量构造 Tables(db, strategy, names...)

流程

  • Binlog 订阅:封装在 internal/binlog,对外不可见
  • 事件处理:由 Syncer 接收并分发,先执行策略,再发事件
  • 位点持久化:避免重复/丢失事件
  • 失败重试:将失败操作封装为消息入队,退避重试

使用示例


实战演示

演示流程:增加数据后,进行查询,这里需通过缓存Get,然后进行更新或删除数据,与此同时,查看缓存数据是否更新。注:此测试选择cacheflow.CacheAside的方式,也就是删除缓存的方式,做一致性同步。

删缓存演示

创建用户信息

这里进行更新操作,如果没有缓存一致的话,是无法更新缓存里面的数据的,但是在启动我这个cacheflow库后,是可以更新的。


如上,已订阅到binlog日志信息,并解析。现查看缓存。

如上,已更新。在执行删除操作。

如下:

一订阅到,并且删除缓存,从而实现缓存一致性。

性能

  • 事件通道 type.Event 缓冲为 1024,满载时丢弃新事件(非阻塞投递):

  • 回调同步调用,耗时逻辑建议内部异步化,避免阻塞 binlog 处理

  • 位点持久化默认写文件 cacheflow.pos(可改 PositionPath

  • 重试采用退避与最大次数控制,避免雪崩

注意事项

  • 默认 Key 依赖 id 字段;无 id 时需提供 KeyFields 或自定义 KeyFunc
  • 回调是同步执行
  • 事件通道可能丢弃事件(满载时),用于旁路处理不是强一致通道
  • 写穿策略要关注多源更新冲突与 TTL 设计
  • 目前以行级事件为主,事务级语义未做更复杂的聚合

最后

cacheflow 的核心是把缓存一致性解决方案内嵌到你的服务进程内,用最少的配置快速获得"写数据库→删缓存/写缓存"的可靠行为,同时向上开放 Canal 风格事件接口以支持旁路场景。它不试图成为一个臃肿的分布式平台,而是一个好用的能力库:可被单体服务与微服务轻松嵌入,专注于"写入之后读到正确的东西"。 -- xizhenhua77

相关推荐
冬奇Lab2 分钟前
一天一个开源项目(第39篇):PandaWiki - AI 驱动的开源知识库搭建系统
人工智能·开源·资讯
HelloGitHub1 小时前
这个年轻的开源项目,想让每个人都能拥有自己的专业级 AI 智能体
开源·github·agent
Kagol12 小时前
🎉OpenTiny NEXT-SDK 重磅发布:四步把你的前端应用变成智能应用!
前端·开源·agent
冬奇Lab13 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab13 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
sunny86515 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github
strayCat232551 天前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
Moment1 天前
OpenClaw 从能聊到能干差的是这 50 个 Skills 😍😍😍
前端·后端·开源
草梅友仁1 天前
墨梅博客 1.7.0 发布与 AI 开发实践 | 2026 年第 9 周草梅周报
开源·github·ai编程
ursazoo2 天前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github