如何保持 mysql 和 redis 中数据的一致性?PegaDB 给出答案

MySQL 与 Redis 数据保持一致性是一个常见且复杂的问题,一般来说需要结合多种策略来平衡性能与一致性。

传统的解决策略是先读缓存,未命中则读数据库并回填缓存,但方式这种维护成本较高。

随着云数据库技术的发展,目前国内云厂商数据库很多采用磁盘 kv 存储,内存+磁盘结合的方式来解决这个问题。

比如百度智能云的 PegaDB、腾讯的 KeeWiDB 等等。

传统 解决策略与挑战

在多地域数据管理中,保持数据的同步性常常着面临诸多挑战。不同地域的数据信息同步需要使用专业的数据复制和同步工具(如 GoldenGate、SharePlex 等)手动写入,并且操作过程中需要专业人员执行、维护。此外,还有一种方法是将数据库的事务日志定期或实时传输到远程地点,然后在远程数据库上重放这些日志来实现数据同步。尽管这种方法可以在不同地域之间同步数据,但整个过程复杂性高、时间周期长。

百度智能云 PegaDB 解决方案

Redis 容量型(PegaDB)自研多活实例组产品。多活实例组由至多 5 个实例组成, 每个实例均可以进行本地域读写。无需专业人员手动写入、维护,每个地域数据由同步组件自动化同步至其他地域,省时省力。多活实例组应用场景如下:

  • 异地多活: 业务需求应用就近访问同时数据整体一致。

  • **数据灾备:**可实现同城灾备、两地三中心灾备及三地灾备等多种数据灾备场景。

百度智能云数据库 Redis 容量型(PegaDB) 异地多活同步通道单向可达 5 万 QPS 。本地域读写与单实例的延迟基本一致。跨地域间同步,延迟几十毫秒至几百毫秒。不仅通过异地多活的架构设计解决了多地域数据同步一致性的问题。同时,数据自动化同步至其他地域,无需专业数据复制与同步工具手动写入,节省了人力成本。

具体实现

  • 在异地多活集群中,每个实例都会为其配置一个数据同步组件,这个同步组件的叫做 SyncAgent。单个分片内部,只有主节点的 SyncAgent 会工作。SyncAgent 会解析 Redis 生成的 AOF 并将增量的 AOF 同步到目标集群。

  • 当 SyncAgent 故障重启后,SyncAgent 需要继续从之前的同步位点继续同步,这就需要对 AOF 中的每一条命令增加一个编号。在 PegaDB 架构中,引入了一个叫 operator header 的结构。有了 op header 后,SyncAgent 就可以记录下 opid 来追踪同步进度了。

  • 当 SyncAgent 启动后,它会尝试获取同步点,并且在工作过程中,会周期性地记录更新后的同步点,而这些信息可以存储在一个 PegaDB 节点中。

相关推荐
圆内~搁浅1 小时前
langchain本地知识库问答机器人集成本地知识库
数据库·langchain·机器人
早起的年轻人2 小时前
Docket Desktop 安装redis 并设置密码
数据库·redis·缓存
xlxxy_2 小时前
ABAP数据库表的增改查
开发语言·前端·数据库·sql·oracle·excel
清水加冰2 小时前
【MySQL】索引
数据库·mysql
qw9492 小时前
Redis(高阶篇)03章——缓存双写一致性之更新策略探讨
数据库·redis·缓存
IT猿手2 小时前
2025最新智能优化算法:鲸鱼迁徙算法(Whale Migration Algorithm,WMA)求解23个经典函数测试集,MATLAB
android·数据库·人工智能·算法·机器学习·matlab·无人机
m0_748234083 小时前
SQL Server 导入Excel数据
数据库
Ciderw3 小时前
MySQL日志undo log、redo log和binlog详解
数据库·c++·redis·后端·mysql·面试·golang
~Yogi4 小时前
新版Tomcat MySQL IDEA 安装配置过程遇到的问题
mysql·tomcat·intellij-idea