139. MySQL同步ES的四种方案

文章目录

  • [1. 前言](#1. 前言)
  • [2. 数据同步方案](#2. 数据同步方案)
    • [2.1 同步双写](#2.1 同步双写)
    • [2.2 异步双写](#2.2 异步双写)
    • [2.3 基于 SQL 抽取](#2.3 基于 SQL 抽取)
    • [2.4 基于 Binlog 实时同步](#2.4 基于 Binlog 实时同步)
  • [3. 数据迁移工具选型](#3. 数据迁移工具选型)
    • [3.1 Canel](#3.1 Canel)
    • [3.2 阿里云 DTS](#3.2 阿里云 DTS)
    • [3.3 Databus](#3.3 Databus)
    • [3.4 其它](#3.4 其它)
  • [4. 后记](#4. 后记)

本文介绍数据同步的 4 种方案,并给出常用数据迁移工具,目录如下:

1. 前言

在实际项目开发中,我们经常将 MySQL 作为业务数据库,ES 作为查询数据库,用来实现读写分离,缓解 MySQL 数据库的查询压力,应对海量数据的复杂查询。此外,当MySQL是分库分表的情况下,查询where条件中必须带上分片键,大大限制了查询场景,此时也可以将数据异构到ES中,支持多样化的查询。

这其中有一个很重要的问题,就是如何实现 MySQL 数据库和 ES 的数据同步,本文就和大家聊聊 MySQL ES 数据同步的各种方案。

我们先看看下面 4 种常用的数据同步方案。

2. 数据同步方案

2.1 同步双写

这是一种最为简单的方式,在将数据写到 MySQL 时,同时将数据写到 ES该方式使用较少。

优点:

  • 业务逻辑简单;
  • 实时性高。

缺点

  • 硬编码,有需要写入 MySQL 的地方都需要添加写入 ES 的代码;
  • 业务强耦合;
  • 存在双写失败丢数据风险;
  • 性能较差,本来 MySQL 的性能不是很高,再加一个 ES,系统的性能必然会下降。
  • 数据可能不一致,比如写MySQL成功,写ES失败。

2.2 异步双写

针对多数据源写入的场景,可以借助 MQ 实现异步的多源写入。工作中常见该方式,比如上游某数据更新后,记入DB,并发送MQ消息,下游消费消息后,可额外加一些信息写入ES,支持下游自己业务场景内的一些个性化查询。

优点:

  • 性能高;
  • 不易出现数据丢失问题,主要基于 MQ 消息的消费保障机制,比如 ES 宕机或者写入失败,还能重新消费 MQ 消息;
  • 多源写入之间相互隔离,便于扩展更多的数据源写入。

缺点:

  • 硬编码问题,接入新的数据源需要实现新的消费者代码;
  • 系统复杂度增加,引入了消息中间件;
  • MQ是异步消费模型,用户写入的数据不一定可以马上看到,造成延时。

2.3 基于 SQL 抽取

上面两种方案中都存在硬编码问题,代码的侵入性太强,如果对实时性要求不高的情况下,可以考虑用定时器来处理:

  1. 数据库的相关表中增加一个字段为 timestamp 的字段,任何 CURD 操作都会导致该字段的时间发生变化;

  2. 原来程序中的 CURD 操作不做任何变化;

  3. 增加一个定时器程序,让该程序按一定的时间周期扫描指定的表,把该时间段内发生变化的数据提取出来;

  4. 逐条写入到ES中。

优点:

  • 不改变原来代码,没有侵入性、没有硬编码;
  • 没有业务强耦合,不改变原来程序的性能;
  • Worker 代码编写简单不需要考虑增删改查。

缺点:

  • 时效性较差,由于是采用定时器根据固定频率查询表来同步数据,尽管将同步周期设置到秒级,也还是会存在一定时间的延迟;
  • 对数据库有一定的轮询压力,一种改进方法是将轮询放到压力不大的从库上。

经典方案:借助 Logstash 实现数据同步,其底层实现原理就是根据配置定期使用 SQL 查询新增的数据写入 ES 中,实现数据的增量同步

2.4 基于 Binlog 实时同步

上面三种方案要么有代码侵入,要么有硬编码,要么有延迟,那么有没有一种方案既能保证数据同步的实时性又没有代入侵入呢?

当然有,可以利用 MySQLBinlog 来进行同步。该方式常用,一般用于业务部门内部异构数据查询的场景

具体步骤如下:

  1. 读取 MySQLBinlog 日志,获取指定表的日志信息;
  2. 将读取的信息转为 MQ
  3. 编写一个 MQ 消费程序;
  4. 不断消费 MQ,每消费完一条消息,将消息写入到 ES 中。

优点:

  • 没有代码侵入、没有硬编码;
  • 原有系统不需要任何变化,没有感知;
  • 性能高;
  • 业务解耦,不需要关注原来系统的业务逻辑。

缺点:

  • 构建 Binlog 系统复杂;
  • 如果采用 MQ 消费解析的 Binlog 信息,也会像方案二中一样存在 MQ 延时的风险。

3. 数据迁移工具选型

对于上面 4 种数据同步方案,"基于 Binlog 实时同步"方案是目前最常用的,也诞生了很多优秀的数据迁移工具,这里主要对这些迁移工具进行介绍。

这些数据迁移工具,很多都是基于 Binlog 订阅的方式实现,模拟一个 MySQL Slave 订阅 Binlog 日志,从而实现 CDC(Change Data Capture),将已提交的更改发送到下游,包括 INSERT、DELETE、UPDATE

至于如何伪装?大家需要先了解 MySQL 的主从复制原理


mysql主备(主从)复制原理,从上层来看,复制分成三步:

  • master将改变记录到二进制日志(binary log)中(这些记录叫做二进制日志事件,binary log events,可以通过show binlog events进行查看);

  • slave通过IO线程(I/O thread)将masterbinary log events拷贝到它的中继日志(relay log);

  • slave通过SQL线程(SQL thread)重放中继日志中的事件,将改变反映到它自己的数据。

3.1 Canel

基于数据库增量日志解析,提供增量数据订阅&消费,目前主要支持 MySQL

Canal 原理就是伪装成 MySQL 的从节点,从而订阅 master 节点的 Binlog 日志,主要流程为:

  • Canal 服务端MySQLmaster 节点传输dump协议;
  • MySQLmaster 节点接收到 dump 请求后推送 Binlog 日志给 Canal服务端Canal服务端解析 Binlog 对象(原始为 byte 流)转成 Json 格式;
  • Canal客户端通过 TCP 协议或 MQ 形式监听 Canal服务端,同步数据到 ES

下面是 Canel 执行的核心流程,其中 Binlog Parser 主要负责 Binlog 的提取、解析和推送,EventSink 负责数据的过滤 、路由和加工,仅作了解即可。

3.2 阿里云 DTS

数据传输服务 DTS(Data Transmission Service)支持 RDBMSNoSQLOLAP 等多种数据源之间的数据传输。

它提供了数据迁移、实时数据订阅及数据实时同步等多种数据传输方式。相对于第三方数据流工具,DTS 提供丰富多样、高性能、高安全可靠的传输链路,同时它提供了诸多便利功能,极大方便了传输链路的创建及管理。

特点:

  • 多数据源:支持 RDBMS、NoSQL、OLAP 等多种数据源间的数据传输;
  • 多传输方式:支持多种传输方式,包括数据迁移、实时数据订阅及数据实时同步;
  • 高性能:底层采用了多种性能优化措施,全量数据迁移高峰期时性能可以达到70MB/s20万TPS,使用高规格服务器来保证每条迁移或同步链路都能拥有良好的传输性能;
  • 高可用:底层为服务集群,如果集群内任何一个节点宕机或发生故障,控制中心都能够将这个节点上的所有任务快速切换到其他节点上,链路稳定性高;
  • 简单易用:提供可视化管理界面,提供向导式的链路创建流程,用户可以在其控制台简单轻松地创建传输链路;
  • 需要付费。

再看看 DTS 的系统架构。

高可用:数据传输服务内部每个模块都有主备架构,保证系统高可用。容灾系统实时检测每个节点的健康状况,一旦发现某个节点异常,会将链路快速切换到其他节点。

数据源地址动态适配:对于数据订阅及同步链路,容灾系统还会监测数据源的连接地址切换等变更操作,一旦发现数据源发生连接地址变更,它会动态适配数据源新的连接方式,在数据源变更的情况下,保证链路的稳定性。

更多内容,请查看阿里官方文档:https://help.aliyun.com/product/26590.html

3.3 Databus

Databus 是一个低延迟、可靠的、支持事务的、保持一致性的数据变更抓取系统。由 LinkedIn2013 年开源。

Databus 通过挖掘数据库日志的方式,将数据库变更实时、可靠的从数据库拉取出来,业务可以通过定制化 client 实时获取变更并进行其他业务逻辑。

特点:

  • 多数据源:Databus 支持多种数据来源的变更抓取,包括 OracleMySQL
  • 可扩展、高度可用:Databus 能扩展到支持数千消费者和事务数据来源,同时保持高度可用性。
  • 事务按序提交:Databus 能保持来源数据库中的事务完整性,并按照事务分组和来源的提交顺寻交付变更事件。
  • 低延迟、支持多种订阅机制:数据源变更完成后,Databus 能在毫秒级内将事务提交给消费者。同时,消费者使用Databus 中的服务器端过滤功能,可以只获取自己需要的特定数据。
  • 无限回溯:对消费者支持无限回溯能力,例如当消费者需要产生数据的完整拷贝时,它不会对数据库产生任何额外负担。当消费者的数据大大落后于来源数据库时,也可以使用该功能。

再看看 Databus 的系统架构。

Databus 由 Relays、bootstrap 服务和 Client lib 等组成,Bootstrap 服务中包括 Bootstrap Producer 和 Bootstrap Server。

  • 快速变化的消费者直接从 Relay 中取事件;
  • 如果一个消费者的数据更新大幅落后,它要的数据就不在 Relay 的日志中,而是需要请求 Bootstrap 服务,返回的将会是自消费者上次处理变更之后的所有数据变更快照。
  • 开源地址:https://github.com/linkedin/databus

3.4 其它

Flink

有界数据流和无界数据流上进行有状态计算分布式处理引擎和框架。

官网地址:https://flink.apache.org

CloudCanal

数据同步迁移系统,商业产品。

官网地址:https://www.clougence.com/?utm_source=wwek

Maxwell

使用简单,直接将数据变更输出为json字符串,不需要再编写客户端。

官网地址:http://maxwells-daemon.io

DRD

阿里巴巴集团自主研发的分布式数据库中间件产品,专注于解决单机关系型数据库扩展性问题,具备轻量(无状态)、灵活、稳定、高效等特性。

官方地址:https://www.aliyun.com/product/drds

yugong

帮助用户完成从 Oracle 数据迁移到 MySQL。

访问地址:https://github.com/alibaba/yugong

4. 后记

本文记录了 MySQL 和其它多维数据的同步方案,以及常用的数据迁移工具,希望能帮助你更好选型。

相关推荐
六月闻君12 分钟前
MySQL 报错:1137 - Can‘t reopen table
数据库·mysql
SelectDB技术团队21 分钟前
兼顾高性能与低成本,浅析 Apache Doris 异步物化视图原理及典型场景
大数据·数据库·数据仓库·数据分析·doris
inventecsh37 分钟前
mongodb基础操作
数据库·mongodb
白云如幻41 分钟前
SQL99版链接查询语法
数据库·sql·mysql
爱吃烤鸡翅的酸菜鱼1 小时前
MySQL初学之旅(4)表的设计
数据库·sql·mysql·database
计算机毕设指导62 小时前
基于 SpringBoot 的作业管理系统【附源码】
java·vue.js·spring boot·后端·mysql·spring·intellij-idea
The_Ticker2 小时前
CFD平台如何接入实时行情源
java·大数据·数据库·人工智能·算法·区块链·软件工程
java1234_小锋2 小时前
Elasticsearch中的节点(比如共20个),其中的10个选了一个master,另外10个选了另一个master,怎么办?
大数据·elasticsearch·jenkins
Elastic 中国社区官方博客2 小时前
Elasticsearch 开放推理 API 增加了对 IBM watsonx.ai Slate 嵌入模型的支持
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
我的运维人生2 小时前
Elasticsearch实战应用:构建高效搜索与分析平台
大数据·elasticsearch·jenkins·运维开发·技术共享