如何使用 INFINI Gateway 增量迁移 ES 数据

之前介绍过如何使用 INFINI Gateway迁移数据,但是迁移的是整个索引的全量数据。如果我只想迁移符合查询条件的数据,该怎么做呢?别小看这个需求,因为有了这个功能再结合时间条件检索,我们就能实现增量数据迁移,当然前提是数据有时间字段。

话不多说,我们来 demo 。

测试环境

|---------------|--------|
| 软件 | 版本 |
| Easysearch | 1.13.1 |
| Elasticsearch | 7.10.2 |
| Gateway | 1.29.8 |

迁移实战

迁移步骤与之前一样,只是 Gateway 配置里多了查询条件。

pipeline 部分我们增加 query_dsl 写入过滤条件。

复制代码
pipeline:
  - name: source_scroll
    auto_start: true
    keep_running: false
    processor:
      - es_scroll:
          slice_size: 1
          batch_size: 5000
          indices: "nginx"
          elasticsearch: source
          output_queue: source_index_dump
          partition_size: 1
          scroll_time: "5m"
          query_dsl: "{ \"query\": {  \"bool\": { \"filter\": [  {   \"range\": {  \"timestamp\": {   \"gte\": \"2024-11-16T23:59:50+08:00\",   \"lte\": \"2024-11-16T23:59:59+08:00\"  }   }  } ]  } }}"

我们先看看源端 nginx 索引全量数据有多少,297482 条。

再看看 nginx 索引中符合查询条件的文档有多少,21 条。

也就是说这次我们只会迁移 21 条数据,运行 Gateway 进行"增量"数据迁移。

迁移完成。结合查询条件可以使 INFINI Gateway 更加灵活,当然 Gateway 还有更多实用功能,欢迎大家查阅官方文档

相关推荐
武子康2 小时前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
NineData11 小时前
NineData 迁移评估功能正式上线
数据库·dba
NineData17 小时前
数据库迁移总踩坑?用 NineData 迁移评估,提前识别所有兼容性风险
数据库·程序员·云计算
洛森唛18 小时前
Elasticsearch DSL 查询语法大全:从入门到精通
后端·elasticsearch
赵渝强老师19 小时前
【赵渝强老师】PostgreSQL中表的碎片
数据库·postgresql
字节跳动数据平台1 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
全栈老石1 天前
拆解低代码引擎核心:元数据驱动的"万能表"架构
数据库·低代码
得物技术1 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康1 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
倔强的石头_2 天前
kingbase备份与恢复实战(二)—— sys_dump库级逻辑备份与恢复(Windows详细步骤)
数据库