es --- 集群数据迁移

目录

1、需求

迁移部分新集群没有的索引和数据

2、工具elasticdump

Elasticdump 的工作原理是将输入发送到输出 。两者都可以是 elasticsearch URL 或 File

2.1 mac安装

前置:已经安装有npm

复制代码
npm install elasticdump -g

(-g 全局)

报错:

npm WARN ERESOLVE overriding peer dependency

npm WARN While resolving: requestretry@7.1.0

npm WARN Found: peer request@"2.." from the root project

npm WARN npm WARN Could not resolve dependency:

npm WARN peer request@"2.." from the root project

npm ERR! code EACCES

npm ERR! syscall mkdir

npm ERR! path /Users/miuye/.npm/_cacache/content-v2/sha512/cd/26

npm ERR! errno EACCES

npm ERR!

npm ERR! Your cache folder contains root-owned files, due to a bug in

npm ERR! previous versions of npm which has since been addressed.

npm ERR!

npm ERR! To permanently fix this problem, please run:

npm ERR! sudo chown -R 501:20 "/Users/miuye/.npm"

问题

1、依赖冲突 2、权限不足

解决
复制代码
# 升级相关包
sudo npm install requestretry@latest -g
复制代码
# sudo重新执行
sudo npm install elasticdump -g

2.2 elasticdump文档

https://github.com/taskrabbit/elasticsearch-dump

3、迁移

迁移mapping

elasticdump --input="http://username:password@testing.es.com:9200/my_index" --output="http://username:password@staging.es.com:9200/$INDEX_NAME" --type=mapping

迁移data

elasticdump --input="http://username:password@testing.es.com:9200/my_index" --output="http://username:password@staging.es.com:9200/$INDEX_NAME" --type=data

【注意】:鉴权的用户名和密码写在url中,以@分割,无鉴权就只写es url

如果目的es中已经存在对应资源,会报错,可以设置--skip-existing=true,如果资源存在,不报错

我使用的脚本进行对比和迁移,如果需要新集群的配置信息和新集群保持一致,可以先迁移setting

shell 复制代码
#!/bin/bash

# 源集群和目标集群的配置
SOURCE_ES_URL="http://testing.es.com:9200"
TARGET_ES_URL="http://staging.es.com:9200"
SOURCE_USERNAME="testing"
SOURCE_PASSWORD="123456"
TARGET_USERNAME="staging"
TARGET_PASSWORD="123456"


# 获取源集群中所有索引的名称
INDEXES=$(curl -u $SOURCE_USERNAME:$SOURCE_PASSWORD -s -X GET "$SOURCE_ES_URL/_cat/indices?h=index&s=index")

while IFS= read -r INDEX_NAME; do
	# 只迁移以_dev结尾的
    if [[ "$INDEX_NAME" == *_dev ]]; then
        # 查询新集群索引
        INDEX_EXISTS=$(curl -u $TARGET_USERNAME:$TARGET_PASSWORD -s -o /dev/null -w "%{http_code}" -X GET "$TARGET_ES_URL/$INDEX_NAME")
        
        # 检查 curl 命令是否成功
        if [ $? -ne 0 ]; then
            echo "Failed to check index existence for $INDEX_NAME"
            continue
        fi

        if [ "$INDEX_EXISTS" -eq 200 ]; then
            echo "Index $INDEX_NAME exists, jump"
        elif [ "$INDEX_EXISTS" -eq 404 ]; then
            echo "Index $INDEX_NAME not exists, transfer..."
            # 迁移结构
            elasticdump --input="http://$SOURCE_USERNAME:$SOURCE_PASSWORD@testing.es.com:9200/$INDEX_NAME" --output="http://$TARGET_USERNAME:$TARGET_PASSWORD@staging.es.com:9200/$INDEX_NAME" --type=mapping
            # 迁移数据
            elasticdump --input="http://$SOURCE_USERNAME:$SOURCE_PASSWORD@testing.es.com:9200/$INDEX_NAME" --output="http://$TARGET_USERNAME:$TARGET_PASSWORD@staging.es.com:9200/$INDEX_NAME" --type=data
        else
            echo "Unknown $INDEX_EXISTS for $INDEX_NAME"
        fi
    fi
done <<< "$INDEXES"
相关推荐
淡酒交魂18 分钟前
「Flink」业务搭建方法总结
大数据·数据挖掘·数据分析
mask哥22 分钟前
详解flink java基础(一)
java·大数据·微服务·flink·实时计算·领域驱动
TDengine (老段)26 分钟前
TDengine IDMP 高级功能(4. 元素引用)
大数据·数据库·人工智能·物联网·数据分析·时序数据库·tdengine
livemetee1 小时前
Flink2.0学习笔记:Flink服务器搭建与flink作业提交
大数据·笔记·学习·flink
zhang98800003 小时前
储能领域大数据平台的设计中如何使用 Hadoop、Spark、Flink 等组件实现数据采集、清洗、存储及实时 / 离线计算,支持储能系统分析与预测
大数据·hadoop·spark
老蒋新思维3 小时前
存量竞争下的破局之道:品牌与IP的双引擎策略|创客匠人
大数据·网络·知识付费·创客匠人·知识变现
Lx3524 小时前
Hadoop日志分析实战:快速定位问题的技巧
大数据·hadoop
Elasticsearch7 小时前
Elastic 的托管 OTLP 端点:为 SRE 提供更简单、可扩展的 OpenTelemetry
elasticsearch
喂完待续7 小时前
【Tech Arch】Hive技术解析:大数据仓库的SQL桥梁
大数据·数据仓库·hive·hadoop·sql·apache
SelectDB8 小时前
5000+ 中大型企业首选的 Doris,在稳定性的提升上究竟花了多大的功夫?
大数据·数据库·apache