ClickHouse迁移Starrocks脚本工具

使用方法:执行sh process_inspect_event_dist.sh

bash 复制代码
#!/bin/bash


# 表名 分区字段 分区
sh export.sh m_event "toYYYYMM(operation_time)" 202509

# 表名 分区 表内字段
sh import.sh m_event 202509 batch_id,business_type,tenant_id,create_time 

先导出ClickHouse数据至CSV文件:

bash 复制代码
#!/bin/bash

# 定义表名数组
tables=("$1")
partition="$2"
dt=$3

# 定义IP地址数组
ips=(
    "198.0.0.1"
    "198.0.0.2"
)

# 清理csv文件
rm -rf /data1/export/out* 

if [ "$1" = "" ]; then
    echo "错误: table name变量未设置"
    exit 1
fi

if [ "$2" = "" ]; then
    echo "错误: partition变量未设置"
    exit 1
fi

if [ "$dt" = "" ]; then
    echo "错误: dt变量未设置"
    exit 1
fi

echo "Export for dt $dt:"

# 循环遍历每张表
for table in "${tables[@]}"; do
    echo "Processing table: $table"
    
    # 循环遍历每个IP地址
    for i in "${!ips[@]}"; do
        ip=${ips[$i]}
        echo "Executing query on IP: $ip"
        
        # 构建输出文件名
        output_file="out-${table}-$dt-$((i+1)).csv"
        
        # 执行ClickHouse查询并将结果保存到CSV文件
        clickhouse-client -h "$ip" -u admin --password 123456 -m --query "SELECT * FROM test.$table WHERE $2 = '$3'  ;" > "$output_file"
        
        # 检查命令是否成功
        if [ $? -eq 0 ]; then
            echo "Query executed successfully. Output saved to $output_file"
        else
            echo "Failed to execute query on IP: $ip"
        fi
    done
    
    echo "Finished processing table: $table"
    echo "----------------------------------------"
done

echo "All queries have been executed."

然后导入StarRocks中:

bash 复制代码
#!/bin/bash

# StarRocks Stream Load配置
USER="root"
PASSWORD="123456"
HOST="192.168.0.3"
PORT="8030"
DATABASE="test"
TABLE="$1"

dt=$2

# 列定义
COLUMNS="$3"

# 文件列表(按数字顺序排序)
FILES=(
"out-$1-$dt-1.csv"
)

# 创建日志目录
LOG_DIR="/data1/export"

if [ "$1" = "" ]; then
    echo "错误: table name变量未设置"
    exit 1
fi

if [ "$dt" = "" ]; then
    echo "错误: dt变量未设置"
    exit 1
fi

if [ "$3" = "" ]; then
    echo "错误: columns变量未设置"
    exit 1
fi

# 遍历所有文件并执行Stream Load
for FILE in "${FILES[@]}"; do
  # 检查文件是否存在
  if [ ! -f "$FILE" ]; then
    echo "文件 $FILE 不存在,跳过..."
    continue
  fi

  # 生成唯一label(带时间戳)
  TIMESTAMP=$(date +%Y%m%d%H%M%S)
  LABEL="load_${FILE%.*}_$TIMESTAMP"

  # 输出当前处理信息
  echo "正在处理文件: $FILE (Label: $LABEL)"
  echo "文件大小: $(du -h "$FILE" | cut -f1)"

  # 执行Stream Load
  START_TIME=$(date +%s)
  
  curl --location-trusted -u "$USER:$PASSWORD" \
    -H "label:$LABEL" \
    -H "column_separator:	" \
    -H "columns:$COLUMNS" \
    -T "$FILE" -XPUT \
    "http://$HOST:$PORT/api/$DATABASE/$TABLE/_stream_load" > "$LOG_DIR/${LABEL}.log" 2>&1

  # 检查curl命令执行结果
  CURL_EXIT_CODE=$?
  END_TIME=$(date +%s)
  DURATION=$((END_TIME - START_TIME))

  if [ $CURL_EXIT_CODE -eq 0 ]; then
    # 解析响应日志检查是否成功
    if grep -q '"Status": "Success"' "$LOG_DIR/${LABEL}.log"; then
      echo "成功导入 $FILE (耗时: ${DURATION}秒)"
      # 可选:导入成功后移动或删除文件
      # mv "$FILE" "processed/$FILE"
    else
      echo "导入 $FILE 失败,请查看日志: $LOG_DIR/${LABEL}.log"
    fi
  else
    echo "执行curl命令失败 (退出码: $CURL_EXIT_CODE),文件: $FILE"
  fi

  # 避免短时间内发送过多请求(根据需要调整)
  sleep 2
done

echo "所有文件处理完成。日志保存在 $LOG_DIR 目录中。"
相关推荐
不恋水的雨3 小时前
docker安装clickhouse数据库容器
clickhouse·docker·容器
麦兜和小可的舅舅3 小时前
ClickHouse Dist表的Replica选择逻辑深度解析-- Custom Key以及Sample的执行逻辑
c++·clickhouse·distribute·shard
布吉岛的石头3 小时前
ClickHouse性能优化:OLAP数据库实战,让查询飞起来
数据库·clickhouse·性能优化
=蜗牛=5 天前
Docker 简单部署 ClickHouse 超详细图文步骤
clickhouse·docker·容器·部署·图文
狼与自由6 天前
clickhouse log引擎
clickhouse
狼与自由7 天前
clickhouse AggregatingMergeTree
clickhouse
狼与自由7 天前
clickhouse ReplacingMergeTree
android·clickhouse
狼与自由8 天前
clickhouse中的分区
clickhouse
狼与自由8 天前
clickhouse 查询
clickhouse
狼与自由8 天前
clickhouse mergeTree
clickhouse