因业务需求,需要将B服务器的备份文件定时拷贝到A服务器,并且保留最近三天同步的备份文件以及每个月1日的备份文件,实现shell脚本如下:gitlab-backup.sh
bash
#!/bin/bash
# ================= 配置区域 =================
# B 服务器 IP
REMOTE_IP="192.168.1.1"
# B 服务器备份目录
REMOTE_DIR="/data/backup/gitlab"
# A 服务器本地备份目录
LOCAL_DIR="/data/backup/gitlab/gitlab"
# 登录用户
REMOTE_USER="root"
# SSH 端口
SSH_PORT="62222"
# =============================================
# 1. 确保本地目录存在
mkdir -p "$LOCAL_DIR"
echo "================ 开始同步任务 ================"
# 2. 找出 B 服务器上最新的那个 tar 文件
# 使用 ssh 连接到 B,ls -t 按时间排序,head -n 1 取第一个
LATEST_REMOTE_FILE=$(ssh -p ${SSH_PORT} ${REMOTE_USER}@${REMOTE_IP} "ls -t ${REMOTE_DIR}/*.tar 2>/dev/null | head -n 1")
# 如果远程没有找到文件,退出
if [ -z "$LATEST_REMOTE_FILE" ]; then
echo "错误:在远程服务器上未找到任何 .tar 备份文件"
exit 1
fi
# 提取文件名 (去掉路径)
FILENAME=$(basename "$LATEST_REMOTE_FILE")
echo "发现远程最新文件: $FILENAME"
# 3. 判断本地是否已存在该文件
# 如果本地已经有了这个文件,说明已经是最新的,无需同步
if [ -f "$LOCAL_DIR/$FILENAME" ]; then
echo "本地已存在最新文件 $FILENAME,跳过传输。"
else
echo "正在拉取文件..."
# 4. 只拉取这 1 个文件
# 注意:源是 远程:文件路径, 目标是 本地目录/
rsync -avz -P -e "ssh -p ${SSH_PORT}" "${REMOTE_USER}@${REMOTE_IP}:${LATEST_REMOTE_FILE}" "$LOCAL_DIR/"
if [ $? -eq 0 ]; then
echo "文件拉取成功。"
else
echo "文件拉取失败!"
exit 1
fi
fi
# 5. 在 A 服务器(本地)执行清理策略
# 策略:删除 3 天前的文件,但保留文件名包含 '_01_' (每月1号) 的文件
echo "正在执行本地清理策略..."
cd "$LOCAL_DIR"
# 这里的逻辑是:
# find 找到 3天前的文件 -> grep -v 排除掉 '_01_' 的文件 -> xargs 删除
# 为了安全,你可以先去掉 "| xargs rm -f" 看看会删除哪些文件
DELETED_FILES=$(find . -maxdepth 1 -name '*.tar' -type f -mtime +3 | grep -v '_01_' | xargs -I {} basename {})
if [ -z "$DELETED_FILES" ]; then
echo "没有需要清理的旧文件。"
else
echo "即将删除以下文件:"
echo "$DELETED_FILES"
# 执行删除
find . -maxdepth 1 -name '*.tar' -type f -mtime +3 | grep -v '_01_' | xargs rm -f
echo "清理完成。"
fi
echo "================ 同步任务结束 ================"
对文件进行授权
bash
cd /data/backup/gitlab/
chmod +x gitlab-backup.sh
配置服务器定时任务
bash
# 执行
crontab -e
# 增加下面这两行
# 异地备份gitlab,每天凌晨 02:30 执行同步脚本
30 2 * * * /data/backup/gitlab/gitlab-backup.sh >> /data/backup/gitlab/gitlab.log 2>&1