gitlab 12.7恢复

一 摘要

本文主要介绍基于gitlab 备份包恢复gitlab

二 环境信息

科目 老环境 新环境
操作系统 centos7.3 centos7.6
docker 19.0.3 19.0.3
gitlab 12.7 12.7

三 实施

主要有安装docker\docker-compose\gitlab

备份恢复三个文件

1.gitlab 配置文件gitlab.rb

2.gitlab 加密文件gitlab-secrets.json

3.backup 目录下备份文件

3.1 安装基础软件

安装操作系统,安装docker、安装gitlab

3.2 备份数据移到新gitlab 备份目录

bash 复制代码
root@1591e6e16e02:/var/opt/gitlab/backups# ls -al
total 115855504
drwx------.  3 git  root           83 Nov 13 07:42 .
drwxr-xr-x. 20 root root         4096 Nov 13 07:30 ..
-rw-r--r--.  1 root root 118636032000 Nov 13 07:21 1699301977_2023_11_06_12.7.7-ee_gitlab_backup.tar
drwx------.  3 git  git            21 Nov 13 07:42 repositories
root@1591e6e16e02:/var/opt/gitlab/backups# date
Mon Nov 13 07:50:48 UTC 2023
root@1591e6e16e02:/var/opt/gitlab/backups#

3.3 关闭unicorn 和sidekiq

bash 复制代码
root@1591e6e16e02:/# gitlab-ctl stop unicorn
ok: down: unicorn: 0s, normally up
root@1591e6e16e02:/# gitlab-ctl stop sidekiq
ok: down: sidekiq: 0s, normally up
root@1591e6e16e02:/# gitlab-ctl status
run: alertmanager: (pid 327) 3132s; run: log: (pid 325) 3132s
run: gitaly: (pid 302) 3132s; run: log: (pid 301) 3132s
run: gitlab-exporter: (pid 320) 3132s; run: log: (pid 312) 3132s
run: gitlab-workhorse: (pid 315) 3132s; run: log: (pid 308) 3132s
run: grafana: (pid 321) 3132s; run: log: (pid 314) 3132s
run: logrotate: (pid 316) 3132s; run: log: (pid 307) 3132s
run: nginx: (pid 319) 3132s; run: log: (pid 309) 3132s
run: postgres-exporter: (pid 324) 3132s; run: log: (pid 318) 3132s
run: postgresql: (pid 306) 3132s; run: log: (pid 305) 3132s
run: prometheus: (pid 322) 3132s; run: log: (pid 313) 3132s
run: redis: (pid 300) 3132s; run: log: (pid 299) 3132s
run: redis-exporter: (pid 317) 3132s; run: log: (pid 310) 3132s
down: sidekiq: 35s, normally up; run: log: (pid 311) 3132s
run: sshd: (pid 22) 3147s; run: log: (pid 21) 3147s
down: unicorn: 45s, normally up; run: log: (pid 303) 3132s
root@1591e6e16e02:/#

3.4 执行恢复命令

bash 复制代码
gitlab-rake gitlab:backup:restore BACKUP = 1699301977_2023_11_06_12.7.7-ee

3.5 恢复配置文件

相关推荐
武子康37 分钟前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
洛森唛21 小时前
ElasticSearch查询语句Query String详解:从入门到精通
后端·elasticsearch
字节跳动数据平台1 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康1 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
洛森唛2 天前
Elasticsearch DSL 查询语法大全:从入门到精通
后端·elasticsearch
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive
武子康3 天前
大数据-237 离线数仓 - Hive 广告业务实战:ODS→DWD 事件解析、广告明细与转化分析落地
大数据·后端·apache hive
大大大大晴天3 天前
Flink生产问题排障-Kryo serializer scala extensions are not available
大数据·flink