处理.git文件夹过大出现臃肿问题

1、问题背景

在软件开发过程中,版本控制是一个至关重要的环节。Git 作为一种流行的分布式版本控制系统,被广泛应用于各种项目中。然而,近期我们发现在进行项目发版时,Git 克隆项目的时间显著增加,严重影响了发版的效率。经过分析,我们发现问题主要出在项目文件过大,导致克隆过程缓慢。

原因 :开发误操作上传Jar包,导致项目变大,后面就算删除jar,但是有commit记录,依旧导致文件过大。

正常大小:226M

异常大小:2.6GB

2、环境介绍

  • 项目名称: xxxx_adc_backend
  • 代码托管平台: GitLab
  • 主要分支: pre-fjfsim
  • 清理工具: BFG Repo-Cleaner

3、清理原因

在开发过程中,项目中引入了一些大文件,这些文件不仅增加了代码库的体积,还影响了代码的推送和拉取效率。为了提高项目的整体性能和维护性,我们决定采用 BFG Repo-Cleaner 进行清理。

4、清理步骤

1. 开发人员禁止推送代码

在开始清理之前,需要确保所有开发人员停止推送代码,避免在清理过程中产生新的提交。

2. 运维备份代码

运维人员需要对 xxxx_adc_backend 项目进行备份,以便在清理过程中出现问题时可以快速回滚。

3、查询大文件记录

参考文档:https://blog.csdn.net/cysear/article/details/102823671

注意:记录是commit中,最好定位到有问题的分支,在问题分支上操作。比如我的大文件记录,在pre-fjfsim 上,所以我指定的是 pre-fjfsim

bash 复制代码
#克隆仓库的镜像
git clone --mirror -b pre-fjfsim git@gitlab.fujfu.com:ownit/ownit_test.git
git clone --mirror:克隆仓库的镜像。镜像克隆会克隆所有分支和标签,但不会克隆工作目录和历史记录。
  • -b pre-fjfsim:指定克隆的分支为 pre-fjfsim

  • git@gitlab.fujfu.com:ownit/ownit_test.git:仓库的 URL。

bash 复制代码
#查找大文件的 SHA-1 哈希值
git rev-list --objects --all | grep "$(git verify-pack -v .git/objects/pack/*.idx | sort -k 3 -n | tail -5 | awk '{print$1}')"
git rev-list --objects --all:列出所有对象的 SHA-1 哈希值。
复制代码
  grep "$(git verify-pack -v .git/objects/pack/*.idx | sort -k 3 -n | tail -5 | awk '{print$1}')"

:这部分是一个复杂的管道命令,用于过滤出大文件的 SHA-1 哈希值。

  • git verify-pack -v .git/objects/pack/*.idx:验证打包文件,并显示每个对象的详细信息。
  • sort -k 3 -n:根据第三列(文件大小)进行数字排序。
  • tail -5:显示排序后的最后五行,通常是最大的五个文件。
  • awk '{print$1}':打印每行的第一个字段,即 SHA-1 哈希值。
  • grep:使用这些 SHA-1 哈希值作为搜索模式,从 git rev-list --objects --all 的输出中过滤出相关的对象。

4、使用 BFG 清理大文件

BFG Repo-Cleaner 是一个高效的工具,可以帮助我们快速清理 Git 历史中的大文件。以下是具体的清理步骤:

参考记录:https://rtyley.github.io/bfg-repo-cleaner/

克隆项目
bash 复制代码
git clone --mirror -b pre-fjfsim git@gitlab.xxxx.com:ownit/ownit_test.git
清除大文件
bash 复制代码
java -jar bfg.jar --delete-files xxxx_adc_backend_mac.tgz ownit_test.git
java -jar bfg.jar --delete-files xxxx_adc_backend_mac_2024_0202.tgz ownit_test.git
删除文件重构索引
bash 复制代码
cd ownit_test
git reflog expire --expire=now --all && git gc --prune=now --aggressive
查看容量
bash 复制代码
git count-objects -vH
更新远程
bash 复制代码
git push -f

5、开发人员检查

清理完成后,开发人员需要检查代码库是否正常。如果一切正常,则可以继续推送代码。如果发现异常,可以根据备份代码进行回滚。

5、总结

通过这次清理,我们成功地从 xxxx_adc_backend 项目中移除了不必要的大文件,不仅减轻了代码库的负担,还提高了代码管理的效率。BFG Repo-Cleaner 以其高效和稳定性,成为了我们清理 Git 历史大文件的首选工具。

相关推荐
paperxie_xiexuo25 分钟前
七款 AI PPT 工具新解:智能驱动演示升级,解锁多元创作场景
大数据·人工智能·powerpoint·大学生·ppt
q***766642 分钟前
显卡(Graphics Processing Unit,GPU)架构详细解读
大数据·网络·架构
九河云1 小时前
不同级别华为云代理商的增值服务内容与质量差异分析
大数据·服务器·人工智能·科技·华为云
阿里云大数据AI技术1 小时前
【跨国数仓迁移最佳实践 12】阿里云 MaxCompute 实现 BigQuery 10 万条 SQL 智能转写迁移
大数据·sql
Elastic 中国社区官方博客1 小时前
Elasticsearch:Microsoft Azure AI Foundry Agent Service 中用于提供可靠信息和编排的上下文引擎
大数据·人工智能·elasticsearch·microsoft·搜索引擎·全文检索·azure
DolphinScheduler社区2 小时前
结项报告完整版 | 为 Apache DolphinScheduler 添加 gRPC 插件
大数据·开源·apache·海豚调度·大数据工作流调度
Faith_xzc2 小时前
Doris内存问题指南:监控、原理与高频OOM解决方案
大数据·性能优化·doris
学习吖2 小时前
vue中封装的函数常用方法(持续更新)
大数据·javascript·vue.js·ajax·前端框架
Saniffer_SH3 小时前
通过近期测试简单聊一下究竟是直接选择Nvidia Spark还是4090/5090 GPU自建环境
大数据·服务器·图像处理·人工智能·驱动开发·spark·硬件工程
字节跳动数据平台3 小时前
火山引擎多模态数据湖,破解智能驾驶数据处理瓶颈
大数据