git的使用

查看分支

要查看当前目录的所有分支(包括本地和远程分支),可以使用以下命令:

复制代码
git branch -a

输出示例:

复制代码
 master
* trunk
 remotes/origin/HEAD -> origin/master
 remotes/origin/master
 remotes/origin/zhanghanlun

这里,* 标记的分支是当前所在的分支(即 trunk)。

切换分支

对于第一次创建并切换分支

假设你想从远程的 origin/zhanghanlun 分支创建一个新的本地分支 zhanghanlun 并切换到该分支,可以使用:

复制代码
git checkout -b zhanghanlun origin/zhanghanlun

这将创建一个新的本地分支 zhanghanlun,并基于远程的 origin/zhanghanlun 分支的内容进行初始化,然后切换到这个新分支。
如果已经存在本地分支

如果本地已经存在名为 zhanghanlun 的分支,只需直接切换到该分支:

复制代码
git checkout zhanghanlun
其他分支操作
  • 删除远程分支

    如果你需要删除远程的某个分支(假设分支名为 dev),可以使用:

  • 合并分支

    dev 分支合并到当前分支(假设当前分支是 master),可以使用:

  • 切换分支的另一种方式(Git 2.23+)

    使用 git switch 命令替代 git checkout 来切换分支,这有助于区分分支切换和检出文件:

复制代码
git push origin --delete dev
复制代码
git merge dev
复制代码
git switch dev310
提交和撤销
  • 提交更改

    在切换分支之前,通常需要先将更改提交到当前分支。首先,使用 git add . 添加所有更改,然后使用 git commit -m "你的提交信息" 提交这些更改。

  • 撤销 git add

    如果不小心将文件添加到暂存区,但不想提交,可以使用:

    或者针对特定文件:

复制代码
git reset HEAD
复制代码
git reset HEAD <文件名>
回退代码
  • 回退到某次提交

    如果需要回退到特定的提交(例如 8887f4687b639b61d5f046b15bf3a8d94c7100e2),可以使用:

    这会将当前分支的HEAD指针和工作目录都回退到指定的提交。

复制代码
git reset --hard 8887f4687b639b61d5f046b15bf3a8d94c7100e2
其他常用命令
  • 查看状态

    使用 git status 来查看当前工作目录和暂存区的状态。

  • 忽略文件

    创建 .gitignore 文件并添加需要忽略的文件或目录,以避免它们被Git跟踪。

  • 快速提交(忽略钩子检查)

    一些团队使用 git cz 作为 git commit -v 的别名,并可能配置了提交前的钩子检查。如果希望忽略这些检查,确保了解如何正确配置或使用 --no-verify 选项。

相关推荐
胖虎12 分钟前
Git 一个本地仓库同时推送到两个远程仓库(详细教程)
git·多远程仓库·双远程仓库·git双远程·git备份
2501_933670791 小时前
2026 高职大数据与会计专业零基础能考的证书有哪些?
大数据
ClouderaHadoop1 小时前
CDH集群机房搬迁方案
大数据·hadoop·cloudera·cdh
TTBIGDATA1 小时前
【Atlas】Ambari 中 开启 Kerberos + Ranger 后 Atlas Hook 无权限访问 Kafka Topic:ATLAS_HOOK
大数据·kafka·ambari·linq·ranger·knox·bigtop
程序员清洒1 小时前
CANN模型部署:从云端到端侧的全场景推理优化实战
大数据·人工智能
lili-felicity2 小时前
CANN多设备协同推理:从单机到集群的扩展之道
大数据·人工智能
pearbing3 小时前
天猫UV量提高实用指南:找准方向,稳步突破流量瓶颈
大数据·uv·天猫uv量提高·天猫uv量·uv量提高·天猫提高uv量
Dxy12393102164 小时前
Elasticsearch 索引与映射:为你的数据打造一个“智能仓库”
大数据·elasticsearch·搜索引擎
岁岁种桃花儿5 小时前
Kafka从入门到上天系列第一篇:kafka的安装和启动
大数据·中间件·kafka
Apache Flink5 小时前
Apache Flink Agents 0.2.0 发布公告
大数据·flink·apache