【BUG】P-tuningv2微调ChatGLM2-6B时所踩的坑

0.前言

P-tuning v2的实验在网上一抓一大把,这里就说一下我在微调过程中遇到的有些bug,踩过的一些坑,在网上找了很久都没有一些好的解决方案,在这里记录一下。

1.下载预训练模型

在官方给出的教程中,并不需要预先将模型下载到本地,而是直接连接hugging face获取,但是!在国内因为限制问题,就会导致连接失败,于是需要将预训练模型预先下载到本地,放在ptuning目录下,比如

这里!我就踩到了第一个坑里,在大部分的教程中,一般会用

python 复制代码
git clone https://github.com/THUDM/ChatGLM2-6B.git

来下载预训练模型,但是!我又是等了好半天都没有下载下来。

所以,在这里倾情推荐智谱AI的下载连接:

chatglm2-6b-int4 · 模型库 (modelscope.cn)https://modelscope.cn/models/ZhipuAI/chatglm2-6b-int4/files 但是一定要用下面的这条指令下载到你的指定目录下

python 复制代码
pip install modelscope  # 安装modelscope
modelscope download --model ZhipuAI/chatglm2-6b-int4 --local_dir ./chatglm2-6b-int4 

2.torch.distributed.elastic.multiprocessing.errors.ChildFailedError

这个bug真的很恐怖,折磨了我三天,我在8月份微调的时候,相同的参数配置,并没有出现报错,结果10月份来,一直报错。看似是报错ChildFailedError,实际上你要看它上面那一部分的报错:

我们再对应到源码

这里的意思大概就是所用的load_dataset方法并没有"use_auth_token"这个参数 ,我大致查了一下,这个参数为True则使用公开数据集,为False则是使用私有数据集,我不知道是版本更新还是怎么的,我就直接删除了这个参数就好了。

相关推荐
上不如老下不如小1 小时前
2025年第七届全国高校计算机能力挑战赛 决赛 Python组 编程题汇总
开发语言·python
smile_Iris2 小时前
Day 32 类的定义和方法
开发语言·python
reasonsummer2 小时前
【教学类-89-11】20251209新年篇07——灰色姓名对联(名字做对联,姓氏做横批,福字贴(通义万相AI福字空心字))
python·通义万相
java1234_小锋8 小时前
Transformer 大语言模型(LLM)基石 - Transformer架构介绍
深度学习·语言模型·llm·transformer
yLDeveloper8 小时前
一只菜鸟学深度学习的日记:填充 & 步幅 & 下采样
深度学习·dive into deep learning
测试19988 小时前
功能测试、自动化测试、性能测试的区别
自动化测试·python·功能测试·测试工具·职场和发展·性能测试·安全性测试
为爱停留9 小时前
Spring AI实现RAG(检索增强生成)详解与实践
人工智能·深度学习·spring
Data_agent9 小时前
1688获得1688店铺所有商品API,python请求示例
java·开发语言·python
噜~噜~噜~9 小时前
显式与隐式欧拉法(Explicit Euler and Implicit Euler)的个人理解
深度学习·显式欧拉法·隐式欧拉法·动力学系统
一晌小贪欢9 小时前
【Python办公】-图片批量添加文字水印(附代码)
开发语言·python·图片水印·python水印·python添加水印·图片添加水印