手把手带你实现ChatGLM2-6B的P-Tuning微调

参考文献:chatglm2ptuning

注意问题1:AttributeError: 'Seq2SeqTrainer' object has no attribute 'is_deepspeed_enabl

torch.distributed.elastic.multiprocessing.errors.ChildFailedError:

可能是版本太高,可以参考chatglm2的环境

相关推荐
哥本哈士奇(aspnetx)1 小时前
SQL Server 图数据库学习笔记1:构建图数据库
大模型
码点滴3 小时前
什么时候用 DeepSeek V4,而不是 GPT-5/Claude/Gemini?
人工智能·gpt·架构·大模型·deepseek
墨北小七4 小时前
使用InspireFace进行智慧楼宇门禁人脸识别的训练微调
人工智能·深度学习·神经网络
数智工坊4 小时前
【Mask2Former论文阅读】:基于掩码注意力的通用分割Transformer,大一统全景/实例/语义分割
论文阅读·深度学习·transformer
翔云1234565 小时前
vLLM全解析:定义、用途与竞品对比
人工智能·ai·大模型
fpcc5 小时前
AI和大模型——Fine-tuning
人工智能·深度学习
AI医影跨模态组学6 小时前
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制
人工智能·深度学习·论文·医学·医学影像·影像组学
冰西瓜6008 小时前
深度学习的数学原理(三十三)—— Transformer编码器完整实现
人工智能·深度学习·transformer
我是大聪明.10 小时前
CUDA矩阵乘法优化:共享内存分块与Warp级执行机制深度解析
人工智能·深度学习·线性代数·机器学习·矩阵
码云数智-大飞10 小时前
大模型幻觉:成因解析与有效避免策略
人工智能·深度学习