技术栈
p-tuning训练
Alex_StarSky
1 年前
chatgpt
·
大模型
·
chatglm2
·
p-tuning训练
·
本地化训练
·
llm训练
·
训练代码解读
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(二)
本文试图分析程序结构和代码,解释序列转换生成模型的微调训练。为了篇幅不要过长,分两篇文章解读,本文解读训练代码。框架概述请看前篇文章:GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型,到底做了什么?(一)
Alex_StarSky
1 年前
人工智能
·
gpt
·
ai
·
chatgpt
·
chatglm2
·
本地数据训练
·
p-tuning训练
GPT实战系列-ChatGLM2模型的微调训练参数解读
ChatGLM-6B是开源的文本生成式对话模型,基于General Language Model(GLM)框架,具有62亿参数,FP16 半精度下,ChatGLM-6B 需要 13GB 左右的显存进行推理。