技术栈
本地数据训练
Alex_StarSky
1 年前
人工智能
·
gpt
·
ai
·
chatgpt
·
chatglm2
·
本地数据训练
·
p-tuning训练
GPT实战系列-ChatGLM2模型的微调训练参数解读
ChatGLM-6B是开源的文本生成式对话模型,基于General Language Model(GLM)框架,具有62亿参数,FP16 半精度下,ChatGLM-6B 需要 13GB 左右的显存进行推理。
Alex_StarSky
1 年前
gpt
·
chatgpt
·
大模型
·
llm
·
chatglm
·
大模型训练
·
本地数据训练
GPT实战系列-如何用自己数据微调ChatGLM2模型训练
输入文字:类型#裙颜色#蓝色风格#清新*图案#蝴蝶结输出文案:裙身处采用立体蝴蝶结装饰辅以蓝色条带点缀,令衣身造型饱满富有层次的同时为其注入一丝甜美气息。将女孩清新娇俏的一面衬托而出。