技术栈

本地数据训练

Alex_StarSky
2 年前
人工智能·gpt·ai·chatgpt·chatglm2·本地数据训练·p-tuning训练
GPT实战系列-ChatGLM2模型的微调训练参数解读ChatGLM-6B是开源的文本生成式对话模型,基于General Language Model(GLM)框架,具有62亿参数,FP16 半精度下,ChatGLM-6B 需要 13GB 左右的显存进行推理。
Alex_StarSky
2 年前
gpt·chatgpt·大模型·llm·chatglm·大模型训练·本地数据训练
GPT实战系列-如何用自己数据微调ChatGLM2模型训练输入文字:类型#裙颜色#蓝色风格#清新*图案#蝴蝶结输出文案:裙身处采用立体蝴蝶结装饰辅以蓝色条带点缀,令衣身造型饱满富有层次的同时为其注入一丝甜美气息。将女孩清新娇俏的一面衬托而出。