如何用清华 ChatGLM 微调一个私域大模型

曹政,曹大是我们圈子里公认的大佬。他在技术上不仅早早领先,在思维认知领域更是帮助很多小伙伴快速成长。

没有 ChatGPT 之前,我一直在想,能否将曹大的思维,直接植入过来,就跟无崖子传输功力,头碰头就行。当然我多想了 !!

ChatGPT 出来后,快速获取通识变得异常高效。但解决问题的思考模型,还是缺少系统性的植入。直到 LLaMa, ChatGLM 开源后,我才发觉,奇点真的可能到了,微调就能达到制作私域内容数字分身的效果。

于是,周末我趁着大块时间,一鼓作气,把微调这个事儿,给办了。用的微调语料当然是曹大的 500+ 篇公众号文章。

以下是我的制作步骤:

  1. 下载清华 ChatGLM 2 6B 的大模型

  2. 下载 github 清华微调套件

  3. 利用 ChatGPT 3.5 制作微调语料

  4. 开始训练 GLM 大模型,得到 checkpoint

下面看看效果:

更详细的测评,我上传到了视频号:

微调前

微调后

对于技术感兴趣的同学,我分享个用 ChatGPT 3.5 打标注,组训练数据集的技巧吧。除了人工标注数据外,GPT 在这方面非常有优势。

下面是我用到的 Prompt:

上面微调前后对比图中,用到的微调语料数据集,就是这段 Prompt 生成的。如果用 GPT 4 的话,效果更好,但费用也更高。

下面带个货,Prompt 如此重要的技能,无论工资涨没涨,买书学技能的银子大家肯定舍得花的,不用 79,一半就成,哈哈哈哈哈:

相关推荐
Him__17 小时前
OpenAI发布最新推理模型o3-mini
人工智能·chatgpt·deepseek
雾岛心情1 天前
【AIGC专栏】AI在自然语言中的应用场景
人工智能·chatgpt·aigc
Jet45051 天前
玩转ChatGPT:DeepSeek测评(科研思路梳理)
人工智能·chatgpt·kimi·deepseek-r1
沐雪架构师1 天前
ChatGPT与GPT的区别与联系
gpt·chatgpt
AIGC大时代1 天前
对比DeepSeek、ChatGPT和Kimi的学术写作撰写引言能力
数据库·论文阅读·人工智能·chatgpt·数据分析·prompt
神经美学_茂森1 天前
【方法论】ChatGPT与DeepSeek的联合应用,提升工作效率的新解决方案
人工智能·chatgpt
kakaZhui2 天前
【llm对话系统】大模型源码分析之 LLaMA 位置编码 RoPE
人工智能·深度学习·chatgpt·aigc·llama
AIGC大时代2 天前
对比DeepSeek、ChatGPT和Kimi的学术写作关键词提取能力
论文阅读·人工智能·chatgpt·数据分析·prompt
kakaZhui2 天前
【llm对话系统】大模型 Llama 源码分析之 LoRA 微调
pytorch·深度学习·chatgpt·aigc·llama
单蠢小威2 天前
受击反馈HitReact、死亡效果Death Dissolve、Floating伤害值Text(末尾附 客户端RPC )
c++·chatgpt·ue5