SFT后训练32B-LLM的一些观察

用单一语种数据集SFT

用COIG-CQIA数据集,以及把COIG-CQIA数据集混合guanaco和belle之后的数据集一起SFT 32B-Base模型,或者基于32B-Chat模型SFT(1-3 epoch),

目的是想提升LLM在单一语种的效果,

然后在中文通用评测集CEVAL和CMMLU评测,

效果都不如32B-Chat模型。

用一个NLP数据集SFT

用一个NLP任务的数据集(30W data),SFT 32B-Base模型,或者基于32B-Chat模型SFT(1 epoch),

目的是想把预训练的知识用到这个NLP任务里,

把SFT之后的LLM作为标注这个NLP任务训练数据的标注LLM,

效果还不如通用的32B-Chat模型作为标注LLM。

相关推荐
TMT星球6 分钟前
科技领跑公益,擎天租机器人“天团”助阵2026渣打上海10公里跑
人工智能·科技·机器人
子午13 分钟前
校园课堂异常行为检测系统~Python+YOLOV8算法+深度学习+模型训练+人工智能
人工智能·python·yolo
青春不败 177-3266-052014 分钟前
MATLAB 2024b深度学习新特性全面解析与DeepSeek大模型集成开发
人工智能·深度学习·机器学习·matlab·卷积神经网络·自编码器·deepseek
2zcode20 分钟前
滚压表面强化过程中变形诱导位错演化与梯度晶粒细化机理的数值模拟研究
人工智能·python·算法
郭龙飞98021 分钟前
OpenClaw Windows 端快速部署教程 小白实操指南
人工智能·windows
冬奇Lab24 分钟前
RAG 系列(十八):Conversational RAG——多轮对话中的代词陷阱
人工智能·llm
渣渣苏26 分钟前
硬核拆解 HNSW:亿级向量如何实现毫秒级召回?(下篇:实战调参与工程优化)
人工智能·算法·agent·向量数据库·hnsw·智能体
俊哥V28 分钟前
每日 AI 研究简报 · 2026-05-16
人工智能·ai
冬奇Lab32 分钟前
一天一个开源项目(第103篇):Open-Generative-AI - 开源 AI 视频与图像创作中心
人工智能·开源·aigc