如何用通俗易懂的方式解释大模型中的SFT,SFT过程需要大量标记的prompt和response吗?

想象你在培训一个超级助理

假设你新买了一个智能管家机器人,它已经看过海量的书籍和资料**(这就是预训练过程)**。但是呢,它还不太懂得"做人的艺术"------不知道该用什么语气说话、怎么回应你的需求。

现在你要训练它成为一个得体的助理,这就是SFT要做的事情。

SFT其实就是在教机器人"做人"

训练过程大概是这样的:

你:天气真好啊!
理想回复:是的呢!今天阳光明媚,特别适合出去散步。需要我帮您查查附近有什么适合散步的地方吗?
糟糕回复:根据气象数据显示,当前气温23.5度,湿度45%,风速3级...

通过这样的示例,我们在教机器人:不要像个气象站一样冰冷地报数据,要学会共情,给出温暖的回应,要懂得适时提供帮助。

那到底需要多少训练数据呢?

这个问题特别有意思!实际上,现在的研究发现:不需要想象中那么多数据。

就像教小孩子礼貌用语,你不需要给他展示10000个说"谢谢"的场景,只要有足够典型的例子,他就能举一反三,关键是这些例子要有代表性、高质量。

现在的研究表明,用大约1万-10万条高质量对话数据就能取得不错的效果。这些数据需要覆盖:基本的对话礼仪、常见任务的处理方式、特殊情况的应对策略。

但是也需要注意:少即是多

就像李小龙的名言:"我不怕会一万种踢法的人,我怕把一种踢法练一万次的人。"

在SFT中也是类似的道理,与其收集100万条质量一般的数据,不如精心准备10万条优质示例。质量 > 数量


有趣的是,现在研究发现,有时候模型在SFT后会表现出一些意想不到的能力,就像你教小孩子说"谢谢",他可能自己悟出来还要说"不客气"一样~

觉得这个解释有帮助的话,欢迎点赞关注,我是旷野,探索无尽技术!

相关推荐
Stealmoon_93 分钟前
快速、简单的2D-6D位姿估计:Gen6D算法复现 (pytorch 1.12.1 + cu113)
人工智能·pytorch·算法
whaosoft-1433 分钟前
51c~Pytorch~合集4
人工智能
爱喝热水的呀哈喽16 分钟前
pytorch模型的保存失敗しましたが、
人工智能·pytorch·python
pzx_00135 分钟前
【深度学习】通俗理解偏差(Bias)与方差(Variance)
人工智能·python·深度学习·算法·机器学习·集成学习
power-辰南1 小时前
Transformer入门教程全解析(一)
人工智能·深度学习·transformer
筑梦之月1 小时前
浅析大语言模型安全和隐私保护国内外标准和政策
人工智能·安全·语言模型
漂亮_大男孩1 小时前
深度学习|表示学习|为什么要有激活函数?|03
人工智能·深度学习·学习
凌青羽1 小时前
中国科学院|PPTAgent:超越文本到幻灯片的演示文稿生成与评估
人工智能·语言模型·自然语言处理·llm
小饼干超人2 小时前
huggingface/bert/transformer的模型默认下载路径以及自定义路径
人工智能·bert·transformer
云端FFF2 小时前
VS2015 + OpenCV + OnnxRuntime-Cpp + YOLOv8 部署
人工智能·opencv·yolo