技术栈
算法面题
青松@FasterAI
5 天前
人工智能
·
深度学习
·
语言模型
·
自然语言处理
·
nlp面试
·
算法面题
【NLP高频面题 - LLM训练篇】为什么要对LLM做有监督微调(SFT)?
有监督微调(Supervised Finetuning, SFT)又称指令微调(Instruction Tuning),是指在已经训练好的语言模型的基础上,通过使用有标注的特定任务数据进行进一步的微调,从而使得模型具备遵循指令的能力。