技术栈

算法面题

青松@FasterAI
5 个月前
人工智能·深度学习·语言模型·自然语言处理·nlp面试·算法面题
【NLP高频面题 - LLM训练篇】为什么要对LLM做有监督微调(SFT)?有监督微调(Supervised Finetuning, SFT)又称指令微调(Instruction Tuning),是指在已经训练好的语言模型的基础上,通过使用有标注的特定任务数据进行进一步的微调,从而使得模型具备遵循指令的能力。