指令微调

人工智能培训咨询叶梓1 个月前
人工智能·语言模型·自然语言处理·性能优化·调优·大模型微调·指令微调
探索开放资源上指令微调语言模型的现状人工智能咨询培训老师叶梓 转载标明出处开放模型在经过适当的指令调整后,性能可以与最先进的专有模型相媲美。但目前缺乏全面的评估,使得跨模型比较变得困难。来自Allen Institute for AI和华盛顿大学的研究人员们进行了一项全面的研究,探索了不同公开指令数据集对语言模型性能的影响。
人工智能培训咨询叶梓2 个月前
人工智能·语言模型·自然语言处理·性能优化·调优·大模型微调·指令微调
自我指导:提升语言模型自我生成指令的能力人工智能咨询培训老师叶梓 转载标明出处传统的语言模型,尤其是经过指令微调的大型模型,虽然在零样本(zero-shot)任务泛化上表现出色,但它们高度依赖于人类编写的指令数据。这些数据往往数量有限、多样性不足,且缺乏创造性,限制了模型的泛化能力。为了解决这一问题,由华盛顿大学、德黑兰理工大学、亚利桑那州立大学、约翰霍普金斯大学以及艾伦人工智能研究所的研究人员联合提出了一种名为“SELF-INSTRUCT”的框架,旨在通过自举(bootstrapping)的方式,利用预训练语言模型自身的生成能力,提升其遵循指
SpikeKing3 个月前
人工智能·语言模型·自然语言处理·finetune·mllm·多模态大语言模型·指令微调
LLM - 使用 XTuner 指令微调 多模态大语言模型(InternVL2) 教程欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142528967
SpikeKing3 个月前
人工智能·语言模型·指令微调·数据调整·自指令·数据混合·instruction
LLM - 理解 多模态大语言模型(MLLM) 的 指令微调(Instruction-Tuning) 与相关技术 (四)欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/142237871