xtuner

Yeliang Wu13 天前
大模型·微调·xtuner
XTuner大模型微调实战指南:核心原理与Ubuntu 22.04全流程详解作者:吴业亮 博客:wuyeliang.blog.csdn.netXTuner 是由上海人工智能实验室开发的开源工具,专注于大语言模型(LLM)的高效微调。它支持在几乎所有GPU(包括仅8GB显存的设备)上对LLM进行预训练或微调,甚至能处理7B规模的模型。秉承“开箱即用”的设计理念,XTuner 提供了丰富的预设配置与直观的命令行接口,大幅降低使用门槛。
@鱼香肉丝没有鱼17 天前
分布式·大模型微调·xtuner·llamafactory
大模型分布式微调 & Xtuner我们传统意义上把分布式微调叫做多卡训练,多卡训练干嘛用的呢?其实它是为了解决两个问题:显存不足的问题;
InternLM3 个月前
人工智能·开源·xtuner·书生大模型·大模型训练框架·大模型预训练·大模型后训练
专为“超大模型而生”,新一代训练引擎 XTuner V1 开源!9 月 8 日,上海人工智能实验室(上海AI实验室)开源书生大模型 新一代训练引擎 XTuner V1。
Silence4Allen7 个月前
人工智能·大模型·微调·xtuner·llamafactory
大模型微调终极方案:LoRA、QLoRA原理详解与LLaMA-Factory、Xtuner实战对比微调(Fine-tuning)是深度学习中的一种常见方法,它通常用于在预训练模型的基础上进行进一步的训练,以适应特定的任务。微调的主要目的是利用预训练模型已经学习到的通用知识,从而提高模型在特定任务上的性能。常见的微调框架有 LLaMA-Factory 和 XTuner 等。
自律版光追2 年前
笔记·学习·微调·internlm·llava·书生·浦语·xtuner
【书生·浦语大模型实战营第二期】XTuner微调LLM:1.8B、多模态、Agent——学习笔记4Xtuner工具的运行原理: 总结来说模型微调基础步骤使用数据为openai格式的数据tips代码关于配置文件
我是有底线的