技术栈
xtuner
Yeliang Wu
13 天前
大模型
·
微调
·
xtuner
XTuner大模型微调实战指南:核心原理与Ubuntu 22.04全流程详解
作者:吴业亮 博客:wuyeliang.blog.csdn.netXTuner 是由上海人工智能实验室开发的开源工具,专注于大语言模型(LLM)的高效微调。它支持在几乎所有GPU(包括仅8GB显存的设备)上对LLM进行预训练或微调,甚至能处理7B规模的模型。秉承“开箱即用”的设计理念,XTuner 提供了丰富的预设配置与直观的命令行接口,大幅降低使用门槛。
@鱼香肉丝没有鱼
17 天前
分布式
·
大模型微调
·
xtuner
·
llamafactory
大模型分布式微调 & Xtuner
我们传统意义上把分布式微调叫做多卡训练,多卡训练干嘛用的呢?其实它是为了解决两个问题:显存不足的问题;
InternLM
3 个月前
人工智能
·
开源
·
xtuner
·
书生大模型
·
大模型训练框架
·
大模型预训练
·
大模型后训练
专为“超大模型而生”,新一代训练引擎 XTuner V1 开源!
9 月 8 日,上海人工智能实验室(上海AI实验室)开源书生大模型 新一代训练引擎 XTuner V1。
Silence4Allen
7 个月前
人工智能
·
大模型
·
微调
·
xtuner
·
llamafactory
大模型微调终极方案:LoRA、QLoRA原理详解与LLaMA-Factory、Xtuner实战对比
微调(Fine-tuning)是深度学习中的一种常见方法,它通常用于在预训练模型的基础上进行进一步的训练,以适应特定的任务。微调的主要目的是利用预训练模型已经学习到的通用知识,从而提高模型在特定任务上的性能。常见的微调框架有 LLaMA-Factory 和 XTuner 等。
自律版光追
2 年前
笔记
·
学习
·
微调
·
internlm
·
llava
·
书生·浦语
·
xtuner
【书生·浦语大模型实战营第二期】XTuner微调LLM:1.8B、多模态、Agent——学习笔记4
Xtuner工具的运行原理: 总结来说模型微调基础步骤使用数据为openai格式的数据tips代码关于配置文件
我是有底线的