书生·浦语大模型第二期实战营第四节-XTuner 微调 LLM:1.8B、多模态、Agent 作业-XTuner 微调个人小助手认知

视频教程:XTuner 微调 LLM:1.8B、多模态、Agent

文字教程:XTuner 微调 LLM:1.8B、多模态、Agent

作业来源:

XTuner 微调个人小助手认知

1. 环境安装

2.准备工作

2.1 数据准备

2.2 模型准备

2.3 配置文件选择

3. 配置文件修改

4. 模型训练

4.1 训练

准备好了配置文件后,只需要将使用 xtuner train 指令即可开始训练。

可以通过添加 --work-dir 指定特定的文件保存位置,比如说就保存在 /root/ft/train 路径下。假如不添加的话模型训练的过程文件将默认保存在 ./work_dirs/internlm2_1_8b_qlora_alpaca_e3_copy 的位置,就比如说我是在 /root/ft/train 的路径下输入该指令,那么我的文件保存的位置就是在 /root/ft/train/work_dirs/internlm2_1_8b_qlora_alpaca_e3_copy 的位置下。

4.2 对话测试

4.3 web端

相关推荐
renhongxia110 小时前
ORACLE-SWE:量化Oracle 信息信号对SWE代理的贡献
人工智能·深度学习·学习·语言模型·分类
跟着狗蛋学安全17 小时前
Windows本地大语言模型部署
人工智能·语言模型·自然语言处理
老刘说AI18 小时前
Coze:从入门到精通
人工智能·低代码·语言模型·开放原子·知识图谱·持续部署
大囚长19 小时前
大语言模型作为语种民族文明压缩镜像的映射特性分析
人工智能·深度学习·语言模型
新缸中之脑19 小时前
大语言模型维基模式
人工智能·语言模型·自然语言处理
小超同学你好19 小时前
面向 LLM 的程序设计 9:系统提示中的「能力边界」——减少越权与幻觉调用
人工智能·深度学习·语言模型
WJX_KOI20 小时前
MemOS —— 为大语言模型 (LLMs) 和智能体打造的记忆操作系统。
java·人工智能·语言模型
小白狮ww21 小时前
3 秒出全纹理!TRELLIS.2 实现单图生成高分辨率 3D 资产
图像处理·人工智能·3d·语言模型·微软·开源·3d内容生成
前端摸鱼匠21 小时前
【AI大模型春招面试题18】 L1、L2正则化、Dropout、早停(Early Stopping)的原理与适用场景?
人工智能·ai·语言模型·面试·大模型
十三画者21 小时前
【文献分享】DrugFormer:一种基于图结构增强的语言模型,用于预测药物敏感性
人工智能·语言模型·自然语言处理