书生·浦语大模型第二期实战营第四节-XTuner 微调 LLM:1.8B、多模态、Agent 作业-XTuner 微调个人小助手认知

视频教程:XTuner 微调 LLM:1.8B、多模态、Agent

文字教程:XTuner 微调 LLM:1.8B、多模态、Agent

作业来源:

XTuner 微调个人小助手认知

1. 环境安装

2.准备工作

2.1 数据准备

2.2 模型准备

2.3 配置文件选择

3. 配置文件修改

4. 模型训练

4.1 训练

准备好了配置文件后,只需要将使用 xtuner train 指令即可开始训练。

可以通过添加 --work-dir 指定特定的文件保存位置,比如说就保存在 /root/ft/train 路径下。假如不添加的话模型训练的过程文件将默认保存在 ./work_dirs/internlm2_1_8b_qlora_alpaca_e3_copy 的位置,就比如说我是在 /root/ft/train 的路径下输入该指令,那么我的文件保存的位置就是在 /root/ft/train/work_dirs/internlm2_1_8b_qlora_alpaca_e3_copy 的位置下。

4.2 对话测试

4.3 web端

相关推荐
天河归来13 小时前
在本地windows电脑使用Docker搭建xinference环境
docker·语言模型·容器
lpfasd12314 小时前
多模态多Agent智能助手系统完整方案汇总
语言模型·agent·多模态
AI浩18 小时前
【Block总结】门控注意力机制,最新注意力机制|即插即用|最佳论文奖
人工智能·语言模型·自然语言处理
阿杰学AI21 小时前
AI核心知识57——大语言模型之MoE(简洁且通俗易懂版)
人工智能·ai·语言模型·aigc·ai-native·moe·混合专家模型
阿杰学AI1 天前
AI核心知识56——大语言模型之ToT(简洁且通俗易懂版)
人工智能·ai·语言模型·提示工程·tot·pe·思维树
小苑同学1 天前
Masked Language Models是什么?
人工智能·语言模型·自然语言处理
山沐与山1 天前
【AI】大语言模型基础知识详解
人工智能·语言模型·自然语言处理
小陈phd1 天前
大语言模型实战(一)——基本介绍及环境配置
人工智能·语言模型·自然语言处理
小北的AI科技分享1 天前
AI智能体:连接大语言模型与现实任务的核心架构解析
人工智能·语言模型·自然语言处理
爱装代码的小瓶子1 天前
大语言模型的巧用:
人工智能·语言模型·自然语言处理