书生·浦语大模型第二期实战营第四节-XTuner 微调 LLM:1.8B、多模态、Agent 作业-XTuner 微调个人小助手认知

视频教程:XTuner 微调 LLM:1.8B、多模态、Agent

文字教程:XTuner 微调 LLM:1.8B、多模态、Agent

作业来源:

XTuner 微调个人小助手认知

1. 环境安装

2.准备工作

2.1 数据准备

2.2 模型准备

2.3 配置文件选择

3. 配置文件修改

4. 模型训练

4.1 训练

准备好了配置文件后,只需要将使用 xtuner train 指令即可开始训练。

可以通过添加 --work-dir 指定特定的文件保存位置,比如说就保存在 /root/ft/train 路径下。假如不添加的话模型训练的过程文件将默认保存在 ./work_dirs/internlm2_1_8b_qlora_alpaca_e3_copy 的位置,就比如说我是在 /root/ft/train 的路径下输入该指令,那么我的文件保存的位置就是在 /root/ft/train/work_dirs/internlm2_1_8b_qlora_alpaca_e3_copy 的位置下。

4.2 对话测试

4.3 web端

相关推荐
斯班奇的好朋友阿法法1 小时前
在企业的离线内网环境的服务器部署openclaw和大模型
服务器·语言模型
jinanwuhuaguo10 小时前
OpenClaw字节跳动的三只不同的claw龙虾飞书妙搭 OpenClaw、ArkClaw、扣子 OpenClaw 核心区别深度解析
人工智能·语言模型·自然语言处理·visual studio code·openclaw
bestadc13 小时前
Hello-Agents 第三章 大语言模型基础 学习笔记
笔记·学习·语言模型
前端摸鱼匠13 小时前
面试题6:因果掩码(Causal Mask)在Decoder中的作用是什么?训练、推理阶段如何使用?
人工智能·ai·语言模型·自然语言处理·面试
shangjian0071 天前
AI-大语言模型-模型训练-数据集1-总述
人工智能·机器学习·语言模型
柯儿的天空1 天前
【OpenClaw 全面解析:从零到精通】第 006 篇:OpenClaw 在 Windows/WSL2 上的安装与部署实战
人工智能·windows·语言模型·chatgpt·ai作画
星辰yzy1 天前
AI 聚合 Token 平台怎么选?我为什么开始长期使用 jige.io
人工智能·语言模型
shangjian0071 天前
AI-大语言模型-模型训练-数据集2-数据规模要求
人工智能·机器学习·语言模型
币之互联万物1 天前
LLM 偏好算法解析:大语言模型内容收录倾向与 NEOXGEO 技术底蕴
人工智能·算法·语言模型
会上树的机器人1 天前
我用 AI Agent 重构了一个嵌入式 C++ SLAM模块——完整工作流复盘与踩坑实录
人工智能·语言模型·ai编程