书生·浦语大模型--第四节课笔记--XTuner大模型单卡低成本微调

文章目录

Finetune简介

增量预训练和指令跟随

通过指令微调获得instructed LLM

指令跟随微调

一问一答的方式进行

对话模板

计算损失

增量预训练微调

不需要问题只需要回答,都是陈述句。计算损失时和指令微调一样

LoRA QLoRA

不需要太大的显存开销。增加旁路分支Adapter。

比较:

  • 全参数微调:整个模型加载到显存中,所有模型的参数优化器也要加载到显存中
  • LoRA微调:模型也需要加载到显存中,但是参数优化器只需要LoRA部分
  • QLoRA微调:加载模型时就4bit量化加载,参数优化器还可以在CPU和GPU之间调度,显存满了可以在内存里跑

XTuner介绍

快速上手



8GB显卡玩转LLM

动手实战环节

相关推荐
千叶风行2 分钟前
Text-to-SQL 技术设计与注意事项
前端·人工智能·后端
夜郎king2 分钟前
Spring AI 对接大模型开发易错点总结与实战解决办法
java·人工智能·spring
从孑开始8 分钟前
manyspeech-cli 语音识别命令行工具
人工智能·语音识别·工具·asr
hans汉斯17 分钟前
计算机科学与应用|基于大模型深度语义理解的智能内容纠错系统
人工智能·计算机视觉·视觉检测·数据·病虫害检测
Mr数据杨26 分钟前
【CanMV K210】视觉识别 颜色阈值分割与色块检测实验
人工智能·硬件开发·canmv k210
Bruce_Liuxiaowei29 分钟前
OpenClaw 网关启动失败:配置文件权限错误的排查与修复
人工智能·智能体
kobesdu38 分钟前
【ROS2实战笔记-18】ROS2 通信的隐秘控制:DDS 配置参数如何决定系统性能
网络·人工智能·笔记·机器人·开源·ros·人形机器人
组合缺一40 分钟前
Java AI 框架三国杀:Solon AI vs Spring AI vs LangChain4j 深度对比
java·人工智能·spring·ai·langchain·llm·solon
碳基硅坊1 小时前
GPT-5.5 vs Claude Opus 4.7:两大顶级模型的深度横评
人工智能·claude opus 4.7·gpt 5.5
eastyuxiao1 小时前
第二章 数字孪生核心技术体系
大数据·人工智能·数字孪生