书生·浦语大模型--第四节课笔记--XTuner大模型单卡低成本微调

文章目录

Finetune简介

增量预训练和指令跟随

通过指令微调获得instructed LLM

指令跟随微调

一问一答的方式进行

对话模板

计算损失

增量预训练微调

不需要问题只需要回答,都是陈述句。计算损失时和指令微调一样

LoRA QLoRA

不需要太大的显存开销。增加旁路分支Adapter。

比较:

  • 全参数微调:整个模型加载到显存中,所有模型的参数优化器也要加载到显存中
  • LoRA微调:模型也需要加载到显存中,但是参数优化器只需要LoRA部分
  • QLoRA微调:加载模型时就4bit量化加载,参数优化器还可以在CPU和GPU之间调度,显存满了可以在内存里跑

XTuner介绍

快速上手



8GB显卡玩转LLM

动手实战环节

相关推荐
RoyLin1 小时前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn3 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航3 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪4 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo4 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_8 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit8 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮10 小时前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI10 小时前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒11 小时前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能