书生·浦语大模型--第四节课笔记--XTuner大模型单卡低成本微调

文章目录

Finetune简介

增量预训练和指令跟随

通过指令微调获得instructed LLM

指令跟随微调

一问一答的方式进行

对话模板

计算损失

增量预训练微调

不需要问题只需要回答,都是陈述句。计算损失时和指令微调一样

LoRA QLoRA

不需要太大的显存开销。增加旁路分支Adapter。

比较:

  • 全参数微调:整个模型加载到显存中,所有模型的参数优化器也要加载到显存中
  • LoRA微调:模型也需要加载到显存中,但是参数优化器只需要LoRA部分
  • QLoRA微调:加载模型时就4bit量化加载,参数优化器还可以在CPU和GPU之间调度,显存满了可以在内存里跑

XTuner介绍

快速上手



8GB显卡玩转LLM

动手实战环节

相关推荐
yvestine14 分钟前
自然语言处理——文本表示
人工智能·python·算法·自然语言处理·文本表示
zzc92122 分钟前
MATLAB仿真生成无线通信网络拓扑推理数据集
开发语言·网络·数据库·人工智能·python·深度学习·matlab
点赋科技23 分钟前
沙市区举办资本市场赋能培训会 点赋科技分享智能消费新实践
大数据·人工智能
HeteroCat30 分钟前
一周年工作总结:做了一年的AI工作我都干了什么?
人工智能
a_1571532498634 分钟前
SpringCloud学习笔记-4
笔记·学习·spring cloud
YSGZJJ44 分钟前
股指期货技术分析与短线操作方法介绍
大数据·人工智能
Guheyunyi1 小时前
监测预警系统重塑隧道安全新范式
大数据·运维·人工智能·科技·安全
码码哈哈爱分享1 小时前
[特殊字符] Whisper 模型介绍(OpenAI 语音识别系统)
人工智能·whisper·语音识别
郄堃Deep Traffic1 小时前
机器学习+城市规划第十三期:XGBoost的地理加权改进,利用树模型实现更精准的地理加权回归
人工智能·机器学习·回归·城市规划