【书生浦语第二期实战营学习笔记&作业(四)】

课程文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/readme.md

作业文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/homework.md

书生浦语第二期实战营学习笔记&作业(四)

1.1、微调理论讲解及 XTuner 介绍

  • 两种Finetune范式: 增量预训练和指令跟随
    增量预训练和指令跟随 区别:
  • 一条数据的一生:


1.2 微调方案 LoRA & QLoRA


LoRA介绍 : LLM的参数量主要集中在模型中的Linear,训练这些参数会耗费大量的显存。
LoRA 通过在原本的Linear旁,新增一个支路,包含两个连续的小Linear,新增的这个支路通常叫做 Adapter。

Adapter 参数量远小于原本的Linear,能大幅降低训练的显存消耗

LoRA & QLoRA对比

2.1 XTuner简介

2.2 XTuner快速上手


2.3 XTuner数据引擎


3.1 多模态LLM

  • 多模态LLM原理简介

  • LLaVA方案简介

LLaVA方案

作业:

  1. 准备数据集
  2. 模型训练


    对话测试:
    微调后的模型

    微调前的模型

    Web demo 部署:
相关推荐
中屹指纹浏览器1 小时前
2026指纹浏览器与代理IP协同安全体系构建——从特征匹配到行为风控的全链路防护
经验分享·笔记
لا معنى له1 小时前
什么是Active Inference(主动推理)? ——学习笔记
笔记·学习
JicasdC123asd1 小时前
并行双分支瓶颈架构改进YOLOv26异构卷积核协同特征提取与残差学习双重突破
学习·yolo·架构
zhouping@1 小时前
JAVA学习笔记day06
java·笔记·学习
Jack.Jia2 小时前
GPS原理笔记三——GPS卫星轨道理论和计算
笔记
庞轩px2 小时前
内存区域的演进与直接内存——JVM性能优化的权衡艺术
java·jvm·笔记·性能优化
liangshanbo12153 小时前
大模型 RAG 向量数据工程全链路架构笔记
笔记·架构
罗罗攀3 小时前
PyTorch学习笔记|张量的广播和科学运算
人工智能·pytorch·笔记·python·学习
左左右右左右摇晃3 小时前
Java 笔记--OOM产生原因以及解决方法
java·笔记
CDA数据分析师干货分享3 小时前
汉江师范学院数据科学与大数据技术专业大二学生:CDA一级学习经验
大数据·经验分享·学习·数据分析·cda证书·cda数据分析师