【书生浦语第二期实战营学习笔记&作业(四)】

课程文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/readme.md

作业文档:https://github.com/InternLM/Tutorial/blob/camp2/xtuner/homework.md

书生浦语第二期实战营学习笔记&作业(四)

1.1、微调理论讲解及 XTuner 介绍

  • 两种Finetune范式: 增量预训练和指令跟随
    增量预训练和指令跟随 区别:
  • 一条数据的一生:


1.2 微调方案 LoRA & QLoRA


LoRA介绍 : LLM的参数量主要集中在模型中的Linear,训练这些参数会耗费大量的显存。
LoRA 通过在原本的Linear旁,新增一个支路,包含两个连续的小Linear,新增的这个支路通常叫做 Adapter。

Adapter 参数量远小于原本的Linear,能大幅降低训练的显存消耗

LoRA & QLoRA对比

2.1 XTuner简介

2.2 XTuner快速上手


2.3 XTuner数据引擎


3.1 多模态LLM

  • 多模态LLM原理简介

  • LLaVA方案简介

LLaVA方案

作业:

  1. 准备数据集
  2. 模型训练


    对话测试:
    微调后的模型

    微调前的模型

    Web demo 部署:
相关推荐
十年之少1 小时前
异步编程——微信小程序
笔记·学习·微信小程序
L小李要学习1 小时前
STM32学习
stm32·嵌入式硬件·学习
Q186000000001 小时前
PDF解析示例代码学习
学习·pdf
WDeLiang2 小时前
学习笔记 - Swfit 6.1 - 语法概览
笔记·学习·swift
手揽回忆怎么睡2 小时前
mongodb学习
数据库·学习·mongodb
arriettyandray2 小时前
Qt/C++学习系列之QTreeWidget的简单使用记录
c++·qt·学习
LL1681992 小时前
SSM考研助手管理系统
java·服务器·开发语言·数据库·学习
红白小蛋糕3 小时前
《操作系统真象还原》第八章(1)——内存管理系统
汇编·笔记·ubuntu
凡人的AI工具箱3 小时前
PyTorch深度学习框架60天进阶学习计划 - 第41天:生成对抗网络进阶(一)
人工智能·pytorch·python·深度学习·学习·生成对抗网络
zhaoyqcsdn3 小时前
C++对象池设计:从高频`new/delete`到性能飞跃的工业级解决方案
c++·经验分享·笔记