高效微调方法简述

高效微调简述

一、微调与RAG的区别:

针对成本和性价比选择RAG或微调,那他们适用的范围和区别要提前了解;

形象的描述预训练、微调、提示工程、Agents:

微调流程:

数据保密那就是私域微调,否则就可以线上微调

二、Frozen Fine-tuning(冻结微调)

只更新模型的输出层或顶层权重,其他层权重冻结也叫顶层微调

三、Layer-wise-Fine-tuning(逐层微调)

更新顶层权重后逐层解冻调整下一层,效果好但算法复杂

四、Dyamic Fine-tuning (动态微调)

在微调过程中动态调整lr、batchsize等超参,优化模型性能,效果好操作难度大

五、提示词微调方向:

专注于优化模型的输入提示词,而非直接调整模型结构,通过改进输入提升输出质量,追求更通用方案;

5.1 Prefix-tining(前缀微调)

模型权重冻结,在每一层加一个神经网络引导这一层对特定任务进行指导性输出和权重倾斜计算;

eg:要求模型生成一个描述图片的句子,给输入增加一个前缀向量"比如这是一辆家用小轿车",那么引导模型生成前缀向量方向的图片描述;

5.2 Prompt tuning(提示微调)

设计优化输入提示引导模型生成方向,只在输入层增加embedding前缀,使用固定一种或多种提示词;当用户输入其中一种完成相同的提示词,会让模型输出的效果更稳定;

5.3 P-tuning:

采用"连续提示embedding+离散提示"组合,比如加上"这是一辆车,车包括轮子、座位发动机等";

在大模型效果很好,但在参数量小的模型效果差;

5.4 P-tuning v2:

在所有transformer层进行向量化嵌入,针对初始化策略进行优化,减少对初始化权重输出比重,方便进行自我调整;

六、外部引入方向:
6.1 Adapter Tuning(适配器微调)

定义:通过在预训练模型中各层插入适配器模块(Adapters)实现对特定任务适应,不更新模型权重

how:每个模型少量参数,低维-高维互相映射,使得模型更高效处理数据;包含残差结构保证原始输入信息不受损失; Adapter可以大模型不同层插入多个实例,针对不同场景进行微调,实现模型灵活适应性和多功能性;

6.2 Low-Rank Adaptation(低秩矩阵微调Lora)

LoRA的核心思想是将预训练模型的权重矩阵分解成两个低秩矩阵的乘积。通过冻结原矩阵+两个低秩矩阵乘积来适应新任务;

LoRA的核心思想是将预训练模型的权重矩阵分解成两个低秩矩阵的乘积。通过冻结原矩阵+两个低秩矩阵乘积来适应新任务;

相关推荐
sg_knight7 天前
适配器模式(Adapter)
python·设计模式·适配器模式·adapter
AI资源库14 天前
BFS-Video 深度解析:从 LTX 架构剖析到 Agent 智能体集成实战
生成式ai·comfyui·lora微调·ltx-video·aigc应用·langchain实战·agent智能体开发
BatmanWayne15 天前
swift微调记录
微调·swift
yyoc9718 天前
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录
大模型·微调·llama·ollama
TGITCIC19 天前
垂域大模型评估不再靠“感觉”:用结构化测试集+自动化打分实现效果可量化
自动化·lora·微调·ai训练·训练·大模型训练·大模型ai
杀生丸学AI21 天前
【点云分割】SNAP:面向任意点云的任意分割
aigc·扩散模型·视觉大模型·点云分割·lora微调·空间智能
爱吃泡芙的小白白21 天前
深入浅出:Fine-tune(微调)的核心场景、实战方法与避坑指南
微调·fine-tune
一颗小树x1 个月前
【VLA 系列】 πRL | 在线强化学习 | 流匹配 | VLA
微调·强化学习·vla·流匹配·πrl
YMWM_1 个月前
测试 pi0.5 微调模型指南
微调·vla·pi0.5
羊城迷鹿1 个月前
从LoRA到OFT:Qwen2.5-VL在昇腾910B与4090上的多模态微调实践与踩坑记录
大模型·微调·多模态·qwen·llamafactory·oft