技术栈
代码实战
爱分享的飘哥
13 天前
人工智能
·
lora
·
微调
·
ai训练
·
peft
·
代码实战
·
模型定制
第五十五章:AI模型的“专属定制”:LoRA微调原理与高效合并技巧
在之前我们了解到“微调(Fine-tuning)”是让大模型从“通才”变为“专才”的关键。但对一个拥有数十亿参数的LLM(如LLaMA-7B)进行全参数微调(Full Fine-tuning),意味着:
爱分享的飘哥
19 天前
人工智能
·
pytorch
·
stable diffusion
·
文生图
·
ai绘画
·
代码实战
·
cfg
第三十七章:文生图的炼金术:Stable Diffusion完整工作流深度解析
在《模型架构全景拆解》的旅程中,我们已经像一位技艺高超的“AI机械师”,拆解并理解了Stable Diffusion的每一个核心“零件”:
爱分享的飘哥
22 天前
人工智能
·
pytorch
·
python
·
aigc
·
教程
·
生成模型
·
代码实战
第三篇:VAE架构详解与PyTorch实现:从零构建AI的“视觉压缩引擎”
在AI生成这条波澜壮阔的技术长河中,如果你想溯源而上,找到那个开启了“高清生成”时代的源头,那么VAE(Variational Autoencoder)无疑是那块最关键的“里程碑”。
鲸可落
1 年前
语言模型
·
自然语言处理
·
大语言模型
·
教程
·
预训练
·
finetune
·
代码实战
【Finetune】(一)、transformers之BitFit微调
参数微调方法是仅对模型的一小部分的参数(这一小部分可能是模型自身的,也可能是外部引入的)进行训练,便可以为模型带来显著的性能变化,在一些场景下甚至不输于全量微调。 由于训练一小部分参数,极大程度降低了训练大模型的算力需求,不需要多机多卡,单卡就可以完成对一些大模型的训练。不仅如此,少量的训练参数,对存储的要求同样降低很多,大多数的参数微调方法只需要保存训练部分的参数,与动辄几十GB的原始大模型相比,几乎可以忽略。