代码实战

爱分享的飘哥13 天前
人工智能·lora·微调·ai训练·peft·代码实战·模型定制
第五十五章:AI模型的“专属定制”:LoRA微调原理与高效合并技巧在之前我们了解到“微调(Fine-tuning)”是让大模型从“通才”变为“专才”的关键。但对一个拥有数十亿参数的LLM(如LLaMA-7B)进行全参数微调(Full Fine-tuning),意味着:
爱分享的飘哥19 天前
人工智能·pytorch·stable diffusion·文生图·ai绘画·代码实战·cfg
第三十七章:文生图的炼金术:Stable Diffusion完整工作流深度解析在《模型架构全景拆解》的旅程中,我们已经像一位技艺高超的“AI机械师”,拆解并理解了Stable Diffusion的每一个核心“零件”:
爱分享的飘哥22 天前
人工智能·pytorch·python·aigc·教程·生成模型·代码实战
第三篇:VAE架构详解与PyTorch实现:从零构建AI的“视觉压缩引擎”在AI生成这条波澜壮阔的技术长河中,如果你想溯源而上,找到那个开启了“高清生成”时代的源头,那么VAE(Variational Autoencoder)无疑是那块最关键的“里程碑”。
鲸可落1 年前
语言模型·自然语言处理·大语言模型·教程·预训练·finetune·代码实战
【Finetune】(一)、transformers之BitFit微调参数微调方法是仅对模型的一小部分的参数(这一小部分可能是模型自身的,也可能是外部引入的)进行训练,便可以为模型带来显著的性能变化,在一些场景下甚至不输于全量微调。  由于训练一小部分参数,极大程度降低了训练大模型的算力需求,不需要多机多卡,单卡就可以完成对一些大模型的训练。不仅如此,少量的训练参数,对存储的要求同样降低很多,大多数的参数微调方法只需要保存训练部分的参数,与动辄几十GB的原始大模型相比,几乎可以忽略。