技术栈
qlora
46497976464
2 天前
llama-factory
·
qlora
·
gpu显存优化
如何通过Llama-Factory最大化利用GPU算力资源?
在当前大模型技术飞速发展的背景下,越来越多的团队希望基于 LLaMA、Qwen 或 Baichuan 等主流架构定制专属的语言模型。但现实是:全参数微调动辄需要上百GB显存,一张 A100 都可能捉襟见肘,更别说普通开发者手里的 RTX 3090 了。
我是有底线的