技术栈
cfff
宇梵文书C
17 小时前
llm
·
llama
·
cfff
在CFFF云平台使用llama-factory部署及微调Qwen2.5-7B-Instruct
24GB的显存基本可以满足7B模型的部署和微调,不过由于CFFF平台都是A100显卡,因此选择一张GPU创建云服务器实例(AI4S_share_queue, A100 * 1, 80G)