llama_factory的使用

1.git clone llama_factory到本地

2.记得安环境,在clone后

3.多显卡要设置一下

4.数据文件放在data里面,仿照模板里的格式

5.进入llama_factory微调页面

python src/webui.py

6.llama_factory介绍:
10分钟打造你个人专属的语言大模型:LLaMA-Factory LLM Finetune_哔哩哔哩_bilibili

相关推荐
df007df5 天前
【RAGFlow代码详解-10】文本处理和查询处理
人工智能·ocr·embedding·llama
liliangcsdn5 天前
llama.cpp reranking源码分析
llama
go&Python7 天前
检索模型与RAG
开发语言·python·llama
修一呀9 天前
[大模型微调]基于llama_factory用 LoRA 高效微调 Qwen3 医疗大模型:从原理到实现
人工智能·llama·大模型微调
liliangcsdn9 天前
基于llama.cpp的量化版reranker模型调用示例
人工智能·数据分析·embedding·llama·rerank
gptplusplus9 天前
Meta AI 剧变:汪滔挥刀重组,Llama 开源路线告急,超级智能梦碎还是重生?
人工智能·开源·llama
AI大模型13 天前
基于 Docker 的 LLaMA-Factory 全流程部署指南
docker·llm·llama
m0_6038887120 天前
LLaMA-Adapter V2 Parameter-Efficient Visual Instruction Model
人工智能·深度学习·ai·llama·论文速览
三千院本院23 天前
LlaMA_Factory实战微调VL大模型
llama
爱分享的飘哥1 个月前
第四十六章:AI的“瞬时记忆”与“高效聚焦”:llama.cpp的KV Cache与Attention机制
llama·llama.cpp·kv cache·attention优化·llm cpu推理·量化attention·gguf推理