llama-factory || AutoDL || 如何使用自己的数据集进行微调

1.准备好json格式数据集

例如,FB15k-237-subset_train_size_1000.json

2.将数据集上传至LLaMA-Factory下的data文件夹

3.修改LLaMA-Factory下的data文件夹中dataset_info.json中的内容

增加如下信息:

bash 复制代码
 "FB15k-237-subset_train_size_1000":{
      "file_name":"FB15k-237-subset_train_size_1000.json"
  },

4.启动llama-factory的webui界面

bash 复制代码
llamafactory-cli webui

5.设置模型和数据集


相关推荐
风筝超冷27 分钟前
LLaMA-Factory - 批量推理(inference)的脚本
llama
bluebonnet271 天前
【agent开发】部署LLM(一)
python·llama
阿牛大牛中2 天前
LLaDa——基于 Diffusion 的大语言模型 打平 LLama 3
人工智能·语言模型·llama
Lilith的AI学习日记2 天前
【AI面试秘籍】| 第25期:RAG的关键痛点及解决方案深度解析
人工智能·深度学习·机器学习·chatgpt·aigc·llama
LChuck5 天前
【大模型微调】魔搭社区GPU进行LLaMA-Factory微调大模型自我认知
人工智能·语言模型·自然语言处理·nlp·llama·魔搭社区·modelscope
燕双嘤5 天前
Fine-tuning:微调技术,训练方式,LLaMA-Factory,ms-swift
llama
装不满的克莱因瓶7 天前
【小白AI教程】大模型知识扫盲通识
人工智能·数学建模·ai·大模型·llm·llama·rag
TGITCIC9 天前
英伟达破局1000 Token/秒!Llama 4以光速重塑AI推理边界
人工智能·大模型·llama·英伟达·大模型速度·ai赛道·大模型基座
天天爱吃肉821811 天前
【 大模型技术驱动智能网联汽车革命:关键技术解析与未来趋势】
语言模型·汽车·llama
Lilith的AI学习日记13 天前
【AI面试秘籍】| 第17期:MoE并行策略面试全攻略:从理论到调参的降维打击指南
人工智能·python·面试·职场和发展·llama