llama-factory || AutoDL || 如何使用自己的数据集进行微调

1.准备好json格式数据集

例如,FB15k-237-subset_train_size_1000.json

2.将数据集上传至LLaMA-Factory下的data文件夹

3.修改LLaMA-Factory下的data文件夹中dataset_info.json中的内容

增加如下信息:

bash 复制代码
 "FB15k-237-subset_train_size_1000":{
      "file_name":"FB15k-237-subset_train_size_1000.json"
  },

4.启动llama-factory的webui界面

bash 复制代码
llamafactory-cli webui

5.设置模型和数据集


相关推荐
lili-felicity36 分钟前
CANN优化LLaMA大语言模型推理:KV-Cache与FlashAttention深度实践
人工智能·语言模型·llama
大傻^2 天前
大模型基于llama.cpp量化详解
llama·大模型量化
大傻^2 天前
大模型微调-基于llama-factory详解
llama·模型微调
空中楼阁,梦幻泡影2 天前
主流4 大模型(GPT、LLaMA、DeepSeek、QWE)的训练与推理算力估算实例详细数据
人工智能·gpt·llama
蓝田生玉1232 天前
LLaMA论文阅读笔记
论文阅读·笔记·llama
木卫二号Coding2 天前
第七十七篇-V100+llama-cpp-python-server+Qwen3-30B+GGUF
开发语言·python·llama
木卫二号Coding2 天前
第七十六篇-V100+llama-cpp-python+Qwen3-30B+GGUF
开发语言·python·llama
姚华军3 天前
在本地(Windows环境)部署LLaMa-Factory,进行模型微调步骤!!!
windows·ai·llama·llama-factory
Honmaple3 天前
openclaw使用llama.cpp 本地大模型部署教程
llama
love530love3 天前
Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)
人工智能·windows·大模型·llama·llama.cpp·gguf·cuda 加速