技术栈

llama-factory || AutoDL || 如何使用自己的数据集进行微调

失眠的树亚2025-03-05 19:08

1.准备好json格式数据集

例如,FB15k-237-subset_train_size_1000.json

2.将数据集上传至LLaMA-Factory下的data文件夹

3.修改LLaMA-Factory下的data文件夹中dataset_info.json中的内容

增加如下信息:

bash 复制代码
 "FB15k-237-subset_train_size_1000":{
      "file_name":"FB15k-237-subset_train_size_1000.json"
  },

4.启动llama-factory的webui界面

bash 复制代码
llamafactory-cli webui

5.设置模型和数据集


上一篇:阿里云 对象存储服务
下一篇:【Java面试】重载(Overload)和 重写(Override)的区别
相关推荐
若苗瞬
23 分钟前
记一次失败的本地部署 LLM MTP 模型的过程
llm·llama·cpp·gemma·mtp·ik_llama·dflash
黑贝是条狗
3 天前
llama编译封装了一个最小翻译模型400M
llama
决战灬
3 天前
LlamaIndex 之 get_response_synthesizer(一)
llama
倔强的胖蚂蚁
4 天前
主流大模型使用指南:Gemma/Llama 全流程
云原生·llama
shen12138
5 天前
使用 llama.cpp + MTP 分支实现 1.5 倍 Token 输出加速实战指南
llama·qwen3.6-27b
xingyuzhisuan
6 天前
适合微调Llama 3 70B模型的最低GPU配置推荐
运维·人工智能·算法·llama·gpu算力
Karry_666
7 天前
本地Ollama安装部署
llama
挪不动
7 天前
llama.cpp 问题解决记录
llama
code_pgf
8 天前
llama.cpp 最新架构详解
人工智能·架构·llama
热门推荐
01GitHub 镜像站点02Codex 接入 DeepSeek API 完整配置文档03头歌软件工程导论UML画图题(基于starUML)04【AI】2026 年具身智能模型和世界模型总结05CC-Switch & Claude 基于 Linux 服务器安装使用指南06AI科技热点日报 | 2026年5月11日07Gemini大升级、AI眼镜首发、Android XR亮相,13天后见分晓08Codex 手机端连接教程:三分钟搞定,附完整步骤09人工智能最新动态 AI 日报 · 2026年5月10日10零基础教你claude code 接入 deepseek V4