llama-factory || AutoDL || 如何使用自己的数据集进行微调

1.准备好json格式数据集

例如,FB15k-237-subset_train_size_1000.json

2.将数据集上传至LLaMA-Factory下的data文件夹

3.修改LLaMA-Factory下的data文件夹中dataset_info.json中的内容

增加如下信息:

bash 复制代码
 "FB15k-237-subset_train_size_1000":{
      "file_name":"FB15k-237-subset_train_size_1000.json"
  },

4.启动llama-factory的webui界面

bash 复制代码
llamafactory-cli webui

5.设置模型和数据集


相关推荐
liliangcsdn2 天前
mac llama_index agent算术式子计算示例
人工智能·python·macos·llama
许愿与你永世安宁3 天前
RAG(检索增强生成)里的文档管理
数据库·人工智能·gpt·oracle·llama·rag
许愿与你永世安宁7 天前
基于Llama的RAG 3种模型配置方法
人工智能·python·自然语言处理·json·github·llama·faiss
至善迎风7 天前
本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)
docker·容器·llama·kimi
阿斯卡码7 天前
安装 llama-cpp-python 的CPU和GPU方法
开发语言·python·llama
学不会就看7 天前
llama-factory快速开始
llama
NullPointerExpection10 天前
LLM大语言模型不适合统计算数,可以让大模型根据数据自己建表、插入数据、编写查询sql统计
数据库·人工智能·sql·算法·llm·llama·工作流
MUTA️10 天前
Llama系列:Llama1, Llama2,Llama3内容概述
llama
kailp11 天前
语言模型玩转3D生成:LLaMA-Mesh开源项目
人工智能·3d·ai·语言模型·llama·gpu算力
大模型最新论文速读14 天前
指令微调时,也要考虑提示损失
人工智能·深度学习·语言模型·自然语言处理·llama