Unsloth Studio 使用问题记录

离线环境,官方docker镜像,k8s环境使用

1、导出模型时从github克隆llama.cpp处理

手动下载源码https://github.com/ggml-org/llama.cpp传到unsloth内

根据报错日志的路径,创建目录

dart 复制代码
mkdir /home/unsloth/.unsloth/llama.cpp -p

把llama.cpp源码放进去

dart 复制代码
/opt/venv/bin/python3 -m pip install gguf protobuf sentencepiece mistral_common   #自己指定源处理下,或者加变量

重试,就不会从github自动拉了,pip源记得配,或者人工干预,ps -ef 看下他在装什么包

可以看到已经完成了llama.cpp的源码构建安装

手动转换,不依赖Unsloth

dart 复制代码
# 转换并输出 f16 GGUF
cd llama.cpp
python convert_hf_to_gguf.py ./my_unsloth_model \
    --outtype f16 \
    --outfile my_model_f16.gguf

后面还有代码写死从github下载https://github.com/ggerganov/llama.cpp/raw/refs/heads/master/convert_hf_to_gguf.py

改变量没测,直接改代码

dart 复制代码
unsloth@unsloth-studio-7fd9b89dcd-mjd8x:/workspace/llama.cpp$ python -m http.server 8081
Serving HTTP on 0.0.0.0 port 8081 (http://0.0.0.0:8081/) ...
127.0.0.1 - - [26/Apr/2026 13:40:37] "GET /convert_hf_to_gguf.py HTTP/1.1" 200 -
127.0.0.1 - - [26/Apr/2026 13:42:35] "GET /convert_hf_to_gguf.py HTTP/1.1" 200 -
dart 复制代码
vim /opt/venv/lib/python3.12/site-packages/unsloth_zoo/llama_cpp.py   #报错代码55行

成功转GGUF并量化

2、数据集生成报错

index-CY5egRSv.js:73 POST http://10.103.184.147:8000/api/data-recipe/validate 500 (Internal Server Error)

持久化的workspace目录要给unsloth用户权限

要选Full Run

根据 Unsloth Studio 的官方设计:

Preview Run(预览运行):仅用于快速调试,不会生成持久化的本地数据集文件,因此不会出现在Train页面的数据集列表里。

Full Run(完整运行):才会生成可被训练页面识别的、持久化的数据集文件,之后会自动出现在Local标签的列表中。

你的第三张截图里,所有运行记录都标着Preview,说明你只跑了预览,没有执行完整的数据集生成流程,所以 Train 页面自然找不到数据集。

相关推荐
x_lrong1 天前
昇腾Ascend环境微调部署Qwen3(LlamaFactory+vLLM-Ascend)
微调·部署·昇腾·ascend·llamafactory·qwen3·vllm-ascend
csdn_aspnet3 天前
AI训练产区图:GPU算力梯队与任务匹配指南,构建AI模型训练中的一线/二线算力资源标准图谱
人工智能·ai·gpu算力·训练
xiaotao1315 天前
03-深度学习基础:训练技巧
人工智能·深度学习·训练
AI、少年郎11 天前
MiniMind 第 4 篇:《数据工程|Tokenizer 训练 + 预训练 / SFT/DPO 全数据集处理》
人工智能·python·ai·大模型·微调·大模型训练·minimind
博士僧小星13 天前
人工智能|大模型——训练——大模型微调全栈指南:从Transformer架构、10+种PEFT原理、流程与实战(全网最详细)
人工智能·lora·大模型·微调·peft·qlora·prefix tuning
发光的叮当猫13 天前
AI工程可能会遇到的一些问题
人工智能·微调·rag·ai工程
羊小猪~~23 天前
LLM--SFT简介
python·考研·算法·ai·大模型·llm·微调
deephub1 个月前
知识引导上下文优化(KgCoOp):一种解决灾难性遗忘的 Prompt Tuning 机制
人工智能·深度学习·机器学习·微调·prompt
南宫乘风1 个月前
Qwen2.5-7B 指令(LoRA)微调完整实战指南
ai·语言模型·训练