llama-factory微调大模型

一、背景

微调或者全量调大语言模型,还包括deepseek,想找个快速的微调教程,网上暂时没有

二、原理和步骤

原理:搭建环境太累了,还是docker环境镜像简单快捷

1、先下载模型

如果用本身的会自动从huggingface下载,这下不了(也没有提示)

复制代码
from modelscope import snapshot_download
model_dir = snapshot_download('qwen/Qwen-7B')
print(model_dir )下载的路径

2、拉去LLAMA-factory repo

复制代码
docker build -f ./Dockerfile -t llama-factory:latest .

3、要根据自己的目录调整启动镜像

复制代码
docker run --gpus=all \
    -v 你下载的模型地址:/models/Qwen-7B \
    -v ./data:/app/data \
    -v ./output:/app/output \
    -e CUDA_VISIBLE_DEVICES=0 \
    -p 7860:7860 \
    --shm-size 16G \
    --name llama_factory \
    -d llama-factory:latest

三、访问web

地址:ip:7860

可以点击chat-load模型,并可以正常聊天了

其次就算微调模型,各种参数设置了

相关推荐
Chaos_Wang_17 小时前
NLP高频面试题(三十)——LLama系列模型介绍,包括LLama LLama2和LLama3
人工智能·自然语言处理·llama
艾鹤19 小时前
ollama安装与使用
人工智能·llama
清易2 天前
windows大模型llamafactory微调
llama
漠北尘-Gavin2 天前
【Python3.12.9安装llama-cpp-python遇到编译报错问题解决】
python·llama
爱听歌的周童鞋3 天前
理解llama.cpp如何进行LLM推理
llm·llama·llama.cpp·inference
溯源0063 天前
vscode调试python(transformers库的llama为例)
vscode·python·llama
Flying`3 天前
LLaMA-Factory微调实操记录
llama
张飞飞飞飞飞4 天前
通过Llama-Factory对Deepseek-r1:1.5b进行微调
llama
喜欢吃豆5 天前
LLaMA-Factory使用实战
人工智能·大模型·json·llama
智享AI5 天前
使用 LLaMA-Factory 微调 llama3 模型
llama