在本地(Windows环境)部署LLaMa-Factory,进行模型微调步骤!!!

一、准备环境

bash 复制代码
1、GPU:NVIDIA GeForce RTX3060
2、CPU:12th Gen Intel(R) Core(TM) i7-12700
3、内存:32GB
4、版本:Windows11 专业版、版本号:24H2、操作系统版本:26100.7623

二、python环境准备

bash 复制代码
# 安装python
## LLaMA-Factory 官方推荐 Python 3.8-3.10、本次使用的时3.10版本
下载python-3.10.0-amd64.exe # Windows后,双击安装即可
# cmd命令行下、验证版本
python --version

三、CUDA环境安装

bash 复制代码
# 下载、安装NVIDIA的并行计算平台和编程模型CUDA
https://developer.nvidia.com/cuda-gpus

# 安装完成后,运行命令验证
nvcc -V
bash 复制代码
# 卸载CPU版
pip uninstall torch torchvision torchaudio

# 查看CU版本
nvidia-smi
# 右上角有CUDA Version

# 安装GPU版(示例CUDA 12.6)大约需要十几分钟吧
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

# 命令验证
C:\Windows\System32>python
Python 3.10.0 (tags/v3.10.0:b494f59, Oct  4 2021, 19:00:18) [MSC v.1929 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> print("CUDA 可用:", torch.cuda.is_available())
CUDA 可用: True
>>> print(f"PyTorch 版本: {torch.__version__}")
PyTorch 版本: 2.10.0+cu126
>>> print(f"CUDA 版本: {torch.version.cuda}")
CUDA 版本: 12.6

四、LLaMA-Factory安装

bash 复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
# 从国内资源中,直接download下来zip包解压也可以
https://gitcode.com/qq_52095705111/LLaMA-Factory

# 执行以下命令,大约需要十几分钟吧
cd LLaMA-Factory
pip install -e .
pip install -r requirements.txt

# 安装完成后,验证版本
llamafactory-cli version

五、运行LLaMA-Factory

bash 复制代码
cd LLaMA-Factory
llamafactory-cli webui

http://localhost:7860

至此、全部结束!!

相关推荐
x***r1512 小时前
AntDM下载管理器安装步骤详解(附下载管理与断点续传教程)
windows
星河耀银海2 小时前
AI学习第一站:从感知到认知,AI到底是什么?
人工智能·学习·ai
得物技术2 小时前
大模型网关:大模型时代的智能交通枢纽|得物技术
人工智能·ai
AiTop1003 小时前
智谱开源GLM-OCR:0.9B小模型在复杂文档处理登顶SOTA
人工智能·ai·aigc
面对疾风叭!哈撒给3 小时前
Windows 系统安装 Mysql 8.0+
数据库·windows·mysql
IDC02_FEIYA4 小时前
Windows资源管理器未响应怎么处理?
运维·服务器·windows
程序员欣宸4 小时前
LangChain4j实战之十六:RAG (检索增强生成),Naive RAG
java·人工智能·ai·langchain4j
一品人家4 小时前
win32汇编使用GDI+入门教程之六
汇编·windows·win32汇编
莽撞的大地瓜4 小时前
连获国内多行业认可、入选全球AI全景图谱 彰显蜜度智能校对的硬核实力
人工智能·ai·语言模型·新媒体运营·知识图谱