【环境安装】安装LLaMA-Factory

【机器背景说明】Linux-Centos7;显卡驱动:Driver Version: 460.106.00;Tesla P40 * 2

【目标环境说明】

torch==1.13.1+cu116

llamafactory==0.9.2.dev0

1.CUDA11.6软件安装

CUDA11.6软件有两种安装方式,一个是直接安装到Pip环境中、一种是下载到本地安装

1.1在Pip环境里直接安装(推荐)

此方法优点:省事不需要通过环境变量来控制cuda版本;缺点:占用空间更大,多个环境无法复用同个版本。安装方法直接敲下面命令:

bash 复制代码
pip install nvidia-cudnn-cu11==8.5.0.96 -i  https://mirrors.aliyun.com/pypi/simple

1.2在系统里安装

此部分方法是在NVIDIA中下载CUDA软件,然后安装到本地,如果是Linux通过bashrc下面绑定:

bash 复制代码
export PATH=/usr/local/cuda-11.6/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-11.6/lib64:$LD_LIBRARY_PATH

附CUDA下载地址:CUDA Toolkit Archive | NVIDIA Developer

2.安装LLaMA-Factory

2.1安装torch==1.13.1+cu116

可以直接按照官网的安装,网速快慢可以自己先登陆url看看下载速度

bash 复制代码
pip install torch==1.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116

或者:

直接去https://download.pytorch.org/whl/torch/下载torch==1.13.1+cu116,然后pip install对应的包

2.2安装LLaMA-Factory

LLaMA-Factory地址:,安装的是0.9.2.dev0版本,进本地,然后按官网的教程,先进下载目录,在setup.py同级目录敲下面命令:

bash 复制代码
pip install -e ".[torch,metrics]" -i https://mirrors.aliyun.com/pypi/simple

等待,安装完应该没太大问题了。

最后如果本文对你有些许帮助,赠人玫瑰手有余香,谢谢`

相关推荐
寻丶幽风2 小时前
论文阅读笔记——双流网络
论文阅读·笔记·深度学习·视频理解·双流网络
CM莫问3 小时前
<论文>(微软)避免推荐域外物品:基于LLM的受限生成式推荐
人工智能·算法·大模型·推荐算法·受限生成
康谋自动驾驶4 小时前
康谋分享 | 自动驾驶仿真进入“标准时代”:aiSim全面对接ASAM OpenX
人工智能·科技·算法·机器学习·自动驾驶·汽车
深蓝学院5 小时前
密西根大学新作——LightEMMA:自动驾驶中轻量级端到端多模态模型
人工智能·机器学习·自动驾驶
归去_来兮6 小时前
人工神经网络(ANN)模型
人工智能·机器学习·人工神经网络
2201_754918416 小时前
深入理解卷积神经网络:从基础原理到实战应用
人工智能·神经网络·cnn
强盛小灵通专卖员6 小时前
DL00219-基于深度学习的水稻病害检测系统含源码
人工智能·深度学习·水稻病害
Luke Ewin6 小时前
CentOS7.9部署FunASR实时语音识别接口 | 部署商用级别实时语音识别接口FunASR
人工智能·语音识别·实时语音识别·商用级别实时语音识别
白熊1886 小时前
【计算机视觉】OpenCV实战项目:Face-Mask-Detection 项目深度解析:基于深度学习的口罩检测系统
深度学习·opencv·计算机视觉
Joern-Lee7 小时前
初探机器学习与深度学习
人工智能·深度学习·机器学习