Ubuntu LLaMA-Factory实战

一、Ubuntu LLaMA-Factory实战安装:

CUDA 安装

CUDA 是由 NVIDIA 创建的一个并行计算平台和编程模型,它让开发者可以使用 NVIDIA 的 GPU 进行高性能的并行计算。

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA

  1. 保证当前 Linux 版本支持CUDA. 在命令行中输入 uname -m && cat /etc/*release,应当看到类似的输出
复制代码
x86_64
DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=22.04
  1. 检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出
复制代码
gcc (Ubuntu 11.4.0-1ubuntu1~22.04) 11.4.0
  1. 在以下网址下载所需的 CUDA,这里推荐12.2版本。 https://developer.nvidia.com/cuda-gpus 注意需要根据上述输出选择正确版本

如果您之前安装过 CUDA(例如为12.1版本),需要先使用 sudo /usr/local/cuda-12.1/bin/cuda-uninstaller 卸载。如果该命令无法运行,可以直接:

复制代码
sudo rm -r /usr/local/cuda-12.1/
sudo apt clean && sudo apt autoclean

卸载完成后运行以下命令并根据提示继续安装:

复制代码
wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda_12.2.0_535.54.03_linux.run
sudo sh cuda_12.2.0_535.54.03_linux.run

注意:在确定 CUDA 自带驱动版本与 GPU 是否兼容之前,建议取消 Driver 的安装。

完成后输入 nvcc -V 检查是否出现对应的版本号,若出现则安装完成。

LLaMA-Factory 安装

在安装 LLaMA-Factory 之前,请确保您安装了下列依赖:

运行以下指令以安装 LLaMA-Factory 及其依赖:

复制代码
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

如果出现环境冲突,请尝试使用 pip install --no-deps -e . 解决

LLaMA-Factory 校验

bash 复制代码
llamafactory-cli version

完成安装后,可以通过使用 llamafactory-cli version 来快速校验安装是否成功

如果您能成功看到类似下面的界面,就说明安装成功了。

注意:如果失败执行下面的代码

你遇到的问题是由于当前安装的 Keras 版本为 Keras 3,但 transformers 库还不支持这个版本。具体来说,报错提示需要你安装一个向后兼容的 tf-keras 包,来解决这个不兼容问题。

解决方案如下:

(1)运行以下命令,安装 tf-keras 兼容包:

复制代码
pip install tf-keras

(2)如果问题依然存在,可能还需要锁定 Keras 版本为 2.x 系列。你可以尝试卸载现有的 Keras 版本,并安装旧版本:

复制代码
pip uninstall keras
pip install keras==2.11.0

(3)确保 transformers 库版本也是最新的或者与 Keras 2.x 系列兼容。

运行以上命令后,再次尝试运行 llamafactory-cli,这样应该能解决当前的兼容性问题。

如果还有其他问题,请随时告知!

免费体验版本的成功界面:

相关推荐
AI_小站2 天前
6个GitHub爆火的免费大模型教程,助你快速进阶AI编程
人工智能·langchain·github·知识图谱·agent·llama·rag
Mr_sst3 天前
infra-ai模块宏观设计解析:业务与模型之间的中间层核心架构
大数据·人工智能·ai·llama
微软技术分享3 天前
Windows平台下CUDA安装及llama.cpp使用教程
windows·llama
小wu学cv4 天前
llama.cpp调用GPU推理Qwen3.5-0.8b模型
llama
zhangfeng11334 天前
LLaMA-Factory 保存 checkpoint 时崩溃解决办法 OOM 内存溢出(不是显存)
运维·服务器·人工智能·深度学习·llama
老唐7775 天前
30分钟手搓 Agent:LLM + Tools + Loop + Memory 跑通最小闭环
人工智能·ai·语言模型·agent·llama·智能体
高兴就好(石6 天前
Mac使用llama.cpp
macos·llama
zhangfeng11336 天前
No space left on device (28) llamafactory微调训练的时候 报错,需要调节 dataloader_num_workers
人工智能·语言模型·llama
阿珊和她的猫6 天前
大模型在客服场景:落地路径 + 效果评估
ai·agent·llama·cli·mcp
谷子熟了7 天前
电商智能客服系统本地搭建
经验分享·docker·typescript·ai编程·llama