【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录

安装驱动

  • https://www.nvidia.cn/drivers/lookup/
  • 搜索对应gpu的kylin版本即可
  • 先使用wget 下载rpm包
  • rpm -i 安装
  • 最后使用dnf install nvidia-driver即可
    • 上面安装的是驱动仓库

安装CUDA

安装Ollama

ollama官方提供aarch64 docker,按照https://hub.docker.com/r/ollama/ollama文档操作即可

启动Ollama

同样按文档--gpus=all使用gpu资源启动容器

在启动后建议:

  • docker exec -it ollama bash进入下容器
  • 运行nvidia-smi,重点查看cuda是否正确显示版本号
    • 错误则显示N/A
  • 一般看到cuda版本号ollama即可正常使用gpu推理
相关推荐
我材不敲代码2 分钟前
在Linux系统上安装MySQL
linux·运维·服务器
珠海西格24 分钟前
远动通信装置为何是电网安全运行的“神经中枢”?
大数据·服务器·网络·数据库·分布式·安全·区块链
小宇的天下29 分钟前
Calibre 3Dstack --每日一个命令day18【floating_trace】(3-18)
服务器·前端·数据库
历程里程碑38 分钟前
Linux15 进程二
linux·运维·服务器·开发语言·数据结构·c++·笔记
shangjian00740 分钟前
AI-大语言模型LLM-概念术语-Dropout
人工智能·语言模型·自然语言处理
H Journey1 小时前
Linux su 命令核心用法总结
java·linux·服务器·su
余俊晖1 小时前
多模态视觉语言模型:Molmo2训练数据、训练配方
人工智能·语言模型·自然语言处理
岚天start1 小时前
Python HTTP服务器添加简单用户名密码认证的三种方案
服务器·python·http
爱吃大芒果1 小时前
Flutter for OpenHarmony 适配:mango_shop 页面布局的鸿蒙多设备屏幕适配方案
flutter·华为·harmonyos
前端不太难1 小时前
没有文档模型,HarmonyOS PC 应用会发生什么?
华为·状态模式·harmonyos