【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录

安装驱动

  • https://www.nvidia.cn/drivers/lookup/
  • 搜索对应gpu的kylin版本即可
  • 先使用wget 下载rpm包
  • rpm -i 安装
  • 最后使用dnf install nvidia-driver即可
    • 上面安装的是驱动仓库

安装CUDA

安装Ollama

ollama官方提供aarch64 docker,按照https://hub.docker.com/r/ollama/ollama文档操作即可

启动Ollama

同样按文档--gpus=all使用gpu资源启动容器

在启动后建议:

  • docker exec -it ollama bash进入下容器
  • 运行nvidia-smi,重点查看cuda是否正确显示版本号
    • 错误则显示N/A
  • 一般看到cuda版本号ollama即可正常使用gpu推理
相关推荐
Boop_wu9 小时前
[Java EE] 计算机基础
java·服务器·前端
坠星不坠10 小时前
pycharm如何导入ai大语言模型的api-key
人工智能·语言模型·自然语言处理
m0_4955627810 小时前
Swift的逃逸闭包
服务器·php·swift
wanhengidc10 小时前
全面了解云手机的安全性
运维·服务器·游戏·智能手机·云计算
顾安r11 小时前
11.8 脚本网页 打砖块max
服务器·前端·html·css3
menge233311 小时前
Linux DNS域名解析服务器练习
linux·运维·服务器
m0_4955627811 小时前
Swift-static和class
java·服务器·swift
emiya_saber12 小时前
Linux 进程调度管理
linux·运维·服务器
yangzhi_emo12 小时前
配置dns主从服务
linux·运维·服务器
SongYuLong的博客14 小时前
Linux开源代码汇总
linux·运维·服务器