【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录

安装驱动

  • https://www.nvidia.cn/drivers/lookup/
  • 搜索对应gpu的kylin版本即可
  • 先使用wget 下载rpm包
  • rpm -i 安装
  • 最后使用dnf install nvidia-driver即可
    • 上面安装的是驱动仓库

安装CUDA

安装Ollama

ollama官方提供aarch64 docker,按照https://hub.docker.com/r/ollama/ollama文档操作即可

启动Ollama

同样按文档--gpus=all使用gpu资源启动容器

在启动后建议:

  • docker exec -it ollama bash进入下容器
  • 运行nvidia-smi,重点查看cuda是否正确显示版本号
    • 错误则显示N/A
  • 一般看到cuda版本号ollama即可正常使用gpu推理
相关推荐
人生匆匆19 小时前
openEuler 24.03 (LTS-SP2)简单KVM安装+桥接模式
linux·服务器·桥接模式
代码的余温20 小时前
UNIX与Linux:五大核心差异解析
linux·服务器·unix
雷工笔记20 小时前
Linux系统学习之注意事项及命令基本格式
linux·运维·服务器
TG_yunshuguoji20 小时前
阿里云国际代理:云数据库RDS及上云方案
服务器·数据库·阿里云·云计算
TG_yunshuguoji20 小时前
阿里云国际代理:稳定、高效、便捷的数据库服务-云数据库RDS
运维·服务器·数据库·阿里云·云计算
梁小憨憨21 小时前
PyCharm 连接 AutoDL 远程服务器
服务器·ide·pycharm
索迪迈科技21 小时前
深度解析:从DeepSeek V3.1到K2 Think的“专才”模型架构
人工智能·ai·语言模型
Insist75321 小时前
OpenEuler安装gitlab,部署gitlab-runner
linux·运维·服务器
月夕·花晨21 小时前
Gateway -网关
java·服务器·分布式·后端·spring cloud·微服务·gateway
虫无涯21 小时前
LangChain中的Prompt模板如何使用?
服务器·langchain·prompt