安装驱动
- https://www.nvidia.cn/drivers/lookup/
- 搜索对应gpu的kylin版本即可
- 先使用wget 下载rpm包
- rpm -i 安装
- 最后使用
dnf install nvidia-driver
即可- 上面安装的是驱动仓库
安装CUDA
- kylin服务器参考配置
- 同上,先wget,后rpm -i,最后
dnf install cuda
即可
安装Ollama
ollama官方提供aarch64 docker,按照https://hub.docker.com/r/ollama/ollama文档操作即可
启动Ollama
同样按文档--gpus=all
使用gpu资源启动容器
在启动后建议:
- 先
docker exec -it ollama bash
进入下容器 - 运行
nvidia-smi
,重点查看cuda
是否正确显示版本号- 错误则显示
N/A
- 错误则显示
- 一般看到cuda版本号ollama即可正常使用gpu推理