香橙派ai pro安装支持昇腾NPU的ollama

一、准备阶段

1.1 查看NPU信息

香橙派查看npu信息的命令如下,可以看到npu的型号、显存和版本信息等。

bash 复制代码
npu-smi info

1.2 查看ollama信息

1.2.1 查看ollama是否安装及服务状态

检查 ollama 是否安装及 ollama 服务状态。

bash 复制代码
# 查看ollama是否安装
which ollama

# 已安装查看ollama服务状态
systemctl list-unit-files | grep ollama

# 查看 Ollama 服务实时状态(运行/停止/失败)
systemctl status ollama

# 如果服务正在启用,停止现在的ollama服务
pkill ollama

1.2.2 卸载ollama

bash 复制代码
# 停用ollama服务
sudo systemctl stop ollama

# 查看ollama路径
which ollama

# 卸载当前版本ollama,路径为上面查看的路径
sudo rm -rf /usr/local/bin/ollama*

1.3 安装昇腾版本ollama

1.3.1 下载安装昇腾版本的ollama

bash 复制代码
# 安装昇腾版本的ollama
curl -fsSL https://ollama.com/install.sh | OLLAMA_ASCEND=true sh

1.3.2 配置环境变量

bash 复制代码
# 永久生效,写进 ~/.bashrc
echo 'export OLLAMA_ASCEND=true' >> ~/.bashrc
echo 'export ASCEND_TOOLKIT_HOME=/usr/local/Ascend/ascend-toolkit/latest' >> ~/.bashrc
echo 'export PATH=$PATH:/usr/local/Ascend/ascend-toolkit/latest/bin' >> ~/.bashrc
source ~/.bashrc

1.3.3 重启ollama服务

bash 复制代码
# 如果你用的是 systemd
sudo systemctl restart ollama

# 或者直接后台运行
ollama serve &

二、验证是否使用NPU

2.1 查看日志

bash 复制代码
ollama serve &   # 后台启动
# 然后看日志,应该出现类似:
# time=... level=INFO source=runner.go msg="detected ascend device" device=0
# time=... level=INFO source=types.go msg="inference compute" id=0 library=ascend ...

2.2 运行模型尝试

bash 复制代码
ollama pull llama3.2:3b
ollama run llama3.2:3b
# 输入:你好
# 正常输出速度应该在 30~50 token/s!
相关推荐
zhendianluli4 分钟前
如何阅读理解用户手册里的函数文档, 以man 2 stat举例
linux·运维
同聘云10 分钟前
阿里云云服务器云备份满了可以删除吗?不小心把备份删除了怎么办
服务器·阿里云·云计算
打码人的日常分享13 分钟前
企业数据资产管控和数据治理解决方案
大数据·运维·网络·人工智能·云计算
阿华hhh14 分钟前
Linux系统编程(网络udp)
linux·服务器·c语言·网络·网络协议·udp
weixin_5160230740 分钟前
SISSO
linux
TG:@yunlaoda360 云老大1 小时前
华为云国际站代理商TaurusDB的读写分离可以应用于哪些场景?
服务器·网络·数据库·华为云
TG:@yunlaoda360 云老大1 小时前
如何在华为云国际站代理商控制台进行SFS Turbo的基础状态核查?
大数据·服务器·华为云·php
Wang's Blog1 小时前
Kafka: 生产环境配置优化与服务器最佳实践指南
服务器·kafka
TG:@yunlaoda360 云老大1 小时前
华为云国际站代理商CSBS主要有什么作用呢?
运维·服务器·数据库·华为云
誰能久伴不乏2 小时前
Linux `epoll` 学习笔记:从原理到正确写法(含 ET 经典坑总结)
linux·服务器·网络·c++·ubuntu