【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出

文章目录

Ubuntu 22部署DeepSeek模型排障实录:Ollama版本兼容性问题解决方案

问题现象

在Ubuntu 22服务器部署DeepSeek模型时,发现Ollama服务无响应输出(如图1)。通过系统日志和版本比对,最终定位为Ollama版本过低导致的新模型兼容性问题。


完整排障流程

阶段一:NVIDIA驱动异常

  1. 显存检查异常

    执行nvidia-smi指令缺失,通过【BUG】Ubuntu|有nvcc,没有nvidia-smi指令,找不到nvidia-driver安装包-CSDN博客更新NVIDIA驱动后恢复

  2. 模型加载测试

    更换14b模型仍无输出,排除基础驱动问题

阶段二:服务管理优化

  1. 进程管理误区

    bash 复制代码
    ps -aux | grep ollama  # 查找进程号
    sudo kill -9 [PID]     # 强制终止进程(不推荐)

    发现进程自动重启,通过lsof -i:11434确认端口占用

  2. 规范服务管理

    bash 复制代码
    systemctl list-units --type=service | grep ollama  # 服务定位
    sudo systemctl stop ollama.service                 # 停止服务

阶段三:版本升级方案

  1. 版本升级操作

    bash 复制代码
    # 官方安装脚本(国内推荐使用Modelscope镜像加速)
    curl -fsSL https://ollama.com/install.sh | sh
  2. 服务重启验证

    bash 复制代码
    sudo systemctl daemon-reload      # 重载配置
    nohup ollama serve > /dev/null 2>&1 &  # 后台启动

最终效果

升级Ollama至v0.5.10后成功加载DeepSeek模型(如图2),显存占用显示正常:


优化建议

  1. 版本管理

    建议定期执行ollama -v检查版本,国内用户可通过Modelscope镜像加速下载

  2. 日志分析

    出现异常时可查看详细日志:

    bash 复制代码
    journalctl -u ollama.service -f  # 实时查看服务日志

    如果提示你看不了消息,需要将当前用户添加到将当前用户添加到 'adm' 或 'systemd-journal' 组中。打开终端并执行以下命令,将你的用户名替换为实际的用户名(例如 your_username):sudo usermod -aG adm your_username

  3. 服务配置

    推荐通过systemd管理服务,参考官方服务配置模板


参考文献

  1. 【BUG】Ubuntu|有nvcc,没有nvidia-smi指令,找不到nvidia-driver安装包-CSDN博客
  2. Ollama官方文档
  3. Modelscope镜像站
  4. Systemd服务管理手册

本账号所有文章均为原创,欢迎转载,请注明文章出处:https://shandianchengzi.blog.csdn.net/article/details/145641554。百度和各类采集站皆不可信,搜索请谨慎鉴别。技术类文章一般都有时效性,本人习惯不定期对自己的博文进行修正和更新,因此请访问出处以查看本文的最新版本。

相关推荐
张彦峰ZYF10 分钟前
大模型LLM ACA - ACP认证考试模拟试卷二
大模型·llm·aca - acp
威化饼的一隅1 小时前
【大模型LLM学习】从强化学习到GRPO【下】
大模型·llm·agent·强化学习·智能体·grpo
人工智能训练4 小时前
从 1.1.3 到 1.13.2!Ubuntu 24.04 上 Dify 升级保姆级教程(零数据丢失 + 一键迁移)
linux·运维·人工智能·windows·ubuntu·dify
吴声子夜歌5 小时前
TypeScript——模块解析
javascript·ubuntu·typescript
爱听歌的周童鞋5 小时前
Learn-Claude-Code | 笔记 | Tools & Execution | s01 The Agent Loop | s02 Tools
llm·agent·note·claude code·tool use·agent loop
Cry丶6 小时前
2026 终极指南:OpenClaw 完美接入 DeepSeek (V3/R1) 实战手册
deepseek·openclaw·小龙虾
竹之却6 小时前
【OpenClaw】云服务器端 openclaw 集成本地 Windows端 ollama 模型
windows·llama·ollama·openclaw·qwen3.5
cnnews6 小时前
手机通过Termux安装unbuntu,开启SSH
linux·运维·ubuntu·ssh
吴声子夜歌7 小时前
TypeScript——声明合并
linux·ubuntu·typescript
加斯顿工程师7 小时前
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程
windows·大模型·本地部署·ollama·qwen3.5