【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出

文章目录

Ubuntu 22部署DeepSeek模型排障实录:Ollama版本兼容性问题解决方案

问题现象

在Ubuntu 22服务器部署DeepSeek模型时,发现Ollama服务无响应输出(如图1)。通过系统日志和版本比对,最终定位为Ollama版本过低导致的新模型兼容性问题。


完整排障流程

阶段一:NVIDIA驱动异常

  1. 显存检查异常

    执行nvidia-smi指令缺失,通过【BUG】Ubuntu|有nvcc,没有nvidia-smi指令,找不到nvidia-driver安装包-CSDN博客更新NVIDIA驱动后恢复

  2. 模型加载测试

    更换14b模型仍无输出,排除基础驱动问题

阶段二:服务管理优化

  1. 进程管理误区

    bash 复制代码
    ps -aux | grep ollama  # 查找进程号
    sudo kill -9 [PID]     # 强制终止进程(不推荐)

    发现进程自动重启,通过lsof -i:11434确认端口占用

  2. 规范服务管理

    bash 复制代码
    systemctl list-units --type=service | grep ollama  # 服务定位
    sudo systemctl stop ollama.service                 # 停止服务

阶段三:版本升级方案

  1. 版本升级操作

    bash 复制代码
    # 官方安装脚本(国内推荐使用Modelscope镜像加速)
    curl -fsSL https://ollama.com/install.sh | sh
  2. 服务重启验证

    bash 复制代码
    sudo systemctl daemon-reload      # 重载配置
    nohup ollama serve > /dev/null 2>&1 &  # 后台启动

最终效果

升级Ollama至v0.5.10后成功加载DeepSeek模型(如图2),显存占用显示正常:


优化建议

  1. 版本管理

    建议定期执行ollama -v检查版本,国内用户可通过Modelscope镜像加速下载

  2. 日志分析

    出现异常时可查看详细日志:

    bash 复制代码
    journalctl -u ollama.service -f  # 实时查看服务日志

    如果提示你看不了消息,需要将当前用户添加到将当前用户添加到 'adm' 或 'systemd-journal' 组中。打开终端并执行以下命令,将你的用户名替换为实际的用户名(例如 your_username):sudo usermod -aG adm your_username

  3. 服务配置

    推荐通过systemd管理服务,参考官方服务配置模板


参考文献

  1. 【BUG】Ubuntu|有nvcc,没有nvidia-smi指令,找不到nvidia-driver安装包-CSDN博客
  2. Ollama官方文档
  3. Modelscope镜像站
  4. Systemd服务管理手册

本账号所有文章均为原创,欢迎转载,请注明文章出处:https://shandianchengzi.blog.csdn.net/article/details/145641554。百度和各类采集站皆不可信,搜索请谨慎鉴别。技术类文章一般都有时效性,本人习惯不定期对自己的博文进行修正和更新,因此请访问出处以查看本文的最新版本。

相关推荐
AlenTech13 分钟前
Ubuntu 系统,防止运行大项目的时候 SSH 突然断开
ubuntu·ssh·github
一个处女座的程序猿30 分钟前
LLMs之MoE之Thinking:LongCat-Flash-Thinking-2601的简介、安装和使用方法、案例应用之详细攻略
llm·moe·thinking
眠りたいです33 分钟前
使用LangChain进行AI应用构建-快速上手,定义模型和调用工具部分
人工智能·langchain·llm·ollama·python3.13
xdpcxq102940 分钟前
Apache 详解 在 Ubuntu 24 中安装和配置 Apache
linux·ubuntu·apache
朝新_41 分钟前
【无标题】软件测试bug篇
bug
chinesegf1 小时前
虚拟机ubuntu中磁盘满了 + 镜像损坏,如何解决
linux·运维·ubuntu
xfddlm1 小时前
再探模型训练,使用LLaMA-Factory实现LLM微调
人工智能·llama
doll ~CJ2 小时前
Large Language Model(LLM)应用开发学习实践(一)
langchain·llm·ai agent·应用开发·通义千问系列大模型
HABuo3 小时前
【linux进程控制(二)】进程等待-->死亡的子进程是如何被父进程等待回收的?
linux·运维·服务器·c语言·c++·ubuntu·centos
Demo_xr3 小时前
【系统安装】ubuntu20.04启动盘制作,装到物理服务器上
ubuntu