【技术底稿 10】16G Ubuntu 服务器手动部署 Ollama 0.20.4 全流程(避坑 HTTP2 错误)

一、环境说明

  • 系统:Ubuntu 22.04 LTS
  • 内存:16GB
  • 安装方式:手动二进制部署(非官方脚本、非 Docker)
  • 适用场景:本地大模型推理、RAG 向量知识库、个人 DevOps 平台底层环境

二、前置准备

安装包:ollama-linux-amd64.tar.zst采用离线包部署,避开官方 curl 脚本下载慢、HTTP2 framing error 等网络问题。

三、安装步骤

1. 安装 zst 解压工具

bash

运行

复制代码
sudo apt update && sudo apt install zstd -y

2. 解压安装包

bash

运行

复制代码
# 解压 zst 为 tar
zstd -d ollama-linux-amd64.tar.zst

# 解压 tar 包
tar -xf ollama-linux-amd64.tar

3. 移动到系统目录并赋权

bash

运行

复制代码
sudo mv bin/ollama /usr/local/bin/
sudo chmod +x /usr/local/bin/ollama

4. 验证安装版本

bash

运行

复制代码
ollama --version

图 1:ollama --version 版本验证成功截图,显示客户端版本 0.20.4 即为安装完成。

5. 启动 Ollama 服务

bash

运行

复制代码
ollama serve

图 2:ollama serve 启动成功界面,出现 Listening on 127.0.0.1:11434 代表服务正常运行。

6. 拉取向量模型(RAG 专用)

bash

运行

复制代码
ollama pull nomic-embed-text

图 3:nomic-embed-text 向量模型下载中,受网络环境影响,下载速度较慢,可通过配置国内镜像、手动离线导入等方式优化。

7. 查看已安装模型

bash

运行

复制代码
ollama list

四、常见问题

  1. 官方脚本下载失败使用二进制离线包,彻底规避 HTTP2 网络错误、连接超时。

  2. 模型下载速度慢可配置国内镜像加速,或多次断点续传。

  3. 服务后台常驻

    bash

    运行

    复制代码
    nohup ollama serve &

五、实战说明

本次使用二进制手动部署,相比 Docker 更轻量、相比官方脚本更稳定,16GB 内存服务器可稳定运行向量模型与轻量大模型,作为后续 AI 知识库、RAG 系统的底层推理环境

六、后续规划

下一步部署 Milvus 向量数据库,打通 Ollama + Milvus 本地 RAG 知识库完整链路。


关注我

持续更新《人生底稿》成长史 &《技术底稿》&《产品底稿》实战干货一起踏实成长,不焦虑、不内卷。

📚 系列导航:

【人生底稿 01】|农村少年(1995--2005)

【技术底稿】01:37岁老码农,用4台机器搭了套个人DevOps平台

【产品底稿01】37 岁 Java 老码农,用 Java 搭了个 AI 写作助手,把自己 14 年技术文章全喂给了 AI!

相关推荐
饼瑶2 小时前
Isaac Sim 5.0.0 Docker 部署手册(实验室服务器)
服务器·docker·容器
dddddppppp1232 小时前
linux head.s 从第一条指令到start_kernel
linux·运维·服务器
Huanzhi_Lin2 小时前
Nginx本地资源服务器-常用脚本
服务器·前端·nginx·batch·静态资源服务器
一江寒逸2 小时前
大模型应用开发核心三要素:MCP、Skill、工具 深度拆解与实战指南(2026最新版)
ai
weixin_699602442 小时前
Pika 视频生成 API 集成教程
ai
华清远见IT开放实验室2 小时前
AI 算法核心知识清单(深度实战版1)
人工智能·python·深度学习·学习·算法·机器学习·ai
jiayong232 小时前
第 4 课:怎么把一个大页面拆成多个组件
运维·服务器·前端
qq_8573058192 小时前
ubuntu 22 源码安装bochs
linux·运维·ubuntu
kimi-2222 小时前
如何让大语言模型稳定输出 JSON 的三层防御体系
人工智能·语言模型·json