Debian 安装 Ollama 教程

Debian 安装 Ollama 教程,包含加速、常见问题和验证步骤。


🧠 一、什么是 Ollama

What is Ollama

  • 🇨🇳:Ollama 是一个本地运行大模型(LLM)的工具(类似本地 ChatGPT)

  • 🇺🇸: Ollama is a tool for running large language models locally (like a local ChatGPT)


⚙️ 二、Debian 安装 Ollama(标准方法)

✅ 方法 1:官方脚本(可能会很慢)

Method 1: Official install script (Recommended)

复制代码
curl -fsSL https://ollama.com/install.sh | sh

👉 如果你之前说下载慢,用国内/加速方法👇


🚀 方法 2:加速安装(推荐用这个)

Method 2: Faster install (for slow networks)

复制代码
curl -fsSL https://ollama.com/install.sh -o install.sh
sudo sed -i 's/ollama.com/mirrors.aliyun.com\/ollama/g' install.sh
sudo sh install.sh

或者直接用代理:

复制代码
export https_proxy=http://127.0.0.1:7890
curl -fsSL https://ollama.com/install.sh | sh

⚠️ 方法 3:手动安装(最稳定)

Method 3: Manual install (Most stable)

复制代码
# 下载二进制
wget https://ollama.com/download/ollama-linux-amd64 -O ollama

# 添加执行权限
chmod +x ollama

# 移动到系统目录
sudo mv ollama /usr/local/bin/

# 创建服务
sudo useradd -r -s /bin/false ollama

# 启动
ollama serve

⚠️ 方法 4:官网下载 https://docs.ollama.com/linux#arm64-install

复制代码
https://ollama.com/download/ollama-linux-arm64.tar.zst

▶️ 三、启动 Ollama

Start Ollama

复制代码
ollama serve

后台运行:

复制代码
nohup ollama serve &

🤖 四、下载并运行模型

Run your first model

复制代码
ollama run llama3

测试模型:

复制代码
ollama run llama3 "Explain why I should use a database lock in one sentence"

输出:

复制代码
pulling manifest 
pulling 6a0746a1ec1a: 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB                         
...                        
verifying sha256 digest 
writing manifest 
success 
You should use a database lock to prevent simultaneous writes or updates from interfering with each other, ensuring data consistency and integrity by 
serializing access to shared data.

👉 常用模型:

  • llama3

  • mistral

  • deepseek-coder


🔍 五、验证是否安装成功

Verify installation

复制代码
ollama --version

测试:

复制代码
ollama run llama3

如果出现聊天界面 → 成功 ✅


🧩 六、常见问题

Common Issues

❌ 1. 下载慢 / 卡住

✔ 解决:

  • 使用代理

  • 或手动下载模型

    ollama pull llama3


❌ 2. 端口占用

默认端口:

复制代码
11434

检查:

复制代码
lsof -i:11434

❌ 3. 没有 GPU(你之前问过)

✔ 正常!

  • Ollama 可以用 CPU

  • 但会慢很多(尤其大模型)


⚡ 七、性能说明(重点)

Performance note

你之前问过这个问题👇:

👉 为什么 AI 不适合 CPU?

  • GPU(VRAM)带宽远高于 RAM

  • 并行计算能力强

  • 推理速度差距可达 10x~50x


🔗 八、下一步(推荐)

如果你要配合你之前问的:

👉 OpenClaw + Ollama

我可以帮你做:

  • ✅ 远程 Ollama API

  • ✅ OpenClaw 连接配置

  • ✅ 局域网/公网访问


✅ 总结

Summary

步骤 内容
安装 curl 或手动
启动 ollama serve
运行模型 ollama run llama3
验证 ollama --version

相关推荐
将冲破艾迪i3 小时前
【AI】部署及调用deepseek和qwen等大模型
人工智能·python·ollama·deepseek
AiGuoHou116 小时前
Debian/Ubuntu 各个版本一键更换国内镜像源
linux·ubuntu·国内源·debian·镜像源·换源
竹之却1 天前
【Ollama】解决 ollama 软件下载慢,模型下载慢的问题
代理·ollama·deepseek·openclaw·ollama 模型下载
福大大架构师每日一题3 天前
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级
golang·ollama
razelan6 天前
本地大模型系列:2.通过API让本地大模型为你服务
人工智能·api·ollama·本地大模型
樂油6 天前
小龙虾OpenClaw本地部署(四)连接ollama模型(qwen3.5:0.8b为例)
ollama·openclaw
弗锐土豆6 天前
使用ollama运行本地大模型
llm·大语言模型·安装·ollama
SP八岐大兔6 天前
Ollama安装及运行模型
linux·服务器·ollama
木子欢儿6 天前
在 Debian 12 上安装多个版本的 php(7.3、7.4、8.1、8.2)
运维·开发语言·debian·php