Debian 安装 Ollama 教程,包含加速、常见问题和验证步骤。
🧠 一、什么是 Ollama
What is Ollama
-
🇨🇳:Ollama 是一个本地运行大模型(LLM)的工具(类似本地 ChatGPT)
-
🇺🇸: Ollama is a tool for running large language models locally (like a local ChatGPT)
⚙️ 二、Debian 安装 Ollama(标准方法)
✅ 方法 1:官方脚本(可能会很慢)
Method 1: Official install script (Recommended)
curl -fsSL https://ollama.com/install.sh | sh
👉 如果你之前说下载慢,用国内/加速方法👇
🚀 方法 2:加速安装(推荐用这个)
Method 2: Faster install (for slow networks)
curl -fsSL https://ollama.com/install.sh -o install.sh
sudo sed -i 's/ollama.com/mirrors.aliyun.com\/ollama/g' install.sh
sudo sh install.sh
或者直接用代理:
export https_proxy=http://127.0.0.1:7890
curl -fsSL https://ollama.com/install.sh | sh
⚠️ 方法 3:手动安装(最稳定)
Method 3: Manual install (Most stable)
# 下载二进制
wget https://ollama.com/download/ollama-linux-amd64 -O ollama
# 添加执行权限
chmod +x ollama
# 移动到系统目录
sudo mv ollama /usr/local/bin/
# 创建服务
sudo useradd -r -s /bin/false ollama
# 启动
ollama serve
⚠️ 方法 4:官网下载 https://docs.ollama.com/linux#arm64-install
https://ollama.com/download/ollama-linux-arm64.tar.zst
▶️ 三、启动 Ollama
Start Ollama
ollama serve
后台运行:
nohup ollama serve &
🤖 四、下载并运行模型
Run your first model
ollama run llama3
测试模型:
ollama run llama3 "Explain why I should use a database lock in one sentence"
输出:
pulling manifest
pulling 6a0746a1ec1a: 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB
...
verifying sha256 digest
writing manifest
success
You should use a database lock to prevent simultaneous writes or updates from interfering with each other, ensuring data consistency and integrity by
serializing access to shared data.
👉 常用模型:
-
llama3 -
mistral -
deepseek-coder
🔍 五、验证是否安装成功
Verify installation
ollama --version
测试:
ollama run llama3
如果出现聊天界面 → 成功 ✅
🧩 六、常见问题
Common Issues
❌ 1. 下载慢 / 卡住
✔ 解决:
-
使用代理
-
或手动下载模型
ollama pull llama3
❌ 2. 端口占用
默认端口:
11434
检查:
lsof -i:11434
❌ 3. 没有 GPU(你之前问过)
✔ 正常!
-
Ollama 可以用 CPU
-
但会慢很多(尤其大模型)
⚡ 七、性能说明(重点)
Performance note
你之前问过这个问题👇:
👉 为什么 AI 不适合 CPU?
-
GPU(VRAM)带宽远高于 RAM
-
并行计算能力强
-
推理速度差距可达 10x~50x
🔗 八、下一步(推荐)
如果你要配合你之前问的:
👉 OpenClaw + Ollama
我可以帮你做:
-
✅ 远程 Ollama API
-
✅ OpenClaw 连接配置
-
✅ 局域网/公网访问
✅ 总结
Summary
| 步骤 | 内容 |
|---|---|
| 安装 | curl 或手动 |
| 启动 | ollama serve |
| 运行模型 | ollama run llama3 |
| 验证 | ollama --version |