Debian 安装 Ollama 教程

Debian 安装 Ollama 教程,包含加速、常见问题和验证步骤。


🧠 一、什么是 Ollama

What is Ollama

  • 🇨🇳:Ollama 是一个本地运行大模型(LLM)的工具(类似本地 ChatGPT)

  • 🇺🇸: Ollama is a tool for running large language models locally (like a local ChatGPT)


⚙️ 二、Debian 安装 Ollama(标准方法)

✅ 方法 1:官方脚本(可能会很慢)

Method 1: Official install script (Recommended)

复制代码
curl -fsSL https://ollama.com/install.sh | sh

👉 如果你之前说下载慢,用国内/加速方法👇


🚀 方法 2:加速安装(推荐用这个)

Method 2: Faster install (for slow networks)

复制代码
curl -fsSL https://ollama.com/install.sh -o install.sh
sudo sed -i 's/ollama.com/mirrors.aliyun.com\/ollama/g' install.sh
sudo sh install.sh

或者直接用代理:

复制代码
export https_proxy=http://127.0.0.1:7890
curl -fsSL https://ollama.com/install.sh | sh

⚠️ 方法 3:手动安装(最稳定)

Method 3: Manual install (Most stable)

复制代码
# 下载二进制
wget https://ollama.com/download/ollama-linux-amd64 -O ollama

# 添加执行权限
chmod +x ollama

# 移动到系统目录
sudo mv ollama /usr/local/bin/

# 创建服务
sudo useradd -r -s /bin/false ollama

# 启动
ollama serve

⚠️ 方法 4:官网下载 https://docs.ollama.com/linux#arm64-install

复制代码
https://ollama.com/download/ollama-linux-arm64.tar.zst

▶️ 三、启动 Ollama

Start Ollama

复制代码
ollama serve

后台运行:

复制代码
nohup ollama serve &

🤖 四、下载并运行模型

Run your first model

复制代码
ollama run llama3

测试模型:

复制代码
ollama run llama3 "Explain why I should use a database lock in one sentence"

输出:

复制代码
pulling manifest 
pulling 6a0746a1ec1a: 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB                         
...                        
verifying sha256 digest 
writing manifest 
success 
You should use a database lock to prevent simultaneous writes or updates from interfering with each other, ensuring data consistency and integrity by 
serializing access to shared data.

👉 常用模型:

  • llama3

  • mistral

  • deepseek-coder


🔍 五、验证是否安装成功

Verify installation

复制代码
ollama --version

测试:

复制代码
ollama run llama3

如果出现聊天界面 → 成功 ✅


🧩 六、常见问题

Common Issues

❌ 1. 下载慢 / 卡住

✔ 解决:

  • 使用代理

  • 或手动下载模型

    ollama pull llama3


❌ 2. 端口占用

默认端口:

复制代码
11434

检查:

复制代码
lsof -i:11434

❌ 3. 没有 GPU(你之前问过)

✔ 正常!

  • Ollama 可以用 CPU

  • 但会慢很多(尤其大模型)


⚡ 七、性能说明(重点)

Performance note

你之前问过这个问题👇:

👉 为什么 AI 不适合 CPU?

  • GPU(VRAM)带宽远高于 RAM

  • 并行计算能力强

  • 推理速度差距可达 10x~50x


🔗 八、下一步(推荐)

如果你要配合你之前问的:

👉 OpenClaw + Ollama

我可以帮你做:

  • ✅ 远程 Ollama API

  • ✅ OpenClaw 连接配置

  • ✅ 局域网/公网访问


✅ 总结

Summary

步骤 内容
安装 curl 或手动
启动 ollama serve
运行模型 ollama run llama3
验证 ollama --version

相关推荐
熊猫钓鱼>_>1 天前
私有化AI视频助手搭建实录:当Ollama遇上OpenClaw
人工智能·音视频·agent·qwen·ollama·openclaw·happyhorse-1.0
书香门第2 天前
搭建免费的Ollama AI Agent
人工智能·python·ollama
devpotato2 天前
人工智能(六)- Spring AI 调用Ollama本地大模型
人工智能·ollama
Cachel wood2 天前
Macbook M4 pro本地部署大模型|Ollama+Gemma4/Qwen3.5
人工智能·python·自动化·llm·qwen·ollama·gemma4
シ風箏2 天前
Ollama【部署 07】搭建本地智能体的简单说明(局域网离线部署Ollama+模型迁移+Docker部署AnythingLLM)
docker·anythingllm·ollama·本地智能体·离线模型迁移
Navicat中国3 天前
如何使用 Ollama 配置 AI 助手 | Navicat 教程
数据库·人工智能·ai·navicat·ollama
清风9159386293 天前
告别Token账单无底洞:OpenClaw本地部署,重塑企业数据主权的唯一解
node.js·ollama·openclaw ai智能体·openclaw本地部署·openclaw硬件配置·ultralab
福大大架构师每日一题3 天前
ollama v0.20.5 发布:OpenClaw全渠道打通、Gemma 4闪光注意力优化、模型保存修复,本地AI部署再升级
ollama
comedate3 天前
【OpenClaw】 8GB 显卡本地大模型部署指南
大模型·本地部署·ollama·vibe coding
nix.gnehc3 天前
实战部署|Ollama\+Qwen2\.5:3b\+Open WebUI 本地AI助手搭建全记录(附避坑指南)
人工智能·大模型·llm·ollama