Debian 安装 Ollama 教程

Debian 安装 Ollama 教程,包含加速、常见问题和验证步骤。


🧠 一、什么是 Ollama

What is Ollama

  • 🇨🇳:Ollama 是一个本地运行大模型(LLM)的工具(类似本地 ChatGPT)

  • 🇺🇸: Ollama is a tool for running large language models locally (like a local ChatGPT)


⚙️ 二、Debian 安装 Ollama(标准方法)

✅ 方法 1:官方脚本(可能会很慢)

Method 1: Official install script (Recommended)

复制代码
curl -fsSL https://ollama.com/install.sh | sh

👉 如果你之前说下载慢,用国内/加速方法👇


🚀 方法 2:加速安装(推荐用这个)

Method 2: Faster install (for slow networks)

复制代码
curl -fsSL https://ollama.com/install.sh -o install.sh
sudo sed -i 's/ollama.com/mirrors.aliyun.com\/ollama/g' install.sh
sudo sh install.sh

或者直接用代理:

复制代码
export https_proxy=http://127.0.0.1:7890
curl -fsSL https://ollama.com/install.sh | sh

⚠️ 方法 3:手动安装(最稳定)

Method 3: Manual install (Most stable)

复制代码
# 下载二进制
wget https://ollama.com/download/ollama-linux-amd64 -O ollama

# 添加执行权限
chmod +x ollama

# 移动到系统目录
sudo mv ollama /usr/local/bin/

# 创建服务
sudo useradd -r -s /bin/false ollama

# 启动
ollama serve

⚠️ 方法 4:官网下载 https://docs.ollama.com/linux#arm64-install

复制代码
https://ollama.com/download/ollama-linux-arm64.tar.zst

▶️ 三、启动 Ollama

Start Ollama

复制代码
ollama serve

后台运行:

复制代码
nohup ollama serve &

🤖 四、下载并运行模型

Run your first model

复制代码
ollama run llama3

测试模型:

复制代码
ollama run llama3 "Explain why I should use a database lock in one sentence"

输出:

复制代码
pulling manifest 
pulling 6a0746a1ec1a: 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████▏ 4.7 GB                         
...                        
verifying sha256 digest 
writing manifest 
success 
You should use a database lock to prevent simultaneous writes or updates from interfering with each other, ensuring data consistency and integrity by 
serializing access to shared data.

👉 常用模型:

  • llama3

  • mistral

  • deepseek-coder


🔍 五、验证是否安装成功

Verify installation

复制代码
ollama --version

测试:

复制代码
ollama run llama3

如果出现聊天界面 → 成功 ✅


🧩 六、常见问题

Common Issues

❌ 1. 下载慢 / 卡住

✔ 解决:

  • 使用代理

  • 或手动下载模型

    ollama pull llama3


❌ 2. 端口占用

默认端口:

复制代码
11434

检查:

复制代码
lsof -i:11434

❌ 3. 没有 GPU(你之前问过)

✔ 正常!

  • Ollama 可以用 CPU

  • 但会慢很多(尤其大模型)


⚡ 七、性能说明(重点)

Performance note

你之前问过这个问题👇:

👉 为什么 AI 不适合 CPU?

  • GPU(VRAM)带宽远高于 RAM

  • 并行计算能力强

  • 推理速度差距可达 10x~50x


🔗 八、下一步(推荐)

如果你要配合你之前问的:

👉 OpenClaw + Ollama

我可以帮你做:

  • ✅ 远程 Ollama API

  • ✅ OpenClaw 连接配置

  • ✅ 局域网/公网访问


✅ 总结

Summary

步骤 内容
安装 curl 或手动
启动 ollama serve
运行模型 ollama run llama3
验证 ollama --version

相关推荐
2601_958320572 天前
【小白易懂版】Kimi 模型接入 OpenClaw 2.6.6 实操教程(包含安装包)
人工智能·open claw·小龙虾·open claw安装·openclaw一键安装
小明说Java3 天前
Ollama本地安装基础教程
ollama·腾讯云ai代码助手
福大大架构师每日一题3 天前
ollama v0.23.0 发布:原生支持 Claude Desktop 模型推荐与底层稳定性全面升级
ollama
搬砖的小码农_Sky4 天前
Linux操作系统:Ubuntu和Debian的区别
linux·ubuntu·debian
孪生质数-5 天前
Linux高危漏洞通报Copy Fail - CVE-2026-31431
linux·运维·服务器·ubuntu·网络安全·debian·cve-2026-31431
福大大架构师每日一题6 天前
ollama v0.22.1 重大更新全解析:新增Poolside集成、模型推荐机制与多架构适配
架构·ollama
不懒不懒6 天前
【从零入门本地大模型:Ollama 安装部署 + Qwen2.5 实现零样本情感分类】
人工智能·分类·数据挖掘·大模型·ollama
2601_958320576 天前
【小白零基础上手 】钉钉内部机器人接入 OpenClaw 完整流程讲解(含安装包)
人工智能·windows·机器人·钉钉·open claw·open claw安装
2601_958320576 天前
【零基础新手入门 】OpenClaw 2.6.6 对接阿里云百炼配置教程(包含安装包)
人工智能·阿里云·云计算·open claw·小龙虾·open claw安装·open claw一键安装
zfh200506287 天前
Open Claw Windows 一键部署教程(新手友好)
人工智能·open claw·小龙虾·open claw安装