Docker 部署 Ollama 详细教程以及镜像高速下载地址

目录

[1. 安装 Docker](#1. 安装 Docker)

[2. 拉取 Ollama 镜像](#2. 拉取 Ollama 镜像)

[3. 运行 Ollama 容器](#3. 运行 Ollama 容器)

[4. 拉取并运行模型](#4. 拉取并运行模型)

[5. 通过 API 访问(可选)](#5. 通过 API 访问(可选))

[6. 停止和重启容器](#6. 停止和重启容器)

注意事项

镜像高速下载地址


使用 Docker 部署 Ollama 是一种简单高效的方式,以下是详细步骤:

1. 安装 Docker

首先确保你的系统已安装 Docker。如果未安装,可以参考官方文档:

2. 拉取 Ollama 镜像

Ollama 官方提供了 Docker 镜像,使用以下命令拉取:

bash

复制代码
docker pull ollama/ollama

3. 运行 Ollama 容器

使用以下命令启动 Ollama 容器,需要映射端口并挂载数据卷以持久化模型数据:

bash

复制代码
docker run -d \
  --name ollama \
  -p 11434:11434 \
  -v ollama_data:/root/.ollama \
  --restart always \
  ollama/ollama

参数说明:

  • -d:后台运行容器
  • --name ollama:指定容器名称为 ollama
  • -p 11434:11434:将容器的 11434 端口映射到主机的 11434 端口(Ollama 默认端口)
  • -v ollama_data:/root/.ollama:创建数据卷持久化存储模型
  • --restart always:容器退出时自动重启

4. 拉取并运行模型

容器启动后,使用以下命令进入容器内部操作:

bash

复制代码
docker exec -it ollama bash

在容器内拉取并运行模型(以 llama3 为例):

bash

复制代码
ollama pull llama3
ollama run llama3

5. 通过 API 访问(可选)

如果需要通过 API 访问 Ollama,可以使用 HTTP 请求:

bash

复制代码
curl http://localhost:11434/api/generate -d '{
  "model": "llama3",
  "prompt": "Hello! What is Docker?"
}'

6. 停止和重启容器

  • 停止容器:docker stop ollama
  • 启动容器:docker start ollama
  • 查看容器状态:docker ps -a | grep ollama

注意事项

  • 如果需要使用 GPU 加速,需要安装 NVIDIA Docker 支持,并使用带有 GPU 的镜像
  • 不同模型对系统资源要求不同,确保你的服务器有足够的内存和 CPU/GPU 资源
  • 防火墙需要开放 11434 端口(如果需要远程访问)

通过以上步骤,你可以快速在 Docker 中部署和使用 Ollama,管理各种大语言模型。

镜像高速下载地址

镜像将近3个G,没关系,我会出手,已经准备好了高速下载资源

https://pan.quark.cn/s/3f2a66e49a89?pwd=GC1u

复制代码
我用夸克网盘给你分享了「ollama高速下载镜像」,点击链接或复制整段内容,打开「夸克APP」即可获取。
/~e8eb38Ptt0~:/
链接:https://pan.quark.cn/s/3f2a66e49a89?pwd=GC1u
提取码:GC1u
相关推荐
珠海西格电力科技5 分钟前
微电网能量平衡理论的实现条件在不同场景下有哪些差异?
运维·服务器·网络·人工智能·云计算·智慧城市
释怀不想释怀23 分钟前
Linux环境变量
linux·运维·服务器
zzzsde29 分钟前
【Linux】进程(4):进程优先级&&调度队列
linux·运维·服务器
70asunflower2 小时前
Emulation,Simulation,Virtualization,Imitation 的区别?
linux·docker
聆风吟º2 小时前
CANN开源项目实战指南:使用oam-tools构建自动化故障诊断与运维可观测性体系
运维·开源·自动化·cann
ShiLiu_mtx2 小时前
k8s - 7
云原生·容器·kubernetes
NPE~2 小时前
自动化工具Drissonpage 保姆级教程(含xpath语法)
运维·后端·爬虫·自动化·网络爬虫·xpath·浏览器自动化
神梦流2 小时前
GE 引擎的内存优化终局:静态生命周期分析指导下的内存分配与复用策略
linux·运维·服务器
春日见3 小时前
车辆动力学:前后轮车轴
java·开发语言·驱动开发·docker·计算机外设
xuhe23 小时前
[全流程详细教程]Docker部署ClawBot, 使用GLM4.7, 接入TG Bot实现私人助理. 解决Docker Openclaw Permission Denied问题
linux·docker·ai·github·tldr