Linux系统使用Docker安装Ollama

前言

当前我在有网环境使用Docker的方式部署Ollama,使用Ollama部署大模型,之后导出镜像和数据在无网的内网环境使用。

拉取镜像

bash 复制代码
# 拉取官方镜像
docker pull ollama:ollama

运行启动容器

这一步骤需要注意的是需要设置数据挂载目录,考虑到后期连同ollama的数据一起迁移。

我的数据目录是:/data2/app/ai/ollama/data

bash 复制代码
# 创建数据挂载目录
/data2/app/ai/ollama/data

# 运行启动容器
docker run -d --name ollama \
-p 11434:11434 \
-v /data2/app/ai/ollama/data:/root/.ollama \
-e OLLAMA_HOST=0.0.0.0:11434 \
--gpus=all \                # 若机器带 NVIDIA GPU
ollama/ollama:latest

下载模型

执行以下命令进行下载模型

bash 复制代码
# 下载模型
docker exec -it ollama ollama run qwen3:8b

模型下载完成后,可直接使用,如下图:

下载完确认

查看模型是否下载到自己设置的挂载目录

Ollama服务确认

访问地址http://[IP]:11434/api/tag,我当前的服务地址: http://192.168.3.202:11434/api/tags,如下图:

下一步将进行整体容器和数据迁移。

相关推荐
AlfredZhao11 小时前
小白学AI开发01:创建第一个示例Agent
ai·langchain·agent
C_心欲无痕12 小时前
Dockerfile:构建 Docker 镜像
运维·docker·容器
zz_nj12 小时前
工作的环境
linux·运维·服务器
C_心欲无痕13 小时前
nginx - 实现域名跳转的几种方式
运维·前端·nginx
suijishengchengde13 小时前
****LINUX时间同步配置*****
linux·运维
幻云201014 小时前
AI自动化编排:从入门到精通(基于Dify构建AI智能系统)
运维·人工智能·自动化
qiuqyue14 小时前
基于虹软Linux Pro SDK的多路RTSP流并发接入、解码与帧级处理实践
linux·运维·网络
CoderJia程序员甲14 小时前
GitHub 热榜项目 - 日榜(2026-1-13)
人工智能·ai·大模型·github·ai教程
C_心欲无痕14 小时前
Docker 本地部署 CSR 前端项目完整指南
前端·docker·容器
suyong_yq14 小时前
RUHMI & RA8P1 教程 Part4 - 使用 RUHMI 转换 AI 模型文件
人工智能·ai·嵌入式·arm