1panel面板安装ollama的详细过程

1. 前言

Ollama 是一个强大的开源工具,它允许您在本地轻松运行、管理和部署大型语言模型(LLM)。结合 1Panel 这款现代化的 Linux 服务器运维管理面板,我们可以通过图形化界面,以更便捷、更安全的方式完成 Ollama 的安装与配置。本教程将手把手带您完成整个过程。

2. 环境准备

在开始之前,请确保您已满足以下条件:

  1. 一台运行 Linux 的服务器(如 Ubuntu 22.04/24.04、CentOS 7/8 等)。
  2. 已安装并成功运行 1Panel 。如果您尚未安装,请参考 1Panel 官方安装文档 先行安装。
  3. 服务器拥有足够的磁盘空间(建议至少 20GB 可用空间,用于存放模型文件)。
  4. 确保服务器可以访问互联网,以下载 Ollama 及其模型。
    图1:1Panel 登录界面与仪表板概览

    图1:成功登录 1Panel 后看到的仪表板界面,左侧为导航菜单,右侧为系统状态概览。
    图2:1Panel 系统信息与资源监控页面

    *图2:在「主机」或「监控」页面查看服务器资源使用情况,确保有足够的磁盘空间(建议至少20GB)。

3. 通过 1Panel 应用商店安装 Ollama

这是最简单快捷的安装方式。1Panel 的应用商店集成了大量常用软件的一键安装。

3.1 进入应用商店

图3:1Panel 应用商店入口

图3:登录后,在左侧导航栏中找到并点击「应用商店」图标,进入应用市场。

  1. 登录您的 1Panel 后台。
  2. 在左侧导航栏中,点击「应用商店」。

3.2 搜索并安装 Ollama

图4:在应用商店中搜索 Ollama

图4:在应用商店顶部的搜索框中输入"Ollama",搜索结果会显示 Ollama 应用卡片。
图5:Ollama 应用详情页

图5:点击 Ollama 卡片进入详情页,查看应用描述、版本信息,右上角有「安装」按钮。

  1. 在应用商店的搜索框中输入 "Ollama"
  2. 在搜索结果中找到 "Ollama" 应用,点击其卡片进入详情页。
  3. 在详情页中,点击右上角的「安装」按钮。

3.3 配置安装参数

图6:Ollama 安装配置页面

图6:点击「安装」后弹出的配置页面,可设置应用名称、版本、端口映射、存储卷等参数。
图7:端口映射与存储卷配置示例

图7:配置示例:容器端口11434映射到服务端口11435,并创建名为"ollama-models"的存储卷挂载到/root/.ollama。

点击「安装」后,会弹出配置页面。您可以根据需要进行调整,以下为关键参数说明:

  • 应用名称 :为这个 Ollama 实例起个名字,例如 ollama-server
  • 版本:选择您希望安装的 Ollama 版本,通常选择最新的稳定版即可。
  • 网络
    • 端口映射 :这是最重要的设置。Ollama 默认服务端口是 11434。您需要将容器内的 11434 端口映射到宿主机的某个端口。
    • 示例 :在「容器端口」填 11434,在「服务端口」填一个未被占用的端口,例如 11435。这意味着您将通过服务器的 IP:11435 来访问 Ollama API。
  • 存储 :建议为模型文件创建一个持久化存储卷。
    • 点击「添加」->「创建存储卷」,命名为 ollama-models,挂载路径填写 /root/.ollama(这是 Ollama 默认的模型存储目录)。
  • 环境变量 :通常无需额外设置,除非有特定需求。
    配置完成后,点击页面底部的「确认」按钮,1Panel 将自动拉取镜像并创建容器。

3.4 验证安装

3.5 下载与运行模型

在确认 Ollama 容器正常运行后,下一步就是下载并运行您的第一个大语言模型。您可以通过 1Panel 的容器终端功能,直接在浏览器中操作。

  1. 在 1Panel 的「容器」页面,找到您的 Ollama 容器(如 ollama-server)。

  2. 点击容器右侧的「终端」图标,打开一个连接到容器内部的 Web 终端。

  3. 在终端中,使用 ollama pull 命令下载模型。例如,下载轻量级的 llama3.2:1b 模型:

    bash 复制代码
    ollama pull llama3.2:1b

    图9:在 1Panel 容器终端中下载模型

    图9:在 1Panel 提供的 Web 终端中执行 ollama pull llama3.2:1b 命令,开始下载模型。终端会显示下载进度和验证信息。

  4. 下载完成后,使用 ollama run 命令与模型进行交互式对话:

    bash 复制代码
    ollama run llama3.2:1b

    输入上述命令后,您会进入模型的交互式对话界面,可以直接输入问题测试。输入 /bye 退出对话。
    提示

  • 首次下载模型需要一些时间,具体取决于模型大小和您的网络速度。
  • 您也可以下载其他模型,如 llama3.2qwen2.5:7bgemma2:2b 等,只需将命令中的模型名称替换即可。
  • 模型文件会保存在您之前配置的持久化存储卷中(如 /root/.ollama),即使容器重启也不会丢失。
    图8:1Panel 容器管理页面查看运行状态

图8:安装完成后,在「容器」页面可以看到名为"ollama-server"的容器状态为"运行中"。

安装完成后,您可以在 1Panel 的「容器」页面看到名为 ollama-server(或您自定义的名称)的容器正在运行。

4. 安装后配置与基础使用

4.1 访问 Ollama API

安装完成后,您可以通过以下方式验证 Ollama 服务是否正常运行:

bash 复制代码
# 在服务器终端中执行,将 PORT 替换为您映射的宿主机端口(如 11435)
curl http://localhost:PORT/api/tags

如果返回类似 {"models":[]} 的 JSON 数据(初始为空列表),说明服务已成功启动。

4.2 拉取并运行模型

Ollama 安装后不包含任何模型,需要手动拉取。您可以通过 1Panel 提供的「终端」功能,连接到容器内部进行操作。

  1. 在 1Panel「容器」页面,找到您的 Ollama 容器,点击右侧的「终端」图标。

  2. 在打开的终端中,执行以下命令拉取一个模型(例如小巧的 llama3.2:1b 模型):

    bash 复制代码
    ollama pull llama3.2:1b

    您也可以拉取其他模型,如 llama3.2qwen2.5:7bgemma2:2b 等。首次拉取需要一些时间,取决于模型大小和网络速度。

  3. 拉取完成后,运行模型:

    bash 复制代码
    ollama run llama3.2:1b

    这会启动一个交互式对话界面,您可以输入问题开始测试。输入 /bye 退出。

4.3 作为后台服务运行模型

如果您希望模型作为 API 服务长期运行,可以在容器终端中使用 ollama serve 命令,但更推荐的方式是让容器启动时自动运行服务。这通常已在 1Panel 的 Ollama 应用配置中预设好。

5. 进阶配置(可选)

5.1 配置模型存储路径

如果您在安装时未配置存储卷,模型将保存在容器内部,容器删除后模型也会丢失。为了持久化,您可以在容器创建后,通过 1Panel 修改容器配置,添加存储卷绑定,将宿主机的目录(如 /opt/ollama/models)挂载到容器的 /root/.ollama

5.2 使用 OpenAI 兼容接口

Ollama 提供了与 OpenAI API 兼容的接口,地址为 http://<服务器IP>:<映射端口>/v1。这使得许多支持 OpenAI 的客户端(如 Chatbox, Open WebUI)可以直接连接您的私有 Ollama 服务。

5.3 通过 1Panel 反向代理暴露服务

如果您希望通过域名(如 ollama.yourdomain.com)并启用 HTTPS 来安全地访问 Ollama API,可以使用 1Panel 的「网站」功能创建反向代理。

  1. 在 1Panel 中创建新网站,选择「反向代理」。
  2. 代理地址填写 http://127.0.0.1:<映射端口>(例如 http://127.0.0.1:11435)。
  3. 配置您的域名和 SSL 证书。

6. 常见问题排查

  • 无法连接 Ollama 服务:检查 1Panel 容器状态是否为"运行中",并确认防火墙是否放行了您映射的宿主机端口。
  • 拉取模型速度慢或失败 :可以尝试配置容器使用宿主机的代理环境变量,或在拉取时使用 --insecure-registry 参数(不推荐用于生产环境)。
  • 磁盘空间不足 :大型模型可能占用数十 GB 空间。请通过 df -h 命令检查磁盘使用情况,并清理空间或挂载更大容量的数据盘。

7. 总结

通过 1Panel 安装 Ollama,我们将复杂的 Docker 命令和配置转化为了简单的可视化操作,大大降低了在服务器上部署和管理 AI 模型的门槛。安装完成后,您就拥有了一个私有的、可随时调用的 LLM 服务,可以用于开发测试、自动化脚本或构建自己的 AI 应用。

赶紧去拉取您喜欢的模型,开始探索吧!

相关链接

相关推荐
椰汁菠萝1 小时前
[特殊字符] Nginx UI:Docker 部署与完全使用指南
nginx·ui·docker
csdn小瓯2 小时前
CI/CD流水线搭建:GitHub Actions + Docker + Railway自动化部署实战
ci/cd·docker·github
周公2 小时前
记一次在双 RTX 3090 工作站上部署 vLLM 与 Qwen3.6-35B-AWQ 的实战记录
python·ai·llama·vllm·ollama
代码讲故事2 小时前
mac电脑上docker突然无法运行,不停的出现弹框,“com.docker.vmnetd”将对你的电脑造成伤害。附国内不同芯片高速下载地址,下载直接运行。
macos·docker·容器·arm·mac·intel·下载
皓月盈江3 小时前
Linux Ubuntu系统使用Docker搭建vulhub靶场环境
linux·ubuntu·docker·tomcat·vulhub·漏洞靶场
程序员老邢4 小时前
【技术底稿 36】Docker Compose 微服务迁移 K3s:离线导入、镜像挂载、Nginx 重定向全踩坑复盘
nginx·docker·云原生·k3s·微服务迁移·技术底稿·容器运维
不做无法实现的梦~4 小时前
Docker 新手到团队协作指南
运维·docker·容器
Tisfy4 小时前
VSCode Docker(Code Server)首次调试C++长时间下载debuginfo问题
c++·vscode·docker
nix.gnehc4 小时前
Langfuse v3 Docker 部署
运维·人工智能·docker·容器·langfuse