OpenWebUI + Ollma 构建本地AI知识库

本机环境:Rocky_linux9.4,10G8核,100G磁盘部署的实验

安装Docker

bash 复制代码
# step 1: 安装必要的一些系统工具
sudo yum install -y yum-utils device-mapper-persistent-data lvm2
# Step 2: 添加软件源信息
sudo yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# Step 3
sudo sed -i 's+download.docker.com+mirrors.aliyun.com/docker-ce+' /etc/yum.repos.d/docker-ce.repo
# Step 4: 更新并安装Docker-CE
sudo yum makecache
sudo yum -y install docker-ce
# Step 4: 开启Docker服务
sudo service docker start
 
# Step 5:配置加速器
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-'EOF'
{
  "registry-mirrors": [
        "https://docker.rainbond.cc" ,
        "https://do.nark.eu.org",
        "https://dc.j8.work",
        "https://pilvpemn.mirror.aliyuncs.com",
        "https://docker.m.daocloud.io",
        "https://dockerproxy.com",
        "https://docker.mirrors.ustc.edu.cn",
        "https://docker.nju.edu.cn"
   ],
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2"
}
EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

ollama的安装以及大模型下载

下载官方: library

Dockerhub地址 : https://hub.docker.com/r/ollama/ollama/tags

拉取ollama镜像

bash 复制代码
[root@localhost ~]# docker pull ollama/ollama:latest
[root@localhost ~]# docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

访问IP+11434端口看是否成功运行

选择下载大预言模型

下载地址:https://ollama.com/library

这里我选择的是

bash 复制代码
[root@localhost ~]# docker exec -it ollama ollama run gemma2:9b

下载Web UI界面

官网:Open WebUI

使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 。此步骤至关重要,因为它可以确保您的数据库已正确挂载并防止任何数据丢失。-v open-webui:/app/backend/data

下述命令如果镜像下载十分缓慢,可以来这个页面试试国内下载,组后运行记得该一下tag:ghcr.io/open-webui/open-webui:ollama - 镜像下载 | ghcr.io (aityp.com)

bash 复制代码
[root@localhost ~]# docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.226.149:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main


注释:
docker run -d \
  -p 3000:8080 \  # 将主机的端口 3000 映射到容器的端口 8080
  -e OLLAMA_BASE_URL=http://192.168.226.149:11434 \  # 设置环境变量 OLLAMA_BASE_URL
  -v open-webui:/app/backend/data \  # 将主机卷 open-webui 挂载到容器内的 /app/backend/data 目录
  --name open-webui \  # 设置容器名称为 open-webui
  --restart always \  # 配置容器自动重启策略
  ghcr.io/open-webui/open-webui:main  # 使用镜像 ghcr.io/open-webui/open-webui:main

浏览器访问IP+3000端口:http://192.168.226.149:3000/

相关推荐
撸码到无法自拔5 小时前
docker常见命令
java·spring cloud·docker·容器·eureka
hi,编程哥10 小时前
Docker、ECS 与 K8s 网段冲突:解决跨服务通信中的路由问题
docker·容器·kubernetes
How_doyou_do10 小时前
项目全栈实战-基于智能体、工作流、API模块化Docker集成的创业分析平台
运维·docker·容器
xbd_zc15 小时前
【Jenkins简单自动化部署案例:基于Docker和Harbor的自动化部署流程记录】
docker·自动化·jenkins·harbor
我的璨宝宝啊16 小时前
linux小主机搭建自己的nas(三)docker安装nextcloud
linux·运维·docker
大米☋16 小时前
GitLab搭建与使用(SSH和Docker)两种方式
docker·ssh·gitlab
污斑兔17 小时前
在Mac环境下搭建Docker环境的全攻略
docker
modest —YBW17 小时前
Ollama+OpenWebUI+docker完整版部署,附带软件下载链接,配置+中文汉化+docker源,适合内网部署,可以局域网使用
人工智能·windows·docker·语言模型·llama
心动啊12119 小时前
docker使用过程中遇到概念问题
运维·docker·容器
Penguido19 小时前
基于 Nexus 在 Dockerfile 配置 yum, conda, pip 仓库的方法和参考
linux·docker·centos·conda·pip