使用open webui+ollama部署本地大模型

使用open webui+ollama部署本地大模型

上次使用了angthingllm + ollama部署了本地大模型,详情见:https://www.cnblogs.com/jokingremarks/p/18151827

但是还是觉得可以用兼容性更好的open webui

1.安装docker

比较懒,所以还是在Windows系统上安装docker

docker官网链接:
https://www.docker.com/products/docker-desktop/

选择自己的系统等下载完毕以后就行了

启动虚拟化(Microsoft Hyper-V)

具体操作可以见这个文章的:https://www.cnblogs.com/jokingremarks/p/18156334

直接打开安装包,一路点下去即可

重启电脑以后就可以看到有个这个界面

点击accept,然后默认进入即可

如果遇到进不去,界面一直提示docker engine stopped,解决方法见链接:https://www.cnblogs.com/jokingremarks/p/18156334

2.拉取open webui镜像

最好配置个阿里云镜像,不然说实话拉取速度感人

阿里云镜像链接:https://cr.console.aliyun.com/cn-hangzhou/instances/mirrors

复制这个链接,打开docker desktop,找到设置,找到Docker Engine,在大括号内输入

"registry-mirrors": ["复制的网址"],

然后点击Apply &restart可以配置成功

open webui的GitHub地址:https://github.com/open-webui/open-webui?tab=readme-ov-file#how-to-install-

找到readme部分

因为我们是本机安装的ollama,所以直接在 PowerShell(管理员运行) 里面执行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

等待进度条走完即可

这个时候在docker desktop的Images中就能看到下载的open webui了

3.open webui~ 启动!

启动就快了,点击run

等待加载,在浏览器中输入http://localhost:3000/即可进入

刚进去的时候需要注册,这个地方因为是本地的,所以不会有什么验证码之类的,正常填写就行

选择一个模型,这里你下载的ollama的模型都会在下拉框中

这个时候就可以开始问答环节了

相关推荐
小雪_Snow6 小时前
CentOS 7 测试 docker 镜像源
docker·centos
wan_da_ren9 小时前
Docker安装Elasticsearch9.2.1与Kibana9.2.1 保姆教程(带验证版)
运维·docker·jenkins
Hellc0079 小时前
Docker部署BaGet私有NuGet服务器:从入门到备份恢复完整指南 二
服务器·docker·eureka
t***31659 小时前
Docker 之mysql从头开始——Docker下mysql安装、启动、配置、进入容器执行(查询)sql
sql·mysql·docker
爱喝矿泉水的猛男11 小时前
ssh远程访问另一台windows(可扩展到docker环境)
docker·ssh·zerotier
gggg远12 小时前
docker详解
运维·docker·容器
ALex_zry14 小时前
Consul全方位入门指南:第二阶段—— 实操。Consul核心功能与项目集成
运维·docker·微服务·云原生·架构
wuli_滔滔14 小时前
Qwen2.5、Llama 3.1轻量模型本地化部署指南:从环境配置到企业级实战
vllm·ollama·qwen2.5·llama 3.1
热爱学习的小怪兽15 小时前
Docker容器的一些总结
运维·docker·容器
❀͜͡傀儡师16 小时前
Docker一键部署Nexus Terminal,高颜值SSH新体验
docker·容器·ssh