避雷,Ubuntu通过ollama本地化部署deepseek,open-webui前端显示

0.如题,预期在Ubuntu上本地化部署DeepSeek,通过浏览器访问达到chatgpt的对话效果。
1.裸机,安装Ubuntu。

原有的系统盘采用大白菜,下载24.04.1的镜像,插到电脑上,无法识别,重新查到笔记本,显示U盘损坏。重新下载大白菜,制作启动盘,但是被Windows自带的杀毒软件Windows Defender给干掉,后来查了一下,说是大白菜还有老毛桃有毒,没办法用软碟通(UltraISO)重新制作启动盘,重新安装镜像。

避坑1:下载镜像用国内的源Index of /ubuntu-releases/24.04.1/ (ustc.edu.cn)

2.安装Ollama

Ollama是一个开源工具,用于在本地轻松运行和部署大型语言模型。

避坑2:不要使用Linux自动安装工具,apt查不到ollama,用snap下载完成后,访问127.0.0.1:11434显示ollama is running,但是,但是,但是,会有莫名奇妙的错误,比如:llama runner process has terminated: exit status 127。查看ollama -v :0.0.0。

老老实实按照官网指示下载。

避坑3:老老实实下载,网速不给力,贼慢,尤其是linux环境下,没有科学上网,可以将install.sh下载下来,然后下载对应的ollama-linux-amd64.tgz,放在同一个目录下面,修改.sh文件当中关于下载的部分

复制代码
#status "Downloading Linux ${ARCH} bundle"
#curl --fail --show-error --location --progress-bar \
#    "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
#    $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"

# 添加的代码:
$SUDO tar -C "$OLLAMA_INSTALL_DIR" -xzf ./ollama-linux-amd64.tgz

然后安装

复制代码
sudo chmod a+x  install.sh
./install.sh

避坑4:很多文章都说接下来要用ollama serve启动服务,但运行这个指令会显示11434端口已经被占用。其实这个时候服务已经起来了,无须介意,直接用。

3.安装Deepseek
复制代码
ollama run deepseek-r1:7b

选择多少b全凭自己的实力。垃圾显卡跑7b都够呛。

访问17.0.0.1:11434/api/tags可以看到已经安装的模型。

这个时候就可以直接在终端与模型进行对话了,如果是测试,调接口之类的到这一步就OK。

4.安装open webui,前端显示,痛苦的开始

4.1 安装Docker:确保你的机器上已安装Docker。

4.2 运行Open Web UI:

复制代码
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

避坑5 :open webui只是用来做界面交互的,与模型没什么关系,这里需要注意的是,配置是否要显卡支持,上面的指令是用的CPU,最终装成功CPU500%+。想用显卡支持的指令可以参照⏱️ Quick Start | Open WebUI官方指导操作,但是,但是,但是,自求多福吧。显卡驱动与控制器,一堆坑,可能是个裸机,还没装完必要的驱动。

安装完成后,浏览器访问127.0.0.1:3000可以进入openwebUI登录界面,先注册一个管理员,随便写资料,然后就可以登录。大坑来了,找不到模型

明明终端测试可以,浏览器访问127.0.0.1:11434可以显示Ollama的模型数据,就是访问不了。

open-webui无法链接ollama 报错ERROR:apps.ollama.main:Connection error: Cannot connect 127.0.0.1无法访问。

就很迷,访问怎么都可以,但是docker就是访问不了,找了半天,原来是服务配置的问题。

避坑6 :默认ollama绑定在127.0.0.1的11434端口,修改/etc/systemd/system/ollama.service,在[Service]下添加如下内容,使ollama绑定到0.0.0.0的11434端口

Environment="OLLAMA_HOST=0.0.0.0"

udo systemctl daemon-reload

sudo systemctl restart ollama

至此,安装调试全部完成,进入测试阶段。

5.测试

主机显卡不灵,4G显存,装7b模型,反应迟钝,一个问题从接受,到开始思考要好几分钟,思考也要好几分钟,最终答题显示思考了几秒。而且刷新很慢,一个字一个字的往外蹦,还在继续优化,看看能不能搞个50的显卡试试。

这个问题从敲回车到作答用了5分钟。

相关推荐
mengyoufengyu1 小时前
DeepSeek12-Open WebUI 知识库配置详细步骤
人工智能·大模型·deepseek
mengyoufengyu2 小时前
DeepSeek11-Ollama + Open WebUI 搭建本地 RAG 知识库全流程指南
人工智能·深度学习·deepseek
vlln3 小时前
2025年与2030年AI及AI智能体 (Agent) 市场份额分析报告
人工智能·深度学习·神经网络·ai
huan_19933 小时前
Spring AI中使用ChatMemory实现会话记忆功能
ai·spring ai·模型记忆·springai开发·chatmemory
草上爬7 小时前
OpenWrt:使用ALSA实现边录边播
ubuntu·openwrt·record·alsa·play
远方160910 小时前
14-Oracle 23ai Vector Search 向量索引和混合索引-实操
数据库·ai·oracle
Shannon@11 小时前
Deepseek基座:Deepseek-v2核心内容解析
deepseek
何双新12 小时前
第23讲、Odoo18 邮件系统整体架构
ai·架构
阿部多瑞 ABU13 小时前
主流大语言模型安全性测试(三):阿拉伯语越狱提示词下的表现与分析
人工智能·安全·ai·语言模型·安全性测试
潘锦13 小时前
DeepSeek 和腾讯元宝都选择在用的SSE 到底是什么?
deepseek