避雷,Ubuntu通过ollama本地化部署deepseek,open-webui前端显示

0.如题,预期在Ubuntu上本地化部署DeepSeek,通过浏览器访问达到chatgpt的对话效果。
1.裸机,安装Ubuntu。

原有的系统盘采用大白菜,下载24.04.1的镜像,插到电脑上,无法识别,重新查到笔记本,显示U盘损坏。重新下载大白菜,制作启动盘,但是被Windows自带的杀毒软件Windows Defender给干掉,后来查了一下,说是大白菜还有老毛桃有毒,没办法用软碟通(UltraISO)重新制作启动盘,重新安装镜像。

避坑1:下载镜像用国内的源Index of /ubuntu-releases/24.04.1/ (ustc.edu.cn)

2.安装Ollama

Ollama是一个开源工具,用于在本地轻松运行和部署大型语言模型。

避坑2:不要使用Linux自动安装工具,apt查不到ollama,用snap下载完成后,访问127.0.0.1:11434显示ollama is running,但是,但是,但是,会有莫名奇妙的错误,比如:llama runner process has terminated: exit status 127。查看ollama -v :0.0.0。

老老实实按照官网指示下载。

避坑3:老老实实下载,网速不给力,贼慢,尤其是linux环境下,没有科学上网,可以将install.sh下载下来,然后下载对应的ollama-linux-amd64.tgz,放在同一个目录下面,修改.sh文件当中关于下载的部分

复制代码
#status "Downloading Linux ${ARCH} bundle"
#curl --fail --show-error --location --progress-bar \
#    "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
#    $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"

# 添加的代码:
$SUDO tar -C "$OLLAMA_INSTALL_DIR" -xzf ./ollama-linux-amd64.tgz

然后安装

复制代码
sudo chmod a+x  install.sh
./install.sh

避坑4:很多文章都说接下来要用ollama serve启动服务,但运行这个指令会显示11434端口已经被占用。其实这个时候服务已经起来了,无须介意,直接用。

3.安装Deepseek
复制代码
ollama run deepseek-r1:7b

选择多少b全凭自己的实力。垃圾显卡跑7b都够呛。

访问17.0.0.1:11434/api/tags可以看到已经安装的模型。

这个时候就可以直接在终端与模型进行对话了,如果是测试,调接口之类的到这一步就OK。

4.安装open webui,前端显示,痛苦的开始

4.1 安装Docker:确保你的机器上已安装Docker。

4.2 运行Open Web UI:

复制代码
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

避坑5 :open webui只是用来做界面交互的,与模型没什么关系,这里需要注意的是,配置是否要显卡支持,上面的指令是用的CPU,最终装成功CPU500%+。想用显卡支持的指令可以参照⏱️ Quick Start | Open WebUI官方指导操作,但是,但是,但是,自求多福吧。显卡驱动与控制器,一堆坑,可能是个裸机,还没装完必要的驱动。

安装完成后,浏览器访问127.0.0.1:3000可以进入openwebUI登录界面,先注册一个管理员,随便写资料,然后就可以登录。大坑来了,找不到模型

明明终端测试可以,浏览器访问127.0.0.1:11434可以显示Ollama的模型数据,就是访问不了。

open-webui无法链接ollama 报错ERROR:apps.ollama.main:Connection error: Cannot connect 127.0.0.1无法访问。

就很迷,访问怎么都可以,但是docker就是访问不了,找了半天,原来是服务配置的问题。

避坑6 :默认ollama绑定在127.0.0.1的11434端口,修改/etc/systemd/system/ollama.service,在[Service]下添加如下内容,使ollama绑定到0.0.0.0的11434端口

Environment="OLLAMA_HOST=0.0.0.0"

udo systemctl daemon-reload

sudo systemctl restart ollama

至此,安装调试全部完成,进入测试阶段。

5.测试

主机显卡不灵,4G显存,装7b模型,反应迟钝,一个问题从接受,到开始思考要好几分钟,思考也要好几分钟,最终答题显示思考了几秒。而且刷新很慢,一个字一个字的往外蹦,还在继续优化,看看能不能搞个50的显卡试试。

这个问题从敲回车到作答用了5分钟。

相关推荐
慢半拍iii12 分钟前
CANN算子开发实战:手把手教你基于ops-nn仓库编写Broadcast广播算子
人工智能·计算机网络·ai
User_芊芊君子25 分钟前
CANN数学计算基石ops-math深度解析:高性能科学计算与AI模型加速的核心引擎
人工智能·深度学习·神经网络·ai
程序员泠零澪回家种桔子38 分钟前
Spring AI框架全方位详解
java·人工智能·后端·spring·ai·架构
深鱼~1 小时前
数学计算加速利器:ops-math在昇腾平台的应用详解
ai·开源·cann
kjkdd1 小时前
6.1 核心组件(Agent)
python·ai·语言模型·langchain·ai编程
生活很暖很治愈2 小时前
Linux——孤儿进程&进程调度&大O(1)调度
linux·服务器·ubuntu
慢半拍iii4 小时前
从零搭建CNN:如何高效调用ops-nn算子库
人工智能·神经网络·ai·cnn·cann
getapi4 小时前
注塑件的费用构成
linux·服务器·ubuntu
AC赳赳老秦5 小时前
代码生成超越 GPT-4:DeepSeek-V4 编程任务实战与 2026 开发者效率提升指南
数据库·数据仓库·人工智能·科技·rabbitmq·memcache·deepseek
空白诗5 小时前
CANN ops-nn 算子解读:AIGC 风格迁移中的 BatchNorm 与 InstanceNorm 实现
人工智能·ai