避雷,Ubuntu通过ollama本地化部署deepseek,open-webui前端显示

0.如题,预期在Ubuntu上本地化部署DeepSeek,通过浏览器访问达到chatgpt的对话效果。
1.裸机,安装Ubuntu。

原有的系统盘采用大白菜,下载24.04.1的镜像,插到电脑上,无法识别,重新查到笔记本,显示U盘损坏。重新下载大白菜,制作启动盘,但是被Windows自带的杀毒软件Windows Defender给干掉,后来查了一下,说是大白菜还有老毛桃有毒,没办法用软碟通(UltraISO)重新制作启动盘,重新安装镜像。

避坑1:下载镜像用国内的源Index of /ubuntu-releases/24.04.1/ (ustc.edu.cn)

2.安装Ollama

Ollama是一个开源工具,用于在本地轻松运行和部署大型语言模型。

避坑2:不要使用Linux自动安装工具,apt查不到ollama,用snap下载完成后,访问127.0.0.1:11434显示ollama is running,但是,但是,但是,会有莫名奇妙的错误,比如:llama runner process has terminated: exit status 127。查看ollama -v :0.0.0。

老老实实按照官网指示下载。

避坑3:老老实实下载,网速不给力,贼慢,尤其是linux环境下,没有科学上网,可以将install.sh下载下来,然后下载对应的ollama-linux-amd64.tgz,放在同一个目录下面,修改.sh文件当中关于下载的部分

复制代码
#status "Downloading Linux ${ARCH} bundle"
#curl --fail --show-error --location --progress-bar \
#    "https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
#    $SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"

# 添加的代码:
$SUDO tar -C "$OLLAMA_INSTALL_DIR" -xzf ./ollama-linux-amd64.tgz

然后安装

复制代码
sudo chmod a+x  install.sh
./install.sh

避坑4:很多文章都说接下来要用ollama serve启动服务,但运行这个指令会显示11434端口已经被占用。其实这个时候服务已经起来了,无须介意,直接用。

3.安装Deepseek
复制代码
ollama run deepseek-r1:7b

选择多少b全凭自己的实力。垃圾显卡跑7b都够呛。

访问17.0.0.1:11434/api/tags可以看到已经安装的模型。

这个时候就可以直接在终端与模型进行对话了,如果是测试,调接口之类的到这一步就OK。

4.安装open webui,前端显示,痛苦的开始

4.1 安装Docker:确保你的机器上已安装Docker。

4.2 运行Open Web UI:

复制代码
docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

避坑5 :open webui只是用来做界面交互的,与模型没什么关系,这里需要注意的是,配置是否要显卡支持,上面的指令是用的CPU,最终装成功CPU500%+。想用显卡支持的指令可以参照⏱️ Quick Start | Open WebUI官方指导操作,但是,但是,但是,自求多福吧。显卡驱动与控制器,一堆坑,可能是个裸机,还没装完必要的驱动。

安装完成后,浏览器访问127.0.0.1:3000可以进入openwebUI登录界面,先注册一个管理员,随便写资料,然后就可以登录。大坑来了,找不到模型

明明终端测试可以,浏览器访问127.0.0.1:11434可以显示Ollama的模型数据,就是访问不了。

open-webui无法链接ollama 报错ERROR:apps.ollama.main:Connection error: Cannot connect 127.0.0.1无法访问。

就很迷,访问怎么都可以,但是docker就是访问不了,找了半天,原来是服务配置的问题。

避坑6 :默认ollama绑定在127.0.0.1的11434端口,修改/etc/systemd/system/ollama.service,在[Service]下添加如下内容,使ollama绑定到0.0.0.0的11434端口

Environment="OLLAMA_HOST=0.0.0.0"

udo systemctl daemon-reload

sudo systemctl restart ollama

至此,安装调试全部完成,进入测试阶段。

5.测试

主机显卡不灵,4G显存,装7b模型,反应迟钝,一个问题从接受,到开始思考要好几分钟,思考也要好几分钟,最终答题显示思考了几秒。而且刷新很慢,一个字一个字的往外蹦,还在继续优化,看看能不能搞个50的显卡试试。

这个问题从敲回车到作答用了5分钟。

相关推荐
大模型教程1 小时前
大模型本地部署:手把手带你在Mac本地部署运行AI大模型
程序员·llm·ollama
SEO_juper4 小时前
从人工到智能:SEO测试工作流的AI集成框架与ROI提升方案
人工智能·ai·chatgpt·工具·seo·数字营销
MicrosoftReactor5 小时前
技术速递|GitHub Copilot 的 Agent 模式现已全面上线 JetBrains、Eclipse 和 Xcode!
ai·github·copilot
leafpipi8 小时前
【机器学习】pycharm使用SSH SFTP 远程连接 ubuntu服务器 进行开发+调试+数据训练
服务器·学习·算法·ubuntu·pycharm·ssh
姜 萌@cnblogs9 小时前
Rust并发编程中的所有权挑战与解决方案:从实际项目看Clone策略的应用
ai·rust·tauri
liujing1023292910 小时前
vmware虚拟机中 ubuntu 20.04通过nat设置静态ip(固定ip)
服务器·tcp/ip·ubuntu
饭碗、碗碗香11 小时前
【vLLM学习笔记】:vLLM 参数说明
人工智能·笔记·学习·ai
智海观潮20 小时前
Unity Catalog与Apache Iceberg如何重塑Data+AI时代的企业数据架构
大数据·人工智能·ai·iceberg·catalog
Nandeska1 天前
二、CUDA、Pytorch与依赖的工具包
ai
java叶新东老师1 天前
ubuntu资源共享samba 安装与配置 mac/windows共享ubuntu文件资源
windows·ubuntu·macos