AI学习-1-Ollama+OpenUI+NeutrinoProxy本地搭建Deepseek-R1

本章分享个人怎么在本地部署大模型,并让它可以被公网访问

需要:个人电脑,具有公网IP的服务器

具体分为三个步骤:

  1. 使用Ollama实现本地部署Deepseek-R1模型
  2. 部署Open-WebUI
  3. 使用neutrino-proxy实现内网穿透

Ollama本地部署大模型

首先说说解释为什么我要用个人电脑本地部署,而不是在服务器,因为没那么多钱买这么好配置的服务器,我的服务器2c2g,部署不了大模型。

1、下载

Download Ollama on Windows

去Ollama官网下载一个Ollama,然后安装

2、运行Ollama

Ollama的目录如下:

我们不用ollama app.exe,

我们用ollama.exe

打开git bash或者cmd

执行Ollama的任意命令都会启动服务:

Command Description
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command

3、运行deepseek-r1:8b

ollama run deepseek-r1:8b

是的,可以跳过第二步

因为执行ollama run deepseek-r1:8b就会自动运行Ollama

也可以先pull再run

run完之后会出现命令行

可以打个招呼

到这里就已经部署好了

4、API访问

实际上,没有人会在命令行跟大模型对话

去Ollama的文档找对话的api:ollama/docs/api.md at main · ollama/ollama (github.com)

可以看到有两个对话的api

一个是POST /api/generate

vbnet 复制代码
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:8b",
  "prompt": "What color is the sky at different times of the day? Respond using JSON",
  "format": "json",
  "stream": false
}'

一个是POST /api/chat

vbnet 复制代码
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:8b",
  "messages": [
    {
      "role": "user",
      "content": "why is the sky blue?"
    }
  ]
}'

我理解的区别就是/generate可以直接传入prompt,比较简单,而/chat需要构造messages,使得大模型可以"keep a chat memory",/chat应该更加全面一点,所以一般用/chat即可(不知道我理解对不对,反正我都是用/chat)

api调用会有很多参数,可以在api文档查找,需要什么用什么,这些参数几乎都是有默认值的:ollama/docs/modelfile.md at main · ollama/ollama (github.com)

另外如果退出了Ollama,下次只需要使用

复制代码
ollama serve

将ollama启动起来即可,不需要指定run哪个模型

因为通过api调用的时候,会指定model,ollama会把指定的model启动起来

部署Open-WebUI

进入Open-WebUI的文档

🏡 Home | Open WebUI

部署Open-WebUI有很多方式

一种是使用docker部署

一种是手动安装:🏡 Home | Open WebUI

怎么部署取决于你想怎么部署

我没有下载window版本的docker,也不想用它的uv安装

所以我选择在装有Linux环境的服务器上使用docker部署

命令如下:

kotlin 复制代码
docker run -d  \
--name open-webui \
-p 3101:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host:port \
-e ENABLE_OPENAI_API=false \
-v /root/open-webui:/app/backend/data \
ghcr.io/open-webui/open-webui:main

这里简单解释一下

  1. OLLAMA_BASE_URL:是刚才启动的Ollama的地址,因为我的Ollama在我的window,Open-WebUI部署在服务器,所以需要使用到后面的内网穿透
  2. ENABLE_OPENAI_API:我设置为了false,因为如果不设置为false,它会去获取OpenAI的模型,但是我就只想用自己在Ollama部署的模型而已,所有就关掉了,可以根据自己的需要打开或者关闭

我这里的使用到的环境变量比较少,实际上,文档中有很多环境变量,可以根据自己的需要进行设置:🌍 Environment Variable Configuration | Open WebUI

使用docker运行Open-WebUI之后

浏览器输入http://ip:3101可以看到登录页面

第一个注册登录的人就是这个Open-WebUI的管理者,账号密码信息它会使用它自己的本地数据库记录下来,无需自己额外配置数据库

登录之后会看到首页

看到这里,如果Open-WebUI和Ollama是在同一个局域网,并且配置正确,那么是可以看到"Select a model"看到刚才run起来的deepseek-8b模型的

但是我不是那样部署的,因此我还需要内网穿透

内网穿透

实际上,如果上面两步的Open-WebUI和Ollama都是在局域网中部署的,那么此时需要通过内网穿透将Open-WebUI暴露到公网,除非本来就是在具有公网IP的服务器上部署的,或者没有公网访问的需求(讲道理,大部分人都没有)

我用的内网穿透的软件是neutrino-proxy,具体文档用法参见:neutrino-proxy. (dromara.org),用法很简单的

其他的内网穿透软件也是可以的,内网穿透不是本文的重点,不作赘述

这里提醒一下,Ollama默认绑定的是127.0.0.1,而不是0.0.0.0,如果真的要用使用内网穿透将Ollama暴露到公网,可以使用nginx做反向代理,或者去改Ollama绑定的ip为0.0.0.0,参见:ollama/docs/faq.md at main · ollama/ollama --- ollama/docs/faq.md at main · ollama/ollama (github.com),否则Ollama会抛出403

另外将Ollama暴露到公网多多少少有风险,一般不是学习用途或者仅为个人使用的话不会这么做

内网穿透配置成功之后,将Ollama的公网地址配置到OLLAMA_BASE_URL,就可以正常访问了

然后我们就可以对话了

总结

以上就是我个人本地部署大模型的方法,纯属个人分享,不是教程,不是最优的办法,实现的方式有很多种,按照自己喜欢的方式来就好

相关推荐
2201_7549184135 分钟前
OpenCV 背景建模详解:从原理到实战
人工智能·opencv·计算机视觉
CopyLower39 分钟前
苹果计划将AI搜索集成至Safari:谷歌搜索下降引发的市场变革
前端·人工智能·safari
wd20998841 分钟前
2025年Ai写PPT工具推荐,这5款Ai工具可以一键生成专业PPT
人工智能
张飞飞飞飞飞43 分钟前
语音识别——声纹识别
人工智能·语音识别
archko2 小时前
语音识别-3,添加ai问答
android·人工智能
Bowen_CV4 小时前
AI 赋能防艾宣传:从创意到实践,我的 IP 形象设计之旅
人工智能·3d建模·豆包·造好物·腾讯混元 3d
你是一个铁憨憨4 小时前
使用深度学习预训练模型检测物体
人工智能·深度学习·arcgis·影像
AI算法工程师Moxi5 小时前
什么时候可以开始学习深度学习?
人工智能·深度学习·学习
好评笔记5 小时前
Meta的AIGC视频生成模型——Emu Video
人工智能·深度学习·机器学习·aigc·transformer·校招·面试八股
思通数据7 小时前
AI全域智能监控系统重构商业清洁管理范式——从被动响应到主动预防的监控效能革命
大数据·人工智能·目标检测·机器学习·计算机视觉·数据挖掘·ocr