AI学习-1-Ollama+OpenUI+NeutrinoProxy本地搭建Deepseek-R1

本章分享个人怎么在本地部署大模型,并让它可以被公网访问

需要:个人电脑,具有公网IP的服务器

具体分为三个步骤:

  1. 使用Ollama实现本地部署Deepseek-R1模型
  2. 部署Open-WebUI
  3. 使用neutrino-proxy实现内网穿透

Ollama本地部署大模型

首先说说解释为什么我要用个人电脑本地部署,而不是在服务器,因为没那么多钱买这么好配置的服务器,我的服务器2c2g,部署不了大模型。

1、下载

Download Ollama on Windows

去Ollama官网下载一个Ollama,然后安装

2、运行Ollama

Ollama的目录如下:

我们不用ollama app.exe,

我们用ollama.exe

打开git bash或者cmd

执行Ollama的任意命令都会启动服务:

Command Description
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command

3、运行deepseek-r1:8b

ollama run deepseek-r1:8b

是的,可以跳过第二步

因为执行ollama run deepseek-r1:8b就会自动运行Ollama

也可以先pull再run

run完之后会出现命令行

可以打个招呼

到这里就已经部署好了

4、API访问

实际上,没有人会在命令行跟大模型对话

去Ollama的文档找对话的api:ollama/docs/api.md at main · ollama/ollama (github.com)

可以看到有两个对话的api

一个是POST /api/generate

vbnet 复制代码
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:8b",
  "prompt": "What color is the sky at different times of the day? Respond using JSON",
  "format": "json",
  "stream": false
}'

一个是POST /api/chat

vbnet 复制代码
curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:8b",
  "messages": [
    {
      "role": "user",
      "content": "why is the sky blue?"
    }
  ]
}'

我理解的区别就是/generate可以直接传入prompt,比较简单,而/chat需要构造messages,使得大模型可以"keep a chat memory",/chat应该更加全面一点,所以一般用/chat即可(不知道我理解对不对,反正我都是用/chat)

api调用会有很多参数,可以在api文档查找,需要什么用什么,这些参数几乎都是有默认值的:ollama/docs/modelfile.md at main · ollama/ollama (github.com)

另外如果退出了Ollama,下次只需要使用

复制代码
ollama serve

将ollama启动起来即可,不需要指定run哪个模型

因为通过api调用的时候,会指定model,ollama会把指定的model启动起来

部署Open-WebUI

进入Open-WebUI的文档

🏡 Home | Open WebUI

部署Open-WebUI有很多方式

一种是使用docker部署

一种是手动安装:🏡 Home | Open WebUI

怎么部署取决于你想怎么部署

我没有下载window版本的docker,也不想用它的uv安装

所以我选择在装有Linux环境的服务器上使用docker部署

命令如下:

kotlin 复制代码
docker run -d  \
--name open-webui \
-p 3101:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host:port \
-e ENABLE_OPENAI_API=false \
-v /root/open-webui:/app/backend/data \
ghcr.io/open-webui/open-webui:main

这里简单解释一下

  1. OLLAMA_BASE_URL:是刚才启动的Ollama的地址,因为我的Ollama在我的window,Open-WebUI部署在服务器,所以需要使用到后面的内网穿透
  2. ENABLE_OPENAI_API:我设置为了false,因为如果不设置为false,它会去获取OpenAI的模型,但是我就只想用自己在Ollama部署的模型而已,所有就关掉了,可以根据自己的需要打开或者关闭

我这里的使用到的环境变量比较少,实际上,文档中有很多环境变量,可以根据自己的需要进行设置:🌍 Environment Variable Configuration | Open WebUI

使用docker运行Open-WebUI之后

浏览器输入http://ip:3101可以看到登录页面

第一个注册登录的人就是这个Open-WebUI的管理者,账号密码信息它会使用它自己的本地数据库记录下来,无需自己额外配置数据库

登录之后会看到首页

看到这里,如果Open-WebUI和Ollama是在同一个局域网,并且配置正确,那么是可以看到"Select a model"看到刚才run起来的deepseek-8b模型的

但是我不是那样部署的,因此我还需要内网穿透

内网穿透

实际上,如果上面两步的Open-WebUI和Ollama都是在局域网中部署的,那么此时需要通过内网穿透将Open-WebUI暴露到公网,除非本来就是在具有公网IP的服务器上部署的,或者没有公网访问的需求(讲道理,大部分人都没有)

我用的内网穿透的软件是neutrino-proxy,具体文档用法参见:neutrino-proxy. (dromara.org),用法很简单的

其他的内网穿透软件也是可以的,内网穿透不是本文的重点,不作赘述

这里提醒一下,Ollama默认绑定的是127.0.0.1,而不是0.0.0.0,如果真的要用使用内网穿透将Ollama暴露到公网,可以使用nginx做反向代理,或者去改Ollama绑定的ip为0.0.0.0,参见:ollama/docs/faq.md at main · ollama/ollama --- ollama/docs/faq.md at main · ollama/ollama (github.com),否则Ollama会抛出403

另外将Ollama暴露到公网多多少少有风险,一般不是学习用途或者仅为个人使用的话不会这么做

内网穿透配置成功之后,将Ollama的公网地址配置到OLLAMA_BASE_URL,就可以正常访问了

然后我们就可以对话了

总结

以上就是我个人本地部署大模型的方法,纯属个人分享,不是教程,不是最优的办法,实现的方式有很多种,按照自己喜欢的方式来就好

相关推荐
九年义务漏网鲨鱼1 小时前
【大模型面经】千问系列专题面经
人工智能·深度学习·算法·大模型·强化学习
北京耐用通信2 小时前
“耐达讯自动化Profibus总线光端机在化工变频泵控制系统中的应用与价值解析”
人工智能·科技·物联网·网络安全·自动化·信息与通信
2401_865854882 小时前
AI软件可以帮助我自动化哪些日常任务?
运维·人工智能·自动化
墨风如雪2 小时前
阿里AI的“船票之战”:千问APP剑指C端,能否重塑格局?
aigc
程序员X小鹿2 小时前
阿里又放大招!上线了一款国民级AI助手千问APP,挑战ChatGPT!
aigc
WWZZ20252 小时前
快速上手大模型:深度学习7(实践:卷积层)
人工智能·深度学习·算法·机器人·大模型·卷积神经网络·具身智能
CS创新实验室3 小时前
练习项目:基于 LangGraph 和 MCP 服务器的本地语音助手
运维·服务器·ai·aigc·tts·mcp
简佐义的博客3 小时前
Genome Biol. IF 9.4 Q1 | ATAC-seq 数据分析实用指南,根据本文就可以构建ATAC生信分析流程了
人工智能
老蒋新思维3 小时前
陈修超入局:解锁 AI 与 IP 融合的创新增长密码
网络·人工智能·网络协议·tcp/ip·企业管理·知识付费·创客匠人
San30.4 小时前
从代码规范到 AI Agent:现代前端开发的智能化演进
javascript·人工智能·代码规范