【技巧】使用frpc点对点安全地内网穿透访问ollama服务

回到目录

【技巧】使用frpc点对点安全地内网穿透访问ollama服务

0. 为什么需要部署内网穿透点对点服务

在家里想访问单位强劲机器,但是单位机器只能单向访问互联网,互联网无法直接访问到这台机器。通过在云服务器、单位内网服务器、源端访问机器上,分别部署frpc,可以把内网的服务点对点暴露给需要访问的机器。

本文字数2000+,阅读10分钟。

1. 互联网云服务器(简称Server01)

1.1. 配置 frps.toml

xml 复制代码
bindPort = 8003

说明:

监听 8003 端口接受客户端连接

1.2. 启动Server01服务

bash 复制代码
$ ./frps -c frps.toml
2025-05-12 13:32:22.888 [I] [frps/root.go:105] frps uses config file: frps.toml
2025-05-12 13:32:23.066 [I] [server/service.go:237] frps tcp listen on 0.0.0.0:8003
2025-05-12 13:32:23.066 [I] [frps/root.go:114] frps started successfully

2. 内网提供服务的机器(简称Server02)

2.1. 配置 frpc.toml

xml 复制代码
serverAddr = "[互联网云服务器ip或域名]"
serverPort = 8003

[[proxies]]
name = "ollama_tcp"
type = "stcp"
secretKey="[设置一个强度足够的密码]"
localIP = "127.0.0.1"
localPort = 11434

说明:

serverPort:8003 Server01提供服务中转的端口

localPort = 11434 本地需要暴露出去的端口

2.2. 启动Server02服务

bash 复制代码
$ ./frpc -c frpc.toml
2025-05-12 13:38:39.783 [I] [sub/root.go:149] start frpc service for config file [frpc.toml]
2025-05-12 13:38:39.783 [I] [client/service.go:314] try to connect to server...
2025-05-12 13:38:39.952 [I] [client/service.go:306] [e5d5ff58236a7c1a] login to server success, get run id [e5d5ff58236a7c1a]
2025-05-12 13:38:39.952 [I] [proxy/proxy_manager.go:177] [e5d5ff58236a7c1a] proxy added: [ollama_tcp]
2025-05-12 13:38:39.982 [I] [client/control.go:172] [e5d5ff58236a7c1a] [ollama_tcp] start proxy success

3. 点对点穿透内网访问Server02服务的机器(简称Server03)

3.1. 配置 frpc.toml

xml 复制代码
serverAddr = "[互联网云服务器ip或域名]"
serverPort = 8003

[[visitors]]
name = "ollama_tcp_vistor"
type = "stcp"
serverName = "ollama_tcp"
secretKey = "[Server02那个强度足够的密码]"
bindAddr= "127.0.0.1"
bindPort = 8001

说明:

serverPort:8003 Server01提供的中转服务端口

serverName Server02提供的服务名

bindPort = 8001 访问本地端口相当于访问Server02端口服务

3.2. 启动Server03服务

bash 复制代码
$ ./frpc -c frpc.toml
2025-05-12 13:41:59.679 [I] [sub/root.go:149] start frpc service for config file [frpc.toml]
2025-05-12 13:41:59.679 [I] [client/service.go:314] try to connect to server...
2025-05-12 13:41:59.943 [I] [client/service.go:306] [7f964c15b5115d3c] login to server success, get run id [7f964c15b5115d3c]
2025-05-12 13:41:59.943 [I] [visitor/visitor_manager.go:128] [7f964c15b5115d3c] start visitor success
2025-05-12 13:41:59.943 [I] [visitor/visitor_manager.go:179] [7f964c15b5115d3c] visitor added: [ollama_tcp_vistor]

1.3. 测试访问Server03的8001端口

在一台遥远的机器上,浏览器访问 localhost:8001

显示: Ollama is running

4. 在dify容器里面执行访问端程序

如果在win10的wsl直接执行frpc,容器docker-api-1无法访问本机端口服务,需要进一步配置

4.1. frp目录复制到dify的docker映射目录

dify目录\]/docker/volumes/app/storage frp_0.62.1 image_files privkeys upload_files #### 4.2. 执行命令 ```bash $ sudo docker exec docker-api-1 /app/api/storage/frp_0.62.1/frpc -c /app/api/storage/frp_0.62.1/frpc.toml ``` [回到目录](https://blog.csdn.net/u010593516/article/details/147855999) \[1\]: https://gofrp.org/zh-cn/docs/overview/ frp使用指引 \[2\]: https://github.com/fatedier/frp/releases frp下载地址 \[3\]:https://mp.weixin.qq.com/s/T76yql-iHhFZTUFy-KHPwQ 基于Docker的内网穿透实战

相关推荐
王码码20351 天前
NAS 部署 TDuck 开源问卷系统:从一键搭建到公网访问全教程
开源·内网穿透·nas·问卷系统·tduck
青龙小码农1 天前
milvus+elasticsearch+ollama实现企业级RAG搭建
elasticsearch·milvus·ollama·rga
福大大架构师每日一题3 天前
ollama v0.21.2 最新更新详解:OpenClaw 更稳了,模型推荐顺序终于固定,云端结构化输出说明也补上了
ollama
nicepainkiller4 天前
Coza 本地搭建 + Ollama支持
ollama·coza
java_logo4 天前
Docker 部署 Open WebUI + Ollama 完整教程(Windows / Linux 通用)—— 打造自己的本地OpenAI
linux·docker·容器·ollama·open-webui·open-webui部署·open-webui教程
钟智强5 天前
国内环境Ollama安装与DeepSeek-R1:1.5b部署全攻略
安全·web安全·网络安全·ollama·deepseek
千江明月6 天前
Ollama安装的详细步骤以及Python调用Qwen
开发语言·python·ollama·qwen模型
闻道且行之7 天前
frp+Nginx 内网穿透详细配置教程
运维·网络·nginx·frp·内网穿透
SNOWPIAOP7 天前
从MAC电脑复制qwen3.5:4b 的OLLAMA模型到LINUX电脑实践
linux·运维·macos·manifest·ollama·blobs
姜太小白8 天前
【Ollama】Ollama支持的主流模型列表
模型·ollama