在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
razelan1 天前
本地大模型系列:1.配置本地lm Studio的大模型助手(another)
人工智能·ollama
skywalk81632 天前
如何设置Ollama可以让其它机器远程访问它的服务?
智能路由器·ollama
墨10242 天前
一文教你OpenClaw Docker 部署并调用本地Qwen3.5 9B模型
docker·ai·本地部署·ollama·openclaw·qwen3.5
电饭叔2 天前
利用ip地址帮助macbook系统连接带有wifi功能的epson电脑
电脑·mac·macbook·mac book添加打印机
雨洛lhw2 天前
基于 FPGA 的主机 IP 自动配置方案设计
udp·mac·ip·fpga·dhcp
封奚泽优3 天前
Ollama模型文件默认存储位置与更改方法(Windows)
windows·ollama
vi_h8 天前
在 macOS 上通过 Docker 安装并运行 Ollama(详细可执行教程)
macos·docker·ollama
曲幽9 天前
FastAPI流式输出实战与避坑指南:让AI像人一样“边想边说”
python·ai·fastapi·web·stream·chat·async·generator·ollama
曲幽13 天前
FastAPI实战:打造本地文生图接口,ollama+diffusers让AI绘画更听话
python·fastapi·web·cors·diffusers·lcm·ollama·dreamshaper8·txt2img
pe7er13 天前
macOS 应用无法打开(权限问题)解决方案
macos·mac