在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
福大大架构师每日一题1 天前
ollama v0.19.0 发布!Web 搜索插件上线、多模型兼容修复、MLX 与 KV 缓存全面优化,本地大模型体验再升级
缓存·ollama
AAA阿giao2 天前
打造你的 Git 提交 AI 神器:从零实现前后端分离的 Commit Message 生成器
react.js·express·ollama
村中少年3 天前
vscode如何添加ollama本地模型-实现token自由
vscode·llm·token·ollama·本地模型·qwen3
竹之却5 天前
【OpenClaw】云服务器端 openclaw 集成本地 Windows端 ollama 模型
windows·llama·ollama·openclaw·qwen3.5
加斯顿工程师5 天前
Windows系统使用Ollama本地化部署Qwen3.5-9B模型教程
windows·大模型·本地部署·ollama·qwen3.5
chenhua5 天前
openclaw基于飞书群聊中减少机器人大模型调用次数
飞书·ollama·群聊·本地小模型·多agent·openclaw
brucelee1868 天前
Debian 安装 Ollama 教程
debian·ollama·open claw
将冲破艾迪i8 天前
【AI】部署及调用deepseek和qwen等大模型
人工智能·python·ollama·deepseek
竹之却9 天前
【Ollama】解决 ollama 软件下载慢,模型下载慢的问题
代理·ollama·deepseek·openclaw·ollama 模型下载
zhensherlock9 天前
Protocol Launcher 系列:Pika 取色器的协议控制(上篇)
前端·javascript·macos·typescript·github·mac·view design