在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
卡尔特斯10 小时前
Mac/Win 查看视频帧率(视频信息)
windows·mac
EdmundXjs11 小时前
Claude+qwen3-vl:8B HTTP交互信息解释
http·claude·ollama·qwen3
熊猫钓鱼>_>4 天前
私有化AI视频助手搭建实录:当Ollama遇上OpenClaw
人工智能·音视频·agent·qwen·ollama·openclaw·happyhorse-1.0
书香门第4 天前
搭建免费的Ollama AI Agent
人工智能·python·ollama
devpotato4 天前
人工智能(六)- Spring AI 调用Ollama本地大模型
人工智能·ollama
Cachel wood4 天前
Macbook M4 pro本地部署大模型|Ollama+Gemma4/Qwen3.5
人工智能·python·自动化·llm·qwen·ollama·gemma4
シ風箏5 天前
Ollama【部署 07】搭建本地智能体的简单说明(局域网离线部署Ollama+模型迁移+Docker部署AnythingLLM)
docker·anythingllm·ollama·本地智能体·离线模型迁移
Navicat中国5 天前
如何使用 Ollama 配置 AI 助手 | Navicat 教程
数据库·人工智能·ai·navicat·ollama
清风9159386295 天前
告别Token账单无底洞:OpenClaw本地部署,重塑企业数据主权的唯一解
node.js·ollama·openclaw ai智能体·openclaw本地部署·openclaw硬件配置·ultralab
福大大架构师每日一题5 天前
ollama v0.20.5 发布:OpenClaw全渠道打通、Gemma 4闪光注意力优化、模型保存修复,本地AI部署再升级
ollama