在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
brucelee1861 天前
Debian 安装 Ollama 教程
debian·ollama·open claw
将冲破艾迪i1 天前
【AI】部署及调用deepseek和qwen等大模型
人工智能·python·ollama·deepseek
竹之却2 天前
【Ollama】解决 ollama 软件下载慢,模型下载慢的问题
代理·ollama·deepseek·openclaw·ollama 模型下载
zhensherlock2 天前
Protocol Launcher 系列:Pika 取色器的协议控制(上篇)
前端·javascript·macos·typescript·github·mac·view design
钱多多_qdd3 天前
mac上安装claude
ai·mac
福大大架构师每日一题4 天前
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级
golang·ollama
zhensherlock6 天前
Protocol Launcher 系列:App Store 精准引流与应用推广
javascript·macos·ios·typescript·iphone·mac·ipad
razelan7 天前
本地大模型系列:2.通过API让本地大模型为你服务
人工智能·api·ollama·本地大模型
樂油7 天前
小龙虾OpenClaw本地部署(四)连接ollama模型(qwen3.5:0.8b为例)
ollama·openclaw
弗锐土豆7 天前
使用ollama运行本地大模型
llm·大语言模型·安装·ollama