在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
bwz999@88.com2 天前
CentOS 7安装ollama
linux·centos·ollama
bwz999@88.com2 天前
CentOS 7 docker安装ollama、open-webui
ollama
*.✧屠苏隐遥(ノ◕ヮ◕)ノ*.✧2 天前
JSP, MVC, El, JSTL, MAC
java·开发语言·mvc·mac·jsp
独泪了无痕2 天前
Mac Homebrew 安装 MySQL 指南
数据库·mysql·mac
@SmartSi3 天前
Ollama 实战:从零开始本地运行大语言开源模型
llm·ollama
风笑谷4 天前
openclaw+ollama+企业微信 实操记录
企业微信·ollama·openclaw
CrazyStoneZw7 天前
openclaw配置ollama本地模型
本地化·ollama·openclaw
chrisleequeen8 天前
【无标题】
conda·mac·anaconda·环境变量·export·no found
love530love9 天前
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理
人工智能·windows·gpu·cuda·ollama·lm studio·openclaw
张泽泽zzz11 天前
使用VPN后 Mac出现能联网但无法访问网页的问题 <已解决>
mac