在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
风笑谷13 小时前
openclaw+ollama+企业微信 实操记录
企业微信·ollama·openclaw
CrazyStoneZw4 天前
openclaw配置ollama本地模型
本地化·ollama·openclaw
chrisleequeen5 天前
【无标题】
conda·mac·anaconda·环境变量·export·no found
love530love6 天前
【OpenClaw 本地实战 Ep.2】零代码对接:使用交互式向导快速连接本地 LM Studio 用 CUDA GPU 推理
人工智能·windows·gpu·cuda·ollama·lm studio·openclaw
张泽泽zzz8 天前
使用VPN后 Mac出现能联网但无法访问网页的问题 <已解决>
mac
yyoc979 天前
Mac基于LLaMA Factory微调模型导入Ollama踩坑记录
大模型·微调·llama·ollama
山塘小鱼儿9 天前
本地Ollama+Agent+LangGraph+LangSmith运行
python·langchain·ollama·langgraph·langsimth
前进吧-程序员12 天前
Ollama 本地部署编程大模型 + Zed 编辑器配置指南
ai编程·zed·ollama
liuchangng12 天前
Huggingface大模型下载方法总结_20260128084905
人工智能·llm·ollama
落淼喵_G12 天前
智能语音交互与本地知识库技术整合
python·模型·ollama