在MAC中Ollama开放其他电脑访问

ollama安装完毕后默认只能在本地访问,之前我都是安装其他的软件之后可以结合开放其他端口访问,其实是可以新增或修改下电脑的系统配置,就可以打开端口允许除本机IP或localhost访问。

步骤如下:

1、查看端口(默认是:11434)

2、新增系统配置

先点击右键,退出Ollama

然后打开命令行窗口执行

bash 复制代码
export OLLAMA_HOST=0.0.0.0:11434

再执行以下命令输出刚设置的环境变量

bash 复制代码
echo $OLLAMA_HOST

最后从命令行运行ollama命令(注意:必须在设置环境变量的命令行窗口,运行ollama命令,否则不生效)

bash 复制代码
ollama list

3、测试访问

在mac本机浏览器输入:http://127.0.0.1:11434

在其他及其访问:http://192.168.5.201:11434

注:

以上方法有个弊端,重启mac后,就需要重新执行以上操作才能重新开放访问。

相关推荐
宇努力学习14 小时前
如何本地部署seepseek
python·ai·ollama·deepseek
reset202116 小时前
ubuntu离线安装ollama
linux·ubuntu·ollama
刘子平17 小时前
MAC快速本地部署Deepseek (win也可以)
大模型·ollama·deepseek
一根烂笔头17 小时前
Mac M3/M4 本地部署Deepseek并集成vscode
vscode·ai·mac·deepseek·m4
刘什么洋啊Zz21 小时前
MacOS下使用Ollama本地构建DeepSeek并使用本地Dify构建AI应用
人工智能·macos·ai·ollama·deepseek
goodmao21 小时前
【DeepSeek】-macOS本地终端部署后运行DeepSeek如何分析图片
gpt·macos·大模型·ollama·deepseek·本地图片分析
浮华落定1 天前
RagFlow+Ollama 构建RAG私有化知识库
知识库·rag·ollama·ragflow
jessezappy1 天前
记录:Docker 安装记录
docker·安装·ollama·软链接
神秘的土鸡1 天前
使用Open WebUI下载的模型文件(Model)默认存放在哪里?
人工智能·llama·ollama·openwebui
呱牛do it2 天前
离线部署大模型:ollama+deepseek+open-webui
人工智能·ollama·deepseek