如何通过http访问ollama接口

1、修改Ollama服务配置文件

执行命令

bash 复制代码
sudo vim /etc/systemd/system/ollama.service
复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

增加

复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

配置完成后,需要重新加载:

bash 复制代码
sudo systemctl daemon-reload

然后重启Ollama服务

bash 复制代码
systemctl restart ollama

重启后可以使用http://ip:11434来访问服务。

如果服务器可以访问 ,远程访问被拒绝,请检查端口是否开放。这里不去说明端口开放的步骤了。

接下来就可以使用接口来调用对应的模型了

相关推荐
AI大模型1 小时前
基于Docker+DeepSeek+Dify :搭建企业级本地私有化知识库超详细教程
docker·llm·deepseek
程序员鱼皮2 小时前
扒了下 Cursor 的提示词,被狠狠惊艳到了!
计算机·ai·程序员·大模型·互联网·编程
bylander4 小时前
【论文阅读】自我进化的AI智能体综述
人工智能·大模型·智能体
居7然11 小时前
美团大模型“龙猫”登场,能否重塑本地生活新战局?
人工智能·大模型·生活·美团
Tadas-Gao1 天前
阿里云通义MoE全局均衡技术:突破专家负载失衡的革新之道
人工智能·架构·大模型·llm·云计算
bboyzqh1 天前
任务型Agent:prompt工程实践
大模型·prompt·上下文工程
love530love2 天前
【保姆级教程】阿里 Wan2.1-T2V-14B 模型本地部署全流程:从环境配置到视频生成(附避坑指南)
人工智能·windows·python·开源·大模型·github·音视频
freephp2 天前
企业级LLM已经到了next level:LangChain + DeepSeek = 王炸
langchain·deepseek
nju_spy2 天前
Kaggle - LLM Science Exam 大模型做科学选择题
人工智能·机器学习·大模型·rag·南京大学·gpu分布计算·wikipedia 维基百科
Wilber的技术分享2 天前
【大模型实战笔记 1】Prompt-Tuning方法
人工智能·笔记·机器学习·大模型·llm·prompt