如何通过http访问ollama接口

1、修改Ollama服务配置文件

执行命令

bash 复制代码
sudo vim /etc/systemd/system/ollama.service
复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

增加

复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

配置完成后,需要重新加载:

bash 复制代码
sudo systemctl daemon-reload

然后重启Ollama服务

bash 复制代码
systemctl restart ollama

重启后可以使用http://ip:11434来访问服务。

如果服务器可以访问 ,远程访问被拒绝,请检查端口是否开放。这里不去说明端口开放的步骤了。

接下来就可以使用接口来调用对应的模型了

相关推荐
belingud20 小时前
不同模型回答差异的简单探讨
chatgpt·claude·deepseek
ModelWhale1 天前
“大模型”技术专栏 | 浅谈基于 Kubernetes 的 LLM 分布式推理框架架构:概览
分布式·kubernetes·大模型
charlee441 天前
在本地部署Qwen大语言模型全过程总结
大模型·cuda·qwen·量化
SuperherRo1 天前
Web攻防-大模型应用&LLM安全&提示词注入&不安全输出&代码注入&直接间接&数据投毒
大模型·llm·提示词注入·不安全输出·直接·间接
AI大模型2 天前
基于 Ollama 本地 LLM 大语言模型实现 ChatGPT AI 聊天系统
程序员·llm·ollama
努力还债的学术吗喽2 天前
2020 GPT3 原文 Language Models are Few-Shot Learners 精选注解
gpt·大模型·llm·gpt-3·大语言模型·few-shot·zero-shot
云道轩2 天前
DeepSeek补全IBM MQ 9.4 REST API 执行命令的PPT
deepseek·ibm mq
精致先生2 天前
Streamlit实现Qwen对话机器人
python·机器人·大模型·streamlit
算家计算3 天前
DeepSeek R2因芯片问题再次延迟发布!千亿级大模型训练的算力之困
人工智能·芯片·deepseek
ai绘画-安安妮3 天前
零基础学LangChain:核心概念与基础组件解析
人工智能·学习·ai·程序员·langchain·大模型·转行