如何通过http访问ollama接口

1、修改Ollama服务配置文件

执行命令

bash 复制代码
sudo vim /etc/systemd/system/ollama.service
复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

增加

复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

配置完成后,需要重新加载:

bash 复制代码
sudo systemctl daemon-reload

然后重启Ollama服务

bash 复制代码
systemctl restart ollama

重启后可以使用http://ip:11434来访问服务。

如果服务器可以访问 ,远程访问被拒绝,请检查端口是否开放。这里不去说明端口开放的步骤了。

接下来就可以使用接口来调用对应的模型了

相关推荐
DeepSeek-大模型系统教程5 小时前
推荐 7 个本周 yyds 的 GitHub 项目。
人工智能·ai·语言模型·大模型·github·ai大模型·大模型学习
小雷FansUnion7 小时前
深入理解MCP架构:智能服务编排、上下文管理与动态路由实战
人工智能·架构·大模型·mcp
道可云11 小时前
道可云人工智能每日资讯|浦东启动人工智能创新应用竞赛
人工智能·百度·ar·xr·deepseek
Just_Paranoid12 小时前
华为云Flexus+DeepSeek征文|基于Dify构建音视频内容转录工作流
华为云·音视频·dify·maas·deepseek·flexusx
静心问道13 小时前
STEP-BACK PROMPTING:退一步:通过抽象在大型语言模型中唤起推理能力
人工智能·语言模型·大模型
会飞的果粒橙13 小时前
在Ubuntu24上安装ollama
ollama·deepseek
小明说Java13 小时前
华为云Flexus+DeepSeek征文 | 基于华为云Flexus X实例部署Dify平台构建企业行政助手的可用性研究
华为云·maas·deepseek·flexus
静心问道18 小时前
APE:大语言模型具有人类水平的提示工程能力
人工智能·算法·语言模型·大模型
cooldream200920 小时前
华为云Flexus+DeepSeek征文|利用华为云一键部署 Dify 平台并接入 DeepSeek 大模型,构建长篇文章生成助手
大模型·华为云·dify