如何通过http访问ollama接口

1、修改Ollama服务配置文件

执行命令

bash 复制代码
sudo vim /etc/systemd/system/ollama.service
复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

增加

复制代码
Environment="OLLAMA_HOST=0.0.0.0:11434" 
Environment="OLLAMA_ORIGINS=*"

配置完成后,需要重新加载:

bash 复制代码
sudo systemctl daemon-reload

然后重启Ollama服务

bash 复制代码
systemctl restart ollama

重启后可以使用http://ip:11434来访问服务。

如果服务器可以访问 ,远程访问被拒绝,请检查端口是否开放。这里不去说明端口开放的步骤了。

接下来就可以使用接口来调用对应的模型了

相关推荐
哥本哈士奇(aspnetx)19 小时前
实现AI和BI整合的初步思路和探索
大模型
少林码僧1 天前
2.3 Transformer 变体与扩展:BERT、GPT 与多模态模型
人工智能·gpt·ai·大模型·bert·transformer·1024程序员节
York·Zhang1 天前
Ollama:在本地运行大语言模型的利器
人工智能·语言模型·自然语言处理·ollama
探模之翼1 天前
ReAct 与 Function Call:两种主流 Agent 技术解析与实践
大模型·agent
zhangbaolin1 天前
langchain agent的中间件
中间件·langchain·大模型·agent
FunTester1 天前
基于 Cursor 的智能测试用例生成系统 - 项目介绍与实施指南
人工智能·ai·大模型·测试用例·实践指南·curor·智能测试用例
数据智能老司机1 天前
构建一个 DeepSeek 模型——通过键值缓存(Key-Value Cache, KV Cache)解决推理瓶颈
架构·llm·deepseek
博士僧小星1 天前
环境配置|GPUStack——为大模型而生的开源GPU集群管理器
开源·大模型·gpu·gpustack
喜欢吃豆1 天前
llama.cpp 全方位技术指南:从底层原理到实战部署
人工智能·语言模型·大模型·llama·量化·llama.cpp
武子康2 天前
AI研究-119 DeepSeek-OCR PyTorch FlashAttn 2.7.3 推理与部署 模型规模与资源详细分析
人工智能·深度学习·机器学习·ai·ocr·deepseek·deepseek-ocr