保姆级! 本地部署DeepSeek-R1大模型 安装Ollama Api 后,Postman本地调用 deepseek

要在Postman中访问Ollama API并调用DeepSeek模型,你需要遵循以下步骤。首先,确保你有一个有效的Ollama服务器实例运行中,并且DeepSeek模型已经被加载。

可以参考我的这篇博客 保姆级!使用Ollama本地部署DeepSeek-R1大模型 并java通过api 调用

使用Postman配置请求

请求类型为 POST

在"输入"框中输入Ollama的API URL,通常是 http://localhost:11434/v1/completions(确保你的Ollama服务正在本地运行,并且使用的是正确的端口)。

在"头"标签页中,添加以下内容:

Key: Content-Type

Value: application/json

编写请求体:

在"Body"标签页中,选择"raw"并设置编码为"JSON (application/json)"。

输入以下JSON格式的请求体:

bash 复制代码
{
  "model": "deepseek-r1:32b",
  "prompt": "你好",
  "max_tokens": 50,
  "temperature": 0.7,
  "top_p": 1,
  "stream": false
}

model: 指定要使用的模型名称。

prompt: 输入你想要模型生成文本的起始语句。

max_tokens: 生成文本的最大token数。

temperature: 控制输出的随机性。较低的值意味着更确定的输出。值越低,生成的文本越保守和一致,越高则越具创意。如果不需要非常有创意的回答,可以将其设置为 0.7 或更低。

top_p: 核取样参数,用于多样性控制。控制采样的累积概率,通常在 0 到 1 之间,越接近 1,模型越可能尝试不同的答案。

stream: 如果设置为true,将流式传输结果。

具体如下图

上面的 http://localhost:11434/v1/completions 是deepseek的api 地址 我们继续访问一下 Ollama Api http://192.168.110.118:7777/api/generate

一样是可以的

相关推荐
GPUStack1 小时前
GPUStack v0.5:模型Catalog、图生图功能上线,多维优化全面提升产品能力与使用体验
ai·大模型·llm·genai·gpu集群
阿东玩AI4 小时前
基于 MCP 架构的知识库问答系统实战,已拿字节offer
架构·大模型·大模型实战·mcp·知识库问答系统
2301_787552874 小时前
AI-Browser适用于 ChatGPT、Gemini、Claude、DeepSeek、Grok的客户端开源应用程序,集成了 Monaco 编辑器。
人工智能·chatgpt·自动化·编辑器·deepseek
乌旭8 小时前
量子计算与GPU的异构加速:基于CUDA Quantum的混合编程实践
人工智能·pytorch·分布式·深度学习·ai·gpu算力·量子计算
ʚʕ̯•͡˔•̯᷅ʔɞ LeeKuma10 小时前
探索具身智能协作机器人:技术、应用与未来
ai·协作机器人·具身智能机器人
struggle202511 小时前
deepseek-cli开源的强大命令行界面,用于与 DeepSeek 的 AI 模型进行交互
人工智能·开源·自动化·交互·deepseek
AI蜗牛车15 小时前
【LLM+Code】Windsurf Agent 模式Prompt&Tools详细解读
ai·大模型·llm·agent
chegan16 小时前
用c#从头写一个AI agent,实现企业内部自然语言数据统计分析(二)-数据结构和代码分析方法
ai·c#·agent
Elastic 中国社区官方博客17 小时前
使用 LangGraph 和 Elasticsearch 构建强大的 RAG 工作流
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
小白跃升坊20 小时前
干货分享|智能问数方案及步骤详解
ai·大语言模型·it运维·mcp·max kb