保姆级! 本地部署DeepSeek-R1大模型 安装Ollama Api 后,Postman本地调用 deepseek

要在Postman中访问Ollama API并调用DeepSeek模型,你需要遵循以下步骤。首先,确保你有一个有效的Ollama服务器实例运行中,并且DeepSeek模型已经被加载。

可以参考我的这篇博客 保姆级!使用Ollama本地部署DeepSeek-R1大模型 并java通过api 调用

使用Postman配置请求

请求类型为 POST

在"输入"框中输入Ollama的API URL,通常是 http://localhost:11434/v1/completions(确保你的Ollama服务正在本地运行,并且使用的是正确的端口)。

在"头"标签页中,添加以下内容:

Key: Content-Type

Value: application/json

编写请求体:

在"Body"标签页中,选择"raw"并设置编码为"JSON (application/json)"。

输入以下JSON格式的请求体:

bash 复制代码
{
  "model": "deepseek-r1:32b",
  "prompt": "你好",
  "max_tokens": 50,
  "temperature": 0.7,
  "top_p": 1,
  "stream": false
}

model: 指定要使用的模型名称。

prompt: 输入你想要模型生成文本的起始语句。

max_tokens: 生成文本的最大token数。

temperature: 控制输出的随机性。较低的值意味着更确定的输出。值越低,生成的文本越保守和一致,越高则越具创意。如果不需要非常有创意的回答,可以将其设置为 0.7 或更低。

top_p: 核取样参数,用于多样性控制。控制采样的累积概率,通常在 0 到 1 之间,越接近 1,模型越可能尝试不同的答案。

stream: 如果设置为true,将流式传输结果。

具体如下图

上面的 http://localhost:11434/v1/completions 是deepseek的api 地址 我们继续访问一下 Ollama Api http://192.168.110.118:7777/api/generate

一样是可以的

相关推荐
Learn Beyond Limits11 小时前
Clustering|聚类
人工智能·深度学习·神经网络·机器学习·ai·聚类·吴恩达
大千AI助手16 小时前
BIG-Bench:大规模语言模型能力的全面评估与挑战
人工智能·语言模型·自然语言处理·大模型·图灵测试·big-bench·bbh
Tassel_YUE18 小时前
在国内使用claude code,实操可行(随手记)
ai·ai编程·claude
Julian.zhou19 小时前
AI自然语音交互:下一代技术制高点与用户体验革命
人工智能·ai·交互·未来趋势
dawnsky.liu20 小时前
RHEL - 在离线的 RHEL 10 中部署 Lightspeed 命令行助手
linux·人工智能·ai
SEO_juper20 小时前
AEO 与 SEO 双引擎:整合策略赢得搜索全域可见性
搜索引擎·百度·ai·seo·数字营销·seo优化·aeo
蒋星熠1 天前
脑机接口(BCI):从信号到交互的工程实践
人工智能·python·神经网络·算法·机器学习·ai·交互
大模型铲屎官1 天前
【数据结构与算法-Day 37】超越二分查找:探索插值、斐波那契与分块查找的奥秘
人工智能·python·大模型·二分查找·数据结构与算法·斐波那契·分块查找
pedestrian_h1 天前
AI大模型框架eino框架快速上手
ai·golang·大模型·graph·eino
charieli-fh1 天前
LoRA 高效微调大语言模型全流程:从原理、实践到参数调优
人工智能·深度学习·大模型·大语言模型