使用 Python 调用 Ollama API 并调用 deepseek-r1:8b 模型

使用 Python 调用 Ollama API 并调用 deepseek-r1:8b 模型

ollama 是一个强大的本地大语言模型工具,支持多种开源模型,例如 deepseek-r1:8b。通过 Ollama 的 API,我们可以轻松调用这些模型来完成文本生成、对话等任务。这里记录一下如何使用 Python 调用 Ollama API,并调用 deepseek-r1:8b 模型生成文本。

准备工作

在开始之前,确保你已经完成以下准备工作:

  1. 安装 Ollama:

    如果你还没有安装 Ollama,可以参考 Ollama 官方文档 进行安装。

    安装完成后,启动 Ollama 服务。默认情况下,API 会在 http://localhost:11434 上运行。

  2. 下载 deepseek-r1:8b 模型:

    使用以下命令下载 deepseek-r1:8b 模型:

    bash 复制代码
    ollama pull deepseek-r1:8b
  3. 安装 Python 的 requests 库:

    这里将使用 requests 库来发送 HTTP 请求。如果还没有安装,可以通过以下命令安装:

    bash 复制代码
    pip install requests

调用 Ollama API

在此之前可以了解一下每个api大概得作用

API名称 功能描述
Generate 根据输入的提示生成文本,适用于文本生成任务。
Chat 进行对话交互,模拟聊天机器人等场景。
Embeddings 生成文本的嵌入向量,用于文本相似性比较、聚类等任务。
Pull 从 Ollama 服务器下载指定的模型到本地。
List 列出本地已下载的模型,查看当前可用的模型。
Delete 删除本地存储的模型,释放存储空间。
Show 显示模型的详细信息,如参数、版本等。
Copy 复制一个模型到另一个名称,便于创建模型的副本。
Create 基于现有模型创建自定义模型,支持自定义参数和配置。
Health Check 检查 Ollama 服务的运行状态,确认服务是否正常。

使用generate

使用generateapi主要是生成一次内容,这个并没有记录功能,实现代码如下:

python 复制代码
# -*- coding: utf-8 -*-
import requests

# Ollama API 的 URL
url = "http://localhost:11434/api/generate"

res = requests.post(
    url=url,
    json={
        "Model":"deepseek-r1:8b",
        "prompt":"写一首关于爱情的诗",
        "stream":False
    }
)
data_dict = res.json()
print(data_dict)

这样返回的内容会比较混乱,因为是直接返回的

修改一下显示的内容,将上面最后两行代码注释,修改为如下代码:

python 复制代码
# data_dict = res.json()
# print(data_dict).

# 检查请求是否成功
if res.status_code == 200:
    # 解析返回的 JSON 数据
    result = res.json()
    
    # 提取 response 字段
    generated_text = result.get("response", "")
    print("生成的文本:", generated_text)
else:
    print("请求失败,状态码:", res.status_code)
    print("错误信息:", res.text)

这样得到的文本可视化非常好看了:

实现多轮对话并保留对话的记忆

在这个里面模型不会记录我们之前说的话,所以现在修改一下代码让他可以实现多轮对话,原理就是把之前交流的信息保存在一个list中,然后可以手动输入下一个问题,

  1. 首先修改使用的API,多轮对话要使用chatapi

    bash 复制代码
    url = "http://localhost:11434/api/chat"
  2. 然后创建一个list用于保存对话.

    python 复制代码
    # 保存对话记录的list
    msg_list = []
  3. 写一个while的死循环,然后让用户输入文本,输入完成后将消息保存到对话记录中,然后再将返回结果也保存到列表中,这样就将之前的记录保存起来了.

    python 复制代码
    # -*- coding: utf-8 -*-
    import requests
    
    # 保存对话记录的list
    msg_list = []
    
    # Ollama API 的 URL
    url = "http://localhost:11434/api/chat"
    
    while True:
        text = input("请输入:")
        user_dict = {"role":"user","content":text}
        msg_list.append(user_dict)
        res = requests.post(
            url=url,
            json={
                "model":"deepseek-r1:8b",
                "messages":msg_list,
                "stream":False
            }
        )
    
    
        # data_dict = res.json()
        # print(data_dict)
    
    
        # 检查请求是否成功
        if res.status_code == 200:
            # 解析返回的 JSON 数据
            result = res.json()
        
            # 提取 response 字段
            generated_text = result.get("message", "")
            # 保存返回的文本
            msg_list.append(generated_text)
    
            print("生成的文本:", generated_text["content"])
        else:
            print("请求失败,状态码:", res.status_code)
            print("错误信息:", res.text)

    这样就可以连续对话了,

    到这里就实现了使用代码来调用了.

相关推荐
IVEN_16 小时前
只会Python皮毛?深入理解这几点,轻松进阶全栈开发
python·全栈
Ray Liang18 小时前
用六边形架构与整洁架构对比是伪命题?
java·python·c#·架构设计
AI攻城狮18 小时前
如何给 AI Agent 做"断舍离":OpenClaw Session 自动清理实践
python
千寻girling18 小时前
一份不可多得的 《 Python 》语言教程
人工智能·后端·python
AI攻城狮21 小时前
用 Playwright 实现博客一键发布到稀土掘金
python·自动化运维
曲幽21 小时前
FastAPI分布式系统实战:拆解分布式系统中常见问题及解决方案
redis·python·fastapi·web·httpx·lock·asyncio
孟健2 天前
Karpathy 用 200 行纯 Python 从零实现 GPT:代码逐行解析
python
码路飞2 天前
写了个 AI 聊天页面,被 5 种流式格式折腾了一整天 😭
javascript·python
曲幽2 天前
FastAPI压力测试实战:Locust模拟真实用户并发及优化建议
python·fastapi·web·locust·asyncio·test·uvicorn·workers