Ollama(3):API 交互、Python 使用

1 Ollama API 交互

在使用 API 之前,需要确保 Ollama 服务正在运行。可以通过以下命令启动服务:

复制代码
ollama serve

默认情况下,服务会运行在 http://localhost:11434

1.1 生成文本(Generate Text)

  • 端点POST /api/generate
  • 功能:向模型发送提示词(prompt),并获取生成的文本。

请求格式

复制代码
{
  "model": "<model-name>",  // 模型名称
  "prompt": "<input-text>", // 输入的提示词
  "stream": false,          // 是否启用流式响应(默认 false)
  "options": {              // 可选参数
    "temperature": 0.7,     // 温度参数
    "max_tokens": 100       // 最大 token 数
  }
}

响应格式

复制代码
{
  "response": "<generated-text>", // 生成的文本
  "done": true                    // 是否完成
}

案例演示:

复制代码
post localhost:11434/api/generate

{
  "model": "deepseek-r1:7b",
  "prompt": "你好,你能帮我写一段代码吗?",
  "stream": false
}

1.2 聊天(Chat)

  • 端点POST /api/chat
  • 功能:支持多轮对话,模型会记住上下文。

请求格式

复制代码
{
  "model": "<model-name>",  // 模型名称
  "messages": [             // 消息列表
    {
      "role": "user",       // 用户角色
      "content": "<input-text>" // 用户输入
    }
  ],
  "stream": false,          // 是否启用流式响应
  "options": {              // 可选参数
    "temperature": 0.7,
    "max_tokens": 100
  }
}

响应格式

复制代码
{
  "message": {
    "role": "assistant",    // 助手角色
    "content": "<generated-text>" // 生成的文本
  },
  "done": true
}

案例演示:

复制代码
post localhost:11434/api/chat

{
  "model": "deepseek-r1:7b",
  "messages": [
    {
      "role": "user",
      "content": "你好,你能帮我写一段 Python 代码吗?"
    }
  ],
  "stream": false
}

1.3 列出本地模型(List Models)

  • 端点GET /api/tags
  • 功能:列出本地已下载的模型。

响应格式

复制代码
{
  "models": [
    {
      "name": "<model-name>", // 模型名称
      "size": "<model-size>", // 模型大小
      "modified_at": "<timestamp>" // 修改时间
    }
  ]
}

案例演示:

复制代码
get localhost:11434/api/tags

1.4 拉取模型(Pull Model)

  • 端点POST /api/pull
  • 功能:从模型库中拉取模型。

请求格式

复制代码
{
  "name": "<model-name>" // 模型名称
}

响应格式

复制代码
{
  "status": "downloading", // 下载状态
  "digest": "<model-digest>" // 模型摘要
}

2 Ollama Python 使用

Ollama 提供了 Python SDK,可以让我们能够在 Python 环境中与本地运行的模型进行交互。通过 Ollama 的 Python SDK 能够轻松地将自然语言处理任务集成到 Python 项目中,执行各种操作,如文本生成、对话生成、模型管理等,且不需要手动调用命令行。

2.1 基础使用

2.1.1 安装 Python SDK

首先,我们需要安装 Ollama 的 Python SDK。可以使用 pip 安装:

复制代码
pip install ollama

确保你的环境中已安装了 Python 3.x,并且网络环境能够访问 Ollama 本地服务。

2.1.2 启动本地服务

在使用 Python SDK 之前,确保 Ollama 本地服务已经启动。你可以使用命令行工具来启动它:

复制代码
ollama serve

启动本地服务后,Python SDK 会与本地服务进行通信,执行模型推理等任务。

2.1.3 使用 Ollama 的 Python SDK 进行推理

安装了 SDK 并启动了本地服务后,我们就可以通过 Python 代码与 Ollama 进行交互。通过 Python SDK,你可以向指定的模型发送请求,生成文本或对话:

python 复制代码
from ollama import chat
from ollama import ChatResponse

response: ChatResponse = chat(model='deepseek-r1:7b', messages=[
    {
        'role': 'user',
        'content': '你是谁?',
    },
])
# 打印响应内容
print(response['message']['content'])

# 或者直接访问响应对象的字段
# print(response.message.content)

ollama SDK 还支持流式响应,我们可以在发送请求时通过设置 stream=True 来启用响应流式传输。

python 复制代码
from ollama import chat

stream = chat(
    model='deepseek-r1:7b',
    messages=[{'role': 'user', 'content': '你是谁?'}],
    stream=True,
)

# 逐块打印响应内容
for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)

2.2 自定义客户端

你还可以创建自定义客户端,来进一步控制请求配置,比如设置自定义的 headers 或指定本地服务的 URL。

2.2.1 创建自定义客户端

通过 Client,你可以自定义请求的设置(如请求头、URL 等),并发送请求。

python 复制代码
from ollama import Client

client = Client(
    host='http://localhost:11434',
    headers={'x-some-header': 'some-value'}
)

response = client.chat(model='deepseek-r1:7b', messages=[
    {
        'role': 'user',
        'content': '你是谁?',
    },
])
print(response['message']['content'])

2.2.2 异步客户端

如果你希望异步执行请求,可以使用 AsyncClient 类,适用于需要并发的场景。

python 复制代码
import asyncio
from ollama import AsyncClient


async def chat():
    message = {'role': 'user', 'content': '你是谁?'}
    response = await AsyncClient().chat(model='deepseek-r1:7b', messages=[message])
    print(response['message']['content'])


asyncio.run(chat())

异步客户端支持与传统的同步请求一样的功能,唯一的区别是请求是异步执行的,可以提高性能,尤其是在高并发场景下。

2.2.3 异步流式响应

如果你需要异步地处理流式响应,可以通过将 stream=True 设置为异步生成器来实现。

python 复制代码
import asyncio

from ollama import AsyncClient


async def chat():
    message = {'role': 'user', 'content': '你是谁?'}
    async for part in await AsyncClient().chat(model='deepseek-r1:7b', messages=[message], stream=True):
        print(part['message']['content'], end='', flush=True)


asyncio.run(chat())

这里,响应将逐部分地异步返回,每部分都可以即时处理。

2.3 常用 API 方法

Ollama Python SDK 提供了一些常用的 API 方法,用于操作和管理模型。

2.3.1 chat 方法

与模型进行对话生成,发送用户消息并获取模型响应:

python 复制代码
ollama.chat(model='llama3.2', messages=[{'role': 'user', 'content': 'Why is the sky blue?'}])

2.3.2 generate 方法

用于文本生成任务。与 chat 方法类似,但是它只需要一个 prompt 参数:

python 复制代码
ollama.generate(model='llama3.2', prompt='Why is the sky blue?')

2.3.3 list 方法

列出所有可用的模型:

python 复制代码
ollama.list()

2.3.4 show 方法

显示指定模型的详细信息:

python 复制代码
ollama.show('llama3.2')

2.3.5 create 方法

从现有模型创建新的模型:

python 复制代码
ollama.create(model='example', from_='llama3.2', system="You are Mario from Super Mario Bros.")

2.3.6 copy 方法

复制模型到另一个位置:

python 复制代码
ollama.copy('llama3.2', 'user/llama3.2')

2.3.7 delete 方法

删除指定模型:

python 复制代码
ollama.delete('llama3.2')

2.3.8 pull 方法

从远程仓库拉取模型:

python 复制代码
ollama.pull('llama3.2')

2.3.9 push 方法

将本地模型推送到远程仓库:

python 复制代码
ollama.push('user/llama3.2')

2.3.10 embed 方法

生成文本嵌入:

python 复制代码
ollama.embed(model='llama3.2', input='The sky is blue because of rayleigh scattering')

2.3.11 ps 方法

查看正在运行的模型列表:

python 复制代码
ollama.ps()

2.4 错误处理

Ollama SDK 会在请求失败或响应流式传输出现问题时抛出错误。我们可以使用 try-except 语句来捕获这些错误,并根据需要进行处理。

python 复制代码
import ollama

model = 'does-not-yet-exist'

try:
    response = ollama.chat(model)
except ollama.ResponseError as e:
    print('Error:', e.error)
    if e.status_code == 404:
        ollama.pull(model)
相关推荐
飞哥数智坊5 小时前
GPT-5-Codex 发布,Codex 正在取代 Claude
人工智能·ai编程
倔强青铜三5 小时前
苦练Python第46天:文件写入与上下文管理器
人工智能·python·面试
虫无涯6 小时前
Dify Agent + AntV 实战:从 0 到 1 打造数据可视化解决方案
人工智能
Dm_dotnet8 小时前
公益站Agent Router注册送200刀额度竟然是真的
人工智能
算家计算9 小时前
7B参数拿下30个世界第一!Hunyuan-MT-7B本地部署教程:腾讯混元开源业界首个翻译集成模型
人工智能·开源
机器之心9 小时前
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
人工智能·openai
Juchecar10 小时前
交叉熵:深度学习中最常用的损失函数
人工智能
林木森ai10 小时前
爆款AI动物运动会视频,用Coze(扣子)一键搞定全流程(附保姆级拆解)
人工智能·aigc
聚客AI11 小时前
🙋‍♀️Transformer训练与推理全流程:从输入处理到输出生成
人工智能·算法·llm
BeerBear12 小时前
【保姆级教程-从0开始开发MCP服务器】一、MCP学习压根没有你想象得那么难!.md
人工智能·mcp