智谱(Zhipu)大模型的流式使用 response.iter_lines() 逐行解析 SSE 流

复制代码
import requests
import json
url = "https://open.bigmodel.cn/api/paas/v4/chat/completions"

payload = {
    "model": "glm-4.7",
    "messages": [
        {
            "role": "user",
            "content": "写一首关于春天的诗。"
        }
    ],
    "stream": True,
    "temperature": 1
}
headers = {
    "Authorization": "api-key",
    "Content-Type": "application/json"
}
response = requests.post(url, json=payload, headers=headers)
# 检查状态
if response.status_code != 200:
    print(f"请求失败: {response.status_code} - {response.text}")
    exit()
full_content = []
#流失输出
print("正在生成...\n")
try:
    for line in response.iter_lines():
        if line:
            decoded_line = line.decode('utf-8')
            # SSE 格式: data: {...}
            if decoded_line.startswith("data:"):
                json_str = decoded_line[len("data:"):].strip()
                if json_str == "[DONE]":
                    break
                try:
                    chunk = json.loads(json_str)
                    # 提取 reasoning_content
                    if "choices" in chunk and len(chunk["choices"]) > 0:
                        delta = chunk["choices"][0].get("delta", {})
                        content = delta.get("reasoning_content")
                        if content is not None:
                            full_content.append(content)
                            #print(content, end="", flush=True)  # 实时打印
                except json.JSONDecodeError as e:
                    print(f"\nJSON 解析错误: {e}, 原始数据: {json_str}")
except Exception as e:
    print(f"\n流处理异常: {e}")

print("\n\n✅ 最终完整输出:")
print("".join(full_content))

你提供的代码使用 requests.post 调用智谱(Zhipu)大模型的 流式(stream=True)接口,但当前写法存在两个关键问题:

❌ response.text 无法正确处理 流式响应(SSE) ------ 它会等待整个响应结束才返回,而流式接口是逐块发送的;

❌ 智谱 GLM-4 的流式响应中,实际文本内容在 choices[0].delta.reasoning_content 字段(而非标准 OpenAI 的 content)。

✅ 正确做法:使用 response.iter_lines() 逐行解析 SSE 流

以下是 完整可运行的修复代码,能正确提取 reasoning_content 并拼接成完整诗歌:

python

编辑

import requests

import json

配置

url = "https://open.bigmodel.cn/api/paas/v4/chat/completions"

payload = {

"model": "glm-4.7",

"messages": [

{"role": "user", "content": "写一首关于春天的诗。"}

],

"stream": True,

"temperature": 1

}

headers = {

"Authorization": "Bearer your_api_key_here", # ⚠️ 替换为你的有效 API Key

"Content-Type": "application/json"

}

发送流式请求

response = requests.post(url, json=payload, headers=headers, stream=True)

检查状态

if response.status_code != 200:

print(f"请求失败: {response.status_code} - {response.text}")

exit()

full_content = []

print("正在生成...\n")

try:

for line in response.iter_lines():

if line:

decoded_line = line.decode('utf-8')

SSE 格式: data: {...}

if decoded_line.startswith("data:"):

json_str = decoded_line[len("data:"):].strip()

if json_str == "[DONE]":

break

try:

chunk = json.loads(json_str)

提取 reasoning_content

if "choices" in chunk and len(chunk["choices"]) > 0:

delta = chunk["choices"][0].get("delta", {})

content = delta.get("reasoning_content")

if content is not None:

full_content.append(content)

print(content, end="", flush=True) # 实时打印

except json.JSONDecodeError as e:

print(f"\nJSON 解析错误: {e}, 原始数据: {json_str}")

except Exception as e:

print(f"\n流处理异常: {e}")

print("\n\n✅ 最终完整输出:")

print("".join(full_content))

🔑 关键说明

表格

问题 解决方案

流式响应读取 使用 stream=True + response.iter_lines()

SSE 格式解析 每行以 data: 开头,去掉前缀后解析 JSON

字段位置 智谱 GLM-4 流式响应使用 delta.reasoning_content(不是 content)

结束标志 遇到 data: [DONE] 时停止

实时输出 print(..., end="", flush=True) 实现逐字打印

📝 输出示例(模拟)

text

编辑

正在生成...

春天的缕东风穿过山谷,

便唤醒了沉睡的田野。

✅ 最终完整输出:

春天的缕东风穿过山谷,

便唤醒了沉睡的田野。

相关推荐
追风林16 小时前
idea支持本地 的 服务器 远程debug
java·服务器·intellij-idea
czlczl2002092516 小时前
Redis数据编码
数据库·redis·缓存
Wpa.wk16 小时前
pb协议接口测试
数据库·redis·缓存
wulijuan88866616 小时前
ECharts图表性能优化的那些事
前端·javascript·echarts
IpdataCloud16 小时前
资源受限设备上轻量级IP查询模块的部署方法
网络·数据库·网络协议·tcp/ip
yuuki23323316 小时前
【Linux】开发工具链全解析:从 apt 到 gdb
linux·运维·服务器
❀͜͡傀儡师16 小时前
通过npm 手动安装、Docker 部署 OpenClaw小龙虾
前端·docker·npm
青槿吖16 小时前
SpringMVC通关秘籍(下):日期转换器、拦截器与文件上传的奇幻冒险
java·开发语言·数据库·sql·mybatis·状态模式
前端AI充电站16 小时前
Google 开始卷价格了:Gemini 3.1 Flash-Lite,会不会把 AI 应用成本真的打下来?
前端·人工智能