实现智能体调用海量api

针对成百上千个数据 API 接口的场景,单纯依靠 LLM 的上下文(Context Window)硬塞是行不通的。目前业界公认的主流方案是 "RAG for Tools"(基于检索的工具增强生成)

其核心思想是:"先检索,再调用"。只在运行时动态地将最相关的 3-5 个 API 挂载给 LLM,从而保证准确率并节省 Token。

以下是一个完整的、可落地的技术方案,包含架构设计、核心代码实现和优化策略。


一、 整体架构设计

我们将系统分为两个阶段:离线准备阶段在线运行阶段

graph TD subgraph "1. 离线准备 (Indexing)" Swagger[Swagger/OpenAPI 文档] --> Cleaner[文档清洗与解析] Cleaner -->|生成| ToolDefs[标准工具定义 (JSON/Pydantic)] ToolDefs -->|Embedding| VectorDB[(向量数据库\nMilvus/FAISS)] end subgraph "2. 在线运行 (Runtime)" User[用户提问: '查下上月销售额'] --> Router[意图识别/路由器] Router -->|语义搜索| VectorDB VectorDB -->|返回 Top-K| Candidates[候选 API 列表] Candidates -->|动态挂载| Agent[LLM 智能体] User --> Agent Agent -->|1. 决策调用| APICall[生成 API 请求参数] APICall -->|2. HTTP 请求| Backend[数据中台/后端 API] Backend -->|3. 返回 JSON| Agent Agent -->|4. 数据分析与总结| FinalResponse[最终回答] end

二、 核心实现步骤

1. 技术栈推荐
  • 编排框架: LangChain (Python 版 v0.2/v0.3)
  • 大模型: GPT-4o, Claude 3.5 Sonnet (Tool Calling 能力强), 或 Qwen-2.5-72B (私有化推荐)
  • 向量库: FAISS (轻量), Milvus (生产级)
  • API 描述标准: OpenAPI (Swagger)
2. 代码实现详解

这里提供一个基于 LangChain 的核心实现 Demo。

第一步:定义 API 并建立索引 (Mock 数据)

在真实场景中,你需要写脚本遍历 Swagger JSON,提取 path, description, parameters。

python 复制代码
from langchain_core.tools import StructuredTool
from langchain_core.documents import Document
from langchain_community.vectorstores import FAISS
from langchain_openai import OpenAIEmbeddings, ChatOpenAI
from langchain.agents import create_tool_calling_agent, AgentExecutor
from langchain_core.prompts import ChatPromptTemplate
from pydantic import BaseModel, Field

# --- 1. 定义数据 API 的 Schema (模拟从 Swagger 解析而来) ---

class SalesQuerySchema(BaseModel):
    start_date: str = Field(description="开始日期, 格式 YYYY-MM-DD")
    end_date: str = Field(description="结束日期, 格式 YYYY-MM-DD")

def query_sales_data(start_date: str, end_date: str):
    """查询指定时间范围内的公司销售总额。"""
    # 模拟真实 HTTP 请求
    return {"total_sales": 100000, "currency": "CNY", "period": f"{start_date} to {end_date}"}

class UserInfoSchema(BaseModel):
    user_id: str = Field(description="用户ID")

def get_user_profile(user_id: str):
    """根据 ID 获取用户的详细画像和等级信息。"""
    return {"id": user_id, "name": "Alice", "level": "VIP"}

# 假设你有 1000 个这样的工具
all_tools_map = {
    "query_sales_data": StructuredTool.from_function(
        func=query_sales_data,
        name="query_sales_data",
        description="查询指定时间范围内的公司销售总额",
        args_schema=SalesQuerySchema
    ),
    "get_user_profile": StructuredTool.from_function(
        func=get_user_profile,
        name="get_user_profile",
        description="根据 ID 获取用户的详细画像和等级信息",
        args_schema=UserInfoSchema
    ),
    # ... 更多工具 ...
}

# --- 2. 建立向量索引 (Indexing) ---
# 将工具的功能描述向量化
docs = []
for name, tool in all_tools_map.items():
    docs.append(Document(
        page_content=tool.description, # 检索的关键:描述必须准确
        metadata={"tool_name": name}
    ))

embeddings = OpenAIEmbeddings()
# 使用 FAISS 建立索引
vector_store = FAISS.from_documents(docs, embeddings)
retriever = vector_store.as_retriever(search_kwargs={"k": 3}) # 每次只找最相关的3个

第二步:构建"检索-执行"智能体

这是运行时的逻辑:用户提问 -> 检索 -> 动态组装 Agent。

python 复制代码
# --- 3. 运行时逻辑 ---

def run_data_agent(user_query: str):
    print(f"--- 用户提问: {user_query} ---")
    
    # 3.1 检索阶段:找到相关工具
    retrieved_docs = retriever.invoke(user_query)
    # 根据名字找回真实的工具对象
    selected_tools = [all_tools_map[d.metadata["tool_name"]] for d in retrieved_docs]
    
    print(f"Step 1: 检索到的相关接口 -> {[t.name for t in selected_tools]}")
    
    if not selected_tools:
        return "抱歉,没有找到相关的数据接口。"

    # 3.2 动态构建 Agent
    llm = ChatOpenAI(model="gpt-4o", temperature=0)
    
    prompt = ChatPromptTemplate.from_messages([
        ("system", "你是一个数据分析助手。当前时间是 2025-12-23。请根据用户的要求,选择合适的工具获取数据。"),
        ("human", "{input}"),
        ("placeholder", "{agent_scratchpad}"),
    ])
    
    # 将检索到的 tools 绑定给 LLM
    agent = create_tool_calling_agent(llm, selected_tools, prompt)
    agent_executor = AgentExecutor(agent=agent, tools=selected_tools, verbose=True)
    
    # 3.3 执行与回答
    result = agent_executor.invoke({"input": user_query})
    return result["output"]

# --- 测试 ---
# 用户问模糊的时间,LLM 需要结合 System Prompt 里的当前时间推算 API 参数
response = run_data_agent("帮我查一下上个月的销售额")
print(f"Final Answer: {response}")

三、 关键难点与解决方案

在处理"成百上千"个接口时,你会遇到准确率和性能问题,以下是进阶优化方案:

1. 提高检索准确率 (The Precision Problem)

如果只用简单的语义检索,可能会出现查错接口的情况(比如"查询订单"和"查询退单"描述很像)。

  • 方案 A:元数据过滤 (Metadata Filtering)
    • 在 Swagger 中提取 tags (如 Finance, HR, SupplyChain)。
    • 先用一个轻量级 LLM 判断用户意图属于哪个领域(例如判断为 Finance)。
    • 并在向量检索时加上过滤条件 filter={"tag": "Finance"}
  • 方案 B:混合检索 (Hybrid Search)
    • 结合 BM25 (关键词匹配)Vector (语义匹配) 。如果用户准确说出了接口名或特有的参数名(如 SKU_ID),关键词匹配权重更高。
2. 处理复杂参数 (The Parameter Problem)

用户提问通常很模糊("查那个谁的订单"),而 API 需要精准的 ID。

  • 方案:多步推理 (ReAct)
    • Agent 发现参数缺失时,不要瞎填。
    • 可以在 Prompt 中设定:"如果缺少参数(如 user_id),请先调用搜索接口(search_user)获取,或者反问用户。"
3. 降低 Token 消耗 (The Context Problem)

Swagger 文档通常极其冗长。

  • 方案:Schema 瘦身
    • 不要把完整的 Swagger JSON 喂给 LLM。
    • 编写脚本清洗 Swagger,只保留 description, parameters (name, type, required), 和 return 的简要描述。剔除 404/500 等错误码定义。
4. 安全性控制 (Safety)
  • 方案:只读原则
    • 对于数据问数场景,建议严格过滤 GET 请求
    • 对于 POST/DELETE 等修改操作,必须在 Agent 执行前增加 "人机确认 (Human-in-the-loop)" 环节,让用户点击"确认执行"。

四、 推荐的数据流转图

text 复制代码
用户: "上个月北京地区的空调销售额是多少?"
      |
      v
[意图分析] -> 提取关键词: "销售额", "上个月", "北京", "空调"
      |
[向量检索] -> 在 1000 个 API 中找到 Top 3:
            1. get_sales_summary(date_range, region, category)  <-- 命中
            2. get_inventory(product_id)
            3. get_weather(city)
      |
[LLM 推理] -> 选中 API 1
            -> 转换参数: 
               date_range="2025-11-01 to 2025-11-30" (根据当前时间推算)
               region="Beijing"
               category="Air Conditioner"
      |
[API 执行] -> 调用后端接口 -> 返回 JSON { "amount": 500000 }
      |
[LLM 生成] -> "上个月(11月)北京地区空调销售额为 50 万元。"

总结

要实现这个系统,不要试图训练一个能记住所有 API 的模型。LangChain + 向量数据库 + 动态工具挂载 是目前最成熟、性价比最高的方案。

相关推荐
猫头虎14 小时前
如何在浏览器里体验 Windows在线模拟器:2026最新在线windows模拟器资源合集与技术揭秘
运维·网络·windows·系统架构·开源·运维开发·开源软件
古城小栈16 小时前
Rust 网络请求库:reqwest
开发语言·网络·rust
qq_3168377519 小时前
IP网段冲突 配置指定ip使用指定的网络接口发送,而不经过默认网关
服务器·网络·tcp/ip
布史19 小时前
Tailscale虚拟私有网络指南
linux·网络
枷锁—sha20 小时前
彻底解决 Google Gemini 报错:异常流量与 IP 地址冲突排查指南
网络·网络协议·tcp/ip
Xの哲學20 小时前
深入剖析Linux文件系统数据结构实现机制
linux·运维·网络·数据结构·算法
-To be number.wan21 小时前
经典真题精讲|2010年408统考第34题:文件传输最少需要多久?
网络·计算机网络
知乎的哥廷根数学学派1 天前
基于多尺度注意力机制融合连续小波变换与原型网络的滚动轴承小样本故障诊断方法(Pytorch)
网络·人工智能·pytorch·python·深度学习·算法·机器学习
好多渔鱼好多1 天前
【流媒体协议】RTSP / RTP / RTCP 协议全景介绍
网络·网络协议·rtp·rtsp·rtcp·ipc摄像头
映秀小子1 天前
Wireshark加减显示列
网络·测试工具·wireshark