RAG加Text2SQL:自动生成接口测试脚本的完整流水线

一、问题:接口测试脚本的三要素缺口

一个完整的接口测试用例由三部分组成:输入参数、测试步骤、预期结果。

纯提示词工程可以解决"测试步骤"的生成------把 Controller 层代码输入给大模型,让它生成 JMeter 或 pytest 脚本骨架。但输入参数和预期结果依赖被测系统的私域知识(数据库数据、业务约束),大模型无法凭空生成。

解决方案是两步走:用 RAG 从 Swagger 文档生成测试脚本骨架,用 Text2SQL 从数据库动态生成测试数据。


二、提示词工程生成测试步骤

第一步先用提示词工程生成脚本骨架。系统提示词的设计思路:

  • 角色设定:资深测试开发专家,精通 SpringBoot/Spring Cloud 微服务架构和 JMeter 5.3
  • 输入:用户粘贴 Controller 层的 API 函数代码
  • 输出:逐个 API 生成 JMeter 5.3 格式的 .jmx 脚本

提示词用伪代码结构组织,从 main 函数开始,明确调用关系:分析Controller的API → 逐个调用 developJMeter5_3脚本 → 返回脚本列表。

适用场景:推荐在 IDE 中使用(如 Cursor、VS Code + Cline),可以直接选中源代码作为输入,避免手动复制粘贴。

这一步只解决了测试步骤,输入参数和预期结果仍需补齐。


三、RAG 从 Swagger 生成 pytest 骨架

Swagger JSON 文件包含了接口的完整定义(路径、方法、参数、响应结构),是生成接口测试脚本的理想知识源。

实现方案(基于 LlamaIndex)

  1. 下载 Swagger JSON 文件到本地
  2. JSONNodeParser 将 JSON 解析为 Node 对象(每个 Node 代表一个文档 Chunk)
  3. 构建 VectorStoreIndex,使用 BM25 检索器(BM25Retriever
  4. 组装 RetrieverQueryEngine,注入提示词模板
  5. 用户输入自然语言描述(如"生成用户登录接口的测试脚本"),引擎返回 pytest 代码

提示词模板的关键约束:

复制代码
Your answer must be a Python markdown only.
Assert response code and the response json's length.
param_list does not reference other variables.
param_list's length is 1.

这一步生成的 pytest 脚本包含参数化占位符(param_list),参数值尚未填充。


四、Text2SQL 从数据库生成测试数据

Text2SQL 将自然语言转换为 SQL 查询,直接从数据库获取真实数据填充测试参数。

三种查询引擎模式QueryEngineType):

模式 原理 适用场景
DEFAULT 建立数据库向量索引,直接映射自然语言到 SQL 数据库结构清晰、查询意图明确
QUERYTIME 查询时动态选择表格,不依赖预定义模式 用户不熟悉数据库结构,查询需求不固定
RETRIVER 基于检索匹配已有 SQL 模板 查询模式固定、需要快速响应

实现基于 LlamaIndex 的 NLSQLTableQueryEngine(DEFAULT 模式)或 SQLTableRetrieverQueryEngine(QUERYTIME 模式),底层 LLM 和 Embedding 模型通过 Ollama 本地运行。

Text2SQL 的提示词模板约束大模型只生成数据,不生成 SQL:

复制代码
Your goal is designed the api test code's param to answer queries.
Your only generate data.
Your answer must be a json markdown only, don't answer sql.

五、完整流水线

三步串联,形成端到端的接口测试脚本自动生成流程:

Step 1:用户输入测试意图 + Swagger JSON → RAG 查询引擎 → 生成 pytest 脚本骨架(含参数化占位符)

Step 2:提取脚本中参数化部分的代码 → 大模型生成参数 Schema(字段名、类型、约束)

Step 3 :将 Schema + 提示词 → Text2SQL 查询引擎 → 从数据库生成符合等价类划分的测试数据 → 替换脚本中的 param_list

最终输出:可直接运行的数据驱动 pytest 脚本,覆盖正常值、边界值、异常值。


六、关键技术选型说明

LlamaIndex RetrieverQueryEngine:检索 → 后处理 → 整合三阶段流程。检索阶段用 BM25 或向量相似度找 top-k 相关节点;后处理阶段按分数重排、过滤;整合阶段将检索结果 + 用户问题 + 提示词模板送入 LLM 生成最终输出。

本地模型部署 :LLM 使用 Ollama 推理框架(gpt-oss:120b-cloud),Embedding 模型同样走 Ollama。好处是数据不出本地,适合处理公司内部代码和数据库信息。

数据安全边界:公司内部代码、数据库 Schema、业务数据严禁上传公网大模型服务。本地部署 Dify + Ollama 是企业场景的标准选择。


七、局限与适用边界

这套流水线目前适合以下场景:接口定义清晰(有 Swagger 文档)、数据库结构相对稳定、参数数量在合理范围内。

对于全新接口(无历史测试物料)、参数极其复杂的场景,Text2SQL 生成的数据质量依赖数据库中已有数据的覆盖度。端到端 UI 测试(Web/App)不在本方案覆盖范围内,需要结合 Playwright MCP Server 等工具另行处理。

相关推荐
何政@4 小时前
通过python 快速完成ai 构建
人工智能·python·ai·大模型·love l
小马过河R5 小时前
小白沉浸式本地Mac小龙虾OpenClaw部署安装教程
人工智能·macos·大模型·nlp·agent·openclaw·龙虾
竹之却5 小时前
国内外主流大模型全面解析(2026版)
服务器·大模型·国内外主流大模型·openclaw·云养虾
twc8295 小时前
MCP赋能测试:Tools、Resources、Prompts三种能力的开发与应用
软件测试·大模型·mcp
twc8296 小时前
MCP协议核心解析:标准化AI工具调用的设计与实践
人工智能·大模型·mcp·ai工具调用
twc8296 小时前
大模型评估指标简要说明
算法·大模型·bleu
CoderJia程序员甲6 小时前
GitHub 热榜项目 - 日榜(2026-03-21)
人工智能·ai·大模型·github·ai教程
twc8296 小时前
需求条目化与RAG:让大模型生成测试用例真正可用的两把钥匙
软件测试·大模型·测试用例·rag
java1234_小锋15 小时前
基于LangChain的RAG与Agent智能体开发 - 使用LangChain调用聊天大模型
langchain·rag