【Text2SQL 论文】C3:使用 ChatGPT 实现 zero-shot Text2SQL

论文:C3: Zero-shot Text-to-SQL with ChatGPT

⭐⭐⭐⭐

arXiv:2307.07306,浙大

Code:C3SQL | GitHub

一、论文速读

使用 ChatGPT 来解决 Text2SQL 任务时,few-shots ICL 的 setting 需要输入大量的 tokens,这有点昂贵且可能实际不可行。因此,本文尝试在 zero-shot 的 setting 下来解决 Text2SQL 问题。

本文提出了 C3 来基于 ChatGPT zero-shot 去做 Text2SQL,实现了 1000 tokens per query 下优于 fine-tuning-based methods。

二、C3

C3 由三个关键组件构成:Clear Prompts(CP )、Calibration with Hints(CH )、Consistency Output(CO),分别对应着模型输入、模型偏差和模型输出。

2.1 Clear Prompts 组件

Clear Prompts(CP)组件的目标是为 ChatGPT 解决 Text2SQL 任务构建一个有效的 prompt。它由两部分组成:Clear Layout 和 Clear Context。

2.1.1 Clear Layout

在 Text2SQL 中,有两种 prompt layout 的 styles:

  • 类型 1:Complicated Layout:这种类型的 prompt 直接将 instruction、question 和 context 拼接起来,看起来较为杂乱,如下图的 (a) 所示
  • 类型 2:Clear Layout:这种类型的 prompt 使用一个明显的分隔符将 instruction、question 和 context 分开,看起来更加清晰,如下图的 (b) 所示

论文指出,从直觉和实验上,都证明了 clear layout 能产生更好的表现。因此本文主要使用改进后的 clear layout。

但是,论文发现直接使用上图的 (b) 作为 prompt 会在生成的 SQL 中产生冗余的 columns,为了解决这个问题,论文在 instruction 部分后面加了一句:and do not select extra columns that are not explicitly requested in the query

2.1.2 Clear Context

论文指出,在 prompt context 中包含整个 db schema 会导致两个问题:

  1. 在 prompt 引入过多的不相关 schema items 会让 ChatGPT 生成 SQL 时增加不相关 items 的 likelihood。
  2. 使用完整的 db schema 会让文本长度过大,导致不必要的 API tokens 开销

为此,论文提出需要先进行 schema linking 以召回相关的 tables 和 columns,并只将相关的信息放入 prompt context 中。

本文提出了一个 ChatGPT-based zero-shot 的 schema linking 的方法,分成两步:

  • Table Recall:使用一个 prompt 让 ChatGPT 召回相关 tables
  • Column Recall:基于 table recall 的结果,使用 prompt 让 ChatGPT 进一步召回相关 columns

Table Recall 的 prompt 示例如下:

Column Recall 的 prompt 示例如下:

2.2 Calibration with Hints 组件

论文通过分析生成的 SQL query,发现了几个由于 ChatGPT 固有的 biases 造成的 errors:

  • Bias 1 :ChatGPT 在 output 中倾向于保守,SELECT 语句中经常出现与问题相关但不是必需的列。而且在涉及到数量问题时尤为明显。比如下图的左边第一个问题,COUNT(*) 仅用于排序,但 ChatGPT 在 SELECT 中也将其输出了。
  • Bias 2:ChatGPT 编写 SQL 时倾向于使用 LEFT JOIN、OR、IN,但经常无法正确使用它们。这种 bias 通常会导致执行结果中出现额外的值。

为了校准这些 bias,论文使用一个单独的组件来实施校准策略:Calibration with Hints(CH)。

论文通过将用于修正 Bias 的先验知识注入到与 ChatGPt 的历史对话中。在对话 history 中,我们让 ChatGPT 认为自己是一个优秀的 SQL 编写器,并引导它去遵循我们提出的 debias hints:

  • Hint 1:针对第一个 bias,这里设计了一个 tip 去指导 ChatGPT 只选择必要的 columns
  • Hint 2:针对第二个 bias,这里设计了一个 tip 来防止 ChatGPT 滥用一些 SQL 关键字。如下图所示,prompt 中直接要求 ChatGPT 尽量避免使用 LEFT JOIN、IN、OR,而使用 JOIN 和 INSERSECT,而且在适当时使用 DISTINCT 或 LIMIT,来避免重复的执行结果。

如下是一个示例:

2.3 Consistency Output 组件

由于 LLM 固有的随机性,ChatGPT 的输出是不稳定的。这里将 Text2SQL 也视为 reasoning 问题,于是使用 self-consistency 思想来提高效果。

论文提出了一个 execution-based self-consistency for Text2SQL 方法,封装为这里的 Consistency Output(CO)组件,用于选择 LLM 生成的 SQL。

这里的思想是,让 LLM 通过多个推理路径来生成多个 SQL answers,然后移除掉其中 execution error 的 SQL,并对剩余的 SQL 进行投票,从而选出最终的答案

2.4 总结

C3 的整体框架如下:

三、实验

论文在 Spider 数据集上使用 Execution Accuracy(EX)作为指标来测试。

整体上的实验发现,C3 在 Spider 测试集上优于所有传统的基于微调的方法,在 Spider 排行榜上排名第二。与 top-1 方法的 few-shots settings 的 DIN-SQL 相比,只使用了约 10% 的 token 数量,而且这里使用的 GPT-3.5 在成本上也低于 DIN-SQL 使用的 GPT-4。所以,C3 方法更加预算友好

此外,论文还做了不少的消融实验,总结了 error cases 的分析,具体可参考原论文。

四、总结

本文提出的 C3 基于 ChatGPT 实现了 zero-shot Text2SQL,并取得了 zero-shot 的最好性能。

C3 从模型输入、模型偏差和模型输出三个角度为基于 GPT 的 Text2SQL 提供了系统的处理方法。这些方法值得后面的研究来参考。

相关推荐
郭wes代码5 分钟前
Cmd命令大全(万字详细版)
python·算法·小程序
scan72420 分钟前
LILAC采样算法
人工智能·算法·机器学习
leaf_leaves_leaf22 分钟前
win11用一条命令给anaconda环境安装GPU版本pytorch,并检查是否为GPU版本
人工智能·pytorch·python
夜雨飘零127 分钟前
基于Pytorch实现的说话人日志(说话人分离)
人工智能·pytorch·python·声纹识别·说话人分离·说话人日志
菌菌的快乐生活40 分钟前
理解支持向量机
算法·机器学习·支持向量机
爱喝热水的呀哈喽43 分钟前
《机器学习》支持向量机
人工智能·决策树·机器学习
大山同学1 小时前
第三章线性判别函数(二)
线性代数·算法·机器学习
minstbe1 小时前
AI开发:使用支持向量机(SVM)进行文本情感分析训练 - Python
人工智能·python·支持向量机
月眠老师1 小时前
AI在生活各处的利与弊
人工智能
axxy20001 小时前
leetcode之hot100---240搜索二维矩阵II(C++)
数据结构·算法