基于AIGC构建本地知识库问答 - 文本切割粒度考量

粗粒度的文本被检索出来之后给大模型参考,大模型总会被文本中的无关信息干扰; 而细粒度的文本,检索出来的信息可能不全,缺少上下文信息,导致大模型没法给出正确答案。那么在工程中如何平衡切割文本的长短呢?

一、背景

使用AIGC构建本地知识库的其中一个步骤就是切割文本(chunk),其中一个核心的参数便是控制文本切割的粒度,这直接关系到Q&A环节的回答质量。

粗粒度的文本被检索出来之后给大模型参考,大模型总会被文本中的无关信息干扰; 而细粒度的文本,检索出来的信息可能不全,缺少上下文信息,导致大模型没法给出正确答案。那么在工程中如何平衡切割文本的长短呢?

二、基本准则

首先,以你使用的Text模型的最大上下文Token为上限,比如使用GPT-4K模型,那么文本切分粒度天然限制就不能超过4K,大模型根本就无法接受超过最大Token限制的文本内容,这是上限!那么最小是多少?为了保证检索出来的信息是完整的,确保有足够的上下文,从以往的经验来看,不能少过50-100 Token吧,不然大模型也没办法给出准确的答案。

那么再100-大模型Token上限的这个范围,如何具体确定你的切割粒度?那这个又跟你的Q&A期望相关了。如果你是做检索类型的任务,期待查询的返回是500字以内的反馈,那么400-600的Token切割数量是合适的。如果是你是做总结类型的任务,那么切片要大一点比较好,比如500,1000Token数量,这样才能归纳总结的全面准确一点。

三、其它考量

  • 考虑上下文:确保即使在细粒度的文本中,也要保存足够的上下文信息。例如,如果你选择句子为单位,那么可能考虑将前后的句子也加入,形成一个段落,以便为大模型提供上下文。

  • 采用动态窗口:在检索时,可以采用动态的窗口大小,即根据检索到的关键信息动态调整文本切割的范围。这样可以确保即使在细粒度中也能提供足够的上下文。

结合多粒度策略:在检索或其他任务中,可以考虑同时使用多个文本粒度。例如,首先使用粗粒度获取大致的范围,然后在该范围内使用细粒度进一步检索。

四、总结

基于基本准则和其它考量因素,较好的办法是"调试",通过调整切割文本粒度,验证问题得出答案的准确性,匹配适合你提供的知识域的切割粒度,即不同的知识域应该给予相匹配的文本切割粒度。

相关推荐
程序员佳佳3 小时前
【万字硬核】从零构建企业级AI中台:基于Vector Engine整合GPT-5.2、Sora2与Veo3的落地实践指南
人工智能·gpt·chatgpt·ai作画·aigc·api·ai编程
草帽lufei7 小时前
OpenAI API调用实践文本分类和内容生成
openai·agent
墨风如雪8 小时前
OpenAI亮剑医疗:ChatGPT Health正式发布,你的私人健康参谋上线
aigc
Miku1610 小时前
使用 Claude Code 的 pptx-skills 技能生成精美 EVA 主题 PPT 完整指南
aigc·agent·claude
龙潜月七12 小时前
做一个背单词的脚本
数据库·windows·c#·aigc·程序那些事
REDcker12 小时前
AIGCJson 库解析行为与异常处理指南
c++·json·aigc·c
GISer_Jing14 小时前
智能体工具使用、规划模式
人工智能·设计模式·prompt·aigc
GISer_Jing14 小时前
AI Agent:学习与适应、模型上下文协议
人工智能·学习·设计模式·aigc
DebugEve14 小时前
AI 时代的减法生活:我为什么不再追逐新工具了
aigc·ai编程
贝格前端工场14 小时前
AI不是前端/UI的“终结者”,而是提升的“加速器”
aigc·前端开发·ui设计