【不利用外界知识克服大模型的幻觉】Zero-knowledge LLM hallucination detection and mitigation

背景

LLM 能力强,但会"幻觉":大语言模型虽然表现优异,但经常生成听起来合理却事实错误的内容,这被称为"幻觉"(hallucination)。

风险高:在企业或关键应用中,这种错误可能带来严重后果。

研究目标

开发一个集成检测与修正的系统,不依赖外部知识源(如搜索引擎或数据库),就能识别并修正幻觉内容。

方法

他们提出了一个叫做 FINCH-ZK 的黑箱框架,核心有两个创新点:

  1. 跨模型一致性检查(Cross-model consistency):
    用多个不同的模型生成对同一问题的回答。
    比较这些回答之间的差异,找出不一致的地方,从而识别可能的幻觉。
  2. 精准修正(Targeted mitigation):
    不整段重写回答,而是只修改有问题的部分。
    保持正确内容不变,提升整体准确性。

对方法的具体解释

1. 跨模型一致性检查

  1. 生成 prompt 变体:

    原 prompt → 改写/扩写/拆解成 7 条语义等价但措辞不同的 prompt

    【补充解释】"专用廉价模型" 一次性离线生成,不再经过 Claude / Llama / DeepSeek 这些"考生模型"。

  2. 交叉采样:
    相同的种子数,就会得到相同的十对数据

    4 个模型 × 7 条 prompt → 最多 28 条回答,轮询顺序取 10 条作为样本集 S

    【补充解释】4*7=28条,取其中的10条,这10条怎么得来的?固定随机数种子,用固定的算法得到

    【"轮询顺序"就是:洗牌一次,然后按序号循环拿 prompt 和模型,10 行代码就能跑出永远相同的 10 条样本集 S】

  • 解释1:
    4个模型是什么?4个模型是采样器,可以包括考生模型
  • 解释2:
    10条怎么得来的?
    如图

  1. 分块:
    把目标模型(例如 Claude 4)的回答 rT 按句子切成块 B = {b1,...,b11}
    【补充解释】
  1. 打擂台:

    对每个块 bi,让"评委模型"J(便宜快速的 Claude 3-Haiku)把它与 10 条样本逐块对比,输出ACCURATE / NEUTRAL / CONTRADICTION

    【补充解释】

  2. 加权投票:

    给 CONTRADICTION 权重 4,ACCURATE 权重 2,NEUTRAL 权重 1,算出 bi 的幻觉分数。

    分数 > 0.67 就标为"幻觉块",并生成一句错误摘要 ei

    【补充解释】

结论

多数可以抵消幻觉

2. 精准修正(Targeted mitigation)方法

目标回答 rT

↓ 句子切分

{b1,b2...bk}

↓ 逐块 vs 样本集 S 投票

标记幻觉块 bi

↓ 1. 块级修正

生成 bi′

↓ 2. 拼接

得到 r′

↓ 3. 跨模型润色

参考 S 生成最终 r″

相关推荐
FserSuN1 小时前
论文学习《ReAct: 在大语言模型中协同推理与行动》
语言模型
zhangfeng11332 小时前
LLM 大语言模型 训练的时候 batchsize 调整大导致梯度爆炸问题解决
深度学习·机器学习·语言模型
Xpower 172 小时前
Clawith:开启多智能体协作的新纪元
人工智能·python·语言模型·自动化
AI浩3 小时前
引导多模态大语言模型用于弱监督类无关物体计数
人工智能·语言模型·自然语言处理
Xpower 173 小时前
OpenClaw实战:从零开发电商小程序(2)
人工智能·语言模型·小程序·gateway
斯班奇的好朋友阿法法15 小时前
在企业的离线内网环境的服务器部署openclaw和大模型
服务器·语言模型
jinanwuhuaguo1 天前
OpenClaw字节跳动的三只不同的claw龙虾飞书妙搭 OpenClaw、ArkClaw、扣子 OpenClaw 核心区别深度解析
人工智能·语言模型·自然语言处理·visual studio code·openclaw
bestadc1 天前
Hello-Agents 第三章 大语言模型基础 学习笔记
笔记·学习·语言模型
前端摸鱼匠1 天前
面试题6:因果掩码(Causal Mask)在Decoder中的作用是什么?训练、推理阶段如何使用?
人工智能·ai·语言模型·自然语言处理·面试
shangjian0072 天前
AI-大语言模型-模型训练-数据集1-总述
人工智能·机器学习·语言模型