大模型知识之幻觉

文章目录

上一轮工业革命已成历史,
这一轮智能革命正在眼前。
这一次,不做旁观者,做深度参与者。
关注我,一起学习大模型。

一、原理基础-何为幻觉

模型生成看似合理、连贯,但事实上不准确或完全虚假的信息。它不是"胡说八道",而是"一本正经地胡说八道"。

比如你问他天气怎么样?

他回复你今天天气晴朗,温度在20-25度之间,体感舒服,建议去户外走走。

你兴高采烈的打开门,发现外面瓢泼大雨。

作为人类,针对"今天天气晴朗,温度在20-25度之间,体感舒服,建议去户外走走。"这句话来说,人类可以判断这句话语法毫无问题,流畅自然,但实际上,它的内容完全是错的。

因为它所吐出的答案是模型在"内部模式"驱动下产生的虚构,类似于人类的"想象"或"错觉",所以叫幻觉。

二、幻觉的类型

上面的例子可以归为事实性幻觉,其他类型还有

  1. 事实性幻觉:捏造事实、日期、数据、引用不存在的论文等。
  2. 输入矛盾幻觉:生成与提供的输入信息相悖的内容。
  3. 逻辑/任务幻觉:在推理步骤中引入错误,或未能忠实遵循指令。

三、根本原因是什么

  1. 模型本质:大语言模型是"下一个词预测器 ",其目标是生成概率上最可能/流畅的文本,而不是追求真实性
  2. 知识局限:训练数据不完整、存在偏见或过时。
  3. 提示与语境:模糊、矛盾的指令或过长的上下文会诱发幻觉。

四、怎么解决

不好解决,因为它本身的机制就是"下一个词预测器 ",只能在一定范围内去控制
1. 预防阶段:

  • 提示工程:明确指令("请仅根据以下信息回答")、提供上下文、要求标注不确定性。
  • 思维链/分步:要求模型展示推理过程,便于人类检查逻辑漏洞。

2. 增强阶段:

  • 检索增强生成(RAG):为模型实时注入来自权威知识库的准确信息,从根本上减少"无中生有"。这是最有效、最主流的工程解决方案。所以知识库很重要

3. 事后检查:

  • 外部验证:对关键输出进行人工或自动化的事实核查、交叉验证。
相关推荐
renhongxia11 天前
ORACLE-SWE:量化Oracle 信息信号对SWE代理的贡献
人工智能·深度学习·学习·语言模型·分类
跟着狗蛋学安全1 天前
Windows本地大语言模型部署
人工智能·语言模型·自然语言处理
老刘说AI2 天前
Coze:从入门到精通
人工智能·低代码·语言模型·开放原子·知识图谱·持续部署
大囚长2 天前
大语言模型作为语种民族文明压缩镜像的映射特性分析
人工智能·深度学习·语言模型
新缸中之脑2 天前
大语言模型维基模式
人工智能·语言模型·自然语言处理
小超同学你好2 天前
面向 LLM 的程序设计 9:系统提示中的「能力边界」——减少越权与幻觉调用
人工智能·深度学习·语言模型
WJX_KOI2 天前
MemOS —— 为大语言模型 (LLMs) 和智能体打造的记忆操作系统。
java·人工智能·语言模型
小白狮ww2 天前
3 秒出全纹理!TRELLIS.2 实现单图生成高分辨率 3D 资产
图像处理·人工智能·3d·语言模型·微软·开源·3d内容生成
前端摸鱼匠2 天前
【AI大模型春招面试题18】 L1、L2正则化、Dropout、早停(Early Stopping)的原理与适用场景?
人工智能·ai·语言模型·面试·大模型
十三画者2 天前
【文献分享】DrugFormer:一种基于图结构增强的语言模型,用于预测药物敏感性
人工智能·语言模型·自然语言处理