【生成式人工智能-七-大型语言模型的可解释性】

大型语言模型的可解释性

今天我们在使用大模型的时候,通常都会说模型具有的上亿个参数,且通常是一个黑盒,根本无法用常规的思维去解释出现这些结果的原因,事实上大型语言模型真的是无法解释么,能否了解模型在想什么呢?要想了解这个问题,我们要先了解大语言模型是如何实现输出的。

语言模型是如何工作的

1.把文字变成Token

现在有一些库是可以切分Token的,一般来说一个汉字可能就是一个Token,NLTK库也是做这个事情的,每个模型会有自己的Token库

2.将Token表示成向量

具体的来说,其实就是把这些Token变成一个多维度的数组,这就叫做Embeding,这样的好处是什么,语义相近的词,可以用表示相近的Embeding,具体的做法就是查找一个Embeding表,这个Embeding表是通过一个简单的神经网络训练出来的,神经网络中的参数就是Embeding的向量。

当然这些Embeding是没有位置关系的,我们要考虑位置关系,就有了Postion Embeding,这个可以用固定的算法,也可以用算法学习出来,这些之前的文章讲过,不再赘述。可以看一下之前讲过的。https://blog.csdn.net/zishuijing_dd/article/details/136416702?spm=1001.2014.3001.5502

3.考虑上下文Attention

这些Embeding的向量没有考虑上下文的信息,但是上下文不同,同一个字的含义也可能是不同的意思,所以就有了通过Attention 来考虑上下文,并把这种关系记录到Embeding中,attention 获得的score分数越高,证明二者相关性越高,这部分也在之前的文档讲过,不再赘述。https://blog.csdn.net/zishuijing_dd/article/details/136416702?spm=1001.2014.3001.5502

4.编码器和解码器

上图是一个形象点的表示,当我们有了token的向量之后,我们就输入模型当中,模型分为Encoder和Decoder,Encoder负责处理输入,同时把生成的向量作为Decoder的输入,然后每次生成一个Token,然后 又把新生成的这个Token和Encoder的输出一起作为输入再次产生输出。最后decoder的输出就作为此次模型的输出

了解模型的整体工作流程之后,我们再次思考这个问题,语言模型无法解释体现在那些方面呢?

语言模型无法解释体现在那些方面?

  1. 参数不公开

    如上encoder和decoder的神经网络,里面的参数众多,但是大多数模型并不公布它的参数

  2. 推导出结论的思维不明确

    当我们采用Decision Tree的时候,我们可以很明确的看到得出这个结论的路径,但是这个大语言模型没有这样明确的路径

  3. 模型是个黑盒子

    模型不是开源的,根本无法知道它内部的运作原理。

但是我们是否真的就完全无法解释大语言模型了么?

答案是否定的

语言模型通过什么方法可以获得解释性

我们有两种方法可以获取这种可解释性,通过语言模型的神经网络进行分析,或者可以直接跟它对话,询问原因。

通过语言模型的神经网络进行分析

通过对语言模型的内部的网络进行分析,我们通常可以做到以下这些:

找出哪些是影响输出的关键输入

比如 遮住某些词,查找对输出的影响

举个例子来说,我们可以遮住某一些词,如果不影响其中某些词的输出,说明这个词对其中这些词不是关键输入,反之则是关键输入

分析attention weight

上面计算attention 计算出来的score越大,我们可以认为这个Token对这个输出的重要性 越大。

分析关键资料,分析Embedding的信息等等

可以把神经网络每一层的输出分析,用它作为一个一个模型的输入来进行分析,看这一层的Embeding是否能具备了词法、文法等等的能力。

直接询问语言模型

除了分析模型内部的神经网络外,现在的语言模型虽然不开源,但是我们可以直接问它,说出回复这个答案的原因。

当然也衍生出了另外一个问题,这个答案究竟是模型胡乱编造接龙出来的,还是对的呢?当然这个也有人专门研究过,比如问它,输出这个字的置信度有多少,它的答案竟然很准确,当然也有很多例子能够说明他有很多真的是胡编乱造的。

找出这些可解释性,有什么作用?

我们费劲的找出可解释的模型,有什么用么,举两个例子:

可以预估模型的能力

比如我们可以可视化模型中每层layer之间对于每个输入的attention是否在变化,如果一直都是很平均,就说明模型还没有收敛的趋势,效果就不会很好

加速模型训练

可以从中观察那些数据对于模型是关键输入,我们就可以减少attention的数量,从而加速模型训练

相关推荐
点云SLAM16 小时前
Redundant 英文单词学习
人工智能·学习·英文单词学习·雅思备考·redundant·冗余的·多余的 、重复的
爱笑的眼睛1116 小时前
SQLAlchemy 核心 API 深度解析:超越 ORM 的数据库工具包
java·人工智能·python·ai
知白守黑V16 小时前
OWASP 2025 LLM 应用十大安全风险深度解析
人工智能·安全·ai agent·ai智能体·ai应用·ai安全·大模型安全
zhaodiandiandian16 小时前
生成式AI重构内容创作生态:人机协同成核心竞争力
大数据·人工智能·重构
努力毕业的小土博^_^16 小时前
【AI课程领学】基于SmolVLM2与Qwen3的多模态模型拼接实践:从零构建视觉语言模型(一)
人工智能·深度学习·神经网络·机器学习·语言模型·自然语言处理
Lululaurel16 小时前
AI编程提示词工程实战指南:从入门到精通
人工智能·python·机器学习·ai·ai编程
财经三剑客16 小时前
东风集团股份:11月生产量达21.6万辆 销量19.6万辆
大数据·人工智能·汽车
老蒋新思维16 小时前
创客匠人峰会新解:高势能 IP 打造 ——AI 时代知识变现的十倍增长密码
大数据·网络·人工智能·tcp/ip·创始人ip·创客匠人·知识变现
Dev7z16 小时前
基于神经网络的风电机组齿轮箱故障诊断研究与设计
人工智能·深度学习·神经网络
老蒋新思维16 小时前
创客匠人峰会洞察:AI 时代教育知识变现的重构 —— 从 “刷题记忆” 到 “成长赋能” 的革命
大数据·人工智能·网络协议·tcp/ip·重构·创始人ip·创客匠人