【生成式人工智能-七-大型语言模型的可解释性】

大型语言模型的可解释性

今天我们在使用大模型的时候,通常都会说模型具有的上亿个参数,且通常是一个黑盒,根本无法用常规的思维去解释出现这些结果的原因,事实上大型语言模型真的是无法解释么,能否了解模型在想什么呢?要想了解这个问题,我们要先了解大语言模型是如何实现输出的。

语言模型是如何工作的

1.把文字变成Token

现在有一些库是可以切分Token的,一般来说一个汉字可能就是一个Token,NLTK库也是做这个事情的,每个模型会有自己的Token库

2.将Token表示成向量

具体的来说,其实就是把这些Token变成一个多维度的数组,这就叫做Embeding,这样的好处是什么,语义相近的词,可以用表示相近的Embeding,具体的做法就是查找一个Embeding表,这个Embeding表是通过一个简单的神经网络训练出来的,神经网络中的参数就是Embeding的向量。

当然这些Embeding是没有位置关系的,我们要考虑位置关系,就有了Postion Embeding,这个可以用固定的算法,也可以用算法学习出来,这些之前的文章讲过,不再赘述。可以看一下之前讲过的。https://blog.csdn.net/zishuijing_dd/article/details/136416702?spm=1001.2014.3001.5502

3.考虑上下文Attention

这些Embeding的向量没有考虑上下文的信息,但是上下文不同,同一个字的含义也可能是不同的意思,所以就有了通过Attention 来考虑上下文,并把这种关系记录到Embeding中,attention 获得的score分数越高,证明二者相关性越高,这部分也在之前的文档讲过,不再赘述。https://blog.csdn.net/zishuijing_dd/article/details/136416702?spm=1001.2014.3001.5502

4.编码器和解码器

上图是一个形象点的表示,当我们有了token的向量之后,我们就输入模型当中,模型分为Encoder和Decoder,Encoder负责处理输入,同时把生成的向量作为Decoder的输入,然后每次生成一个Token,然后 又把新生成的这个Token和Encoder的输出一起作为输入再次产生输出。最后decoder的输出就作为此次模型的输出

了解模型的整体工作流程之后,我们再次思考这个问题,语言模型无法解释体现在那些方面呢?

语言模型无法解释体现在那些方面?

  1. 参数不公开

    如上encoder和decoder的神经网络,里面的参数众多,但是大多数模型并不公布它的参数

  2. 推导出结论的思维不明确

    当我们采用Decision Tree的时候,我们可以很明确的看到得出这个结论的路径,但是这个大语言模型没有这样明确的路径

  3. 模型是个黑盒子

    模型不是开源的,根本无法知道它内部的运作原理。

但是我们是否真的就完全无法解释大语言模型了么?

答案是否定的

语言模型通过什么方法可以获得解释性

我们有两种方法可以获取这种可解释性,通过语言模型的神经网络进行分析,或者可以直接跟它对话,询问原因。

通过语言模型的神经网络进行分析

通过对语言模型的内部的网络进行分析,我们通常可以做到以下这些:

找出哪些是影响输出的关键输入

比如 遮住某些词,查找对输出的影响

举个例子来说,我们可以遮住某一些词,如果不影响其中某些词的输出,说明这个词对其中这些词不是关键输入,反之则是关键输入

分析attention weight

上面计算attention 计算出来的score越大,我们可以认为这个Token对这个输出的重要性 越大。

分析关键资料,分析Embedding的信息等等

可以把神经网络每一层的输出分析,用它作为一个一个模型的输入来进行分析,看这一层的Embeding是否能具备了词法、文法等等的能力。

直接询问语言模型

除了分析模型内部的神经网络外,现在的语言模型虽然不开源,但是我们可以直接问它,说出回复这个答案的原因。

当然也衍生出了另外一个问题,这个答案究竟是模型胡乱编造接龙出来的,还是对的呢?当然这个也有人专门研究过,比如问它,输出这个字的置信度有多少,它的答案竟然很准确,当然也有很多例子能够说明他有很多真的是胡编乱造的。

找出这些可解释性,有什么作用?

我们费劲的找出可解释的模型,有什么用么,举两个例子:

可以预估模型的能力

比如我们可以可视化模型中每层layer之间对于每个输入的attention是否在变化,如果一直都是很平均,就说明模型还没有收敛的趋势,效果就不会很好

加速模型训练

可以从中观察那些数据对于模型是关键输入,我们就可以减少attention的数量,从而加速模型训练

相关推荐
吃个糖糖7 分钟前
34 Opencv 自定义角点检测
人工智能·opencv·计算机视觉
禁默8 分钟前
2024年图像处理、多媒体技术与机器学习
图像处理·人工智能·microsoft
KeepThinking!14 分钟前
YOLO-World:Real-Time Open-Vocabulary Object Detection
人工智能·yolo·目标检测·多模态
AIGCmagic社区18 分钟前
AI多模态技术介绍:理解多模态大语言模型的原理
人工智能·语言模型·自然语言处理
图王大胜25 分钟前
模型 双螺旋(通俗解读)
人工智能·管理·系统科学·认知科学·生命科学·战略规划·通识科学
dwjf32143 分钟前
机器学习(四)-回归模型评估指标
人工智能·机器学习·线性回归
吕小明么1 小时前
OpenAI o3 “震撼” 发布后回归技术本身的审视与进一步思考
人工智能·深度学习·算法·aigc·agi
算力魔方AIPC2 小时前
Meta重磅发布Llama 3.3 70B:开源AI模型的新里程碑
人工智能·llama
CSBLOG2 小时前
深度学习试题及答案解析(一)
人工智能·深度学习
四口鲸鱼爱吃盐2 小时前
Pytorch | 利用VMI-FGSM针对CIFAR10上的ResNet分类器进行对抗攻击
人工智能·pytorch·python