Explainability for Large Language Models: A Survey

本文是LLM系列文章,针对《Explainability for Large Language Models: A Survey》的翻译。

大型语言模型的可解释性:综述

  • 摘要
  • [1 引言](#1 引言)
  • [2 LLM的训练范式](#2 LLM的训练范式)
  • [3 传统微调范式的解释](#3 传统微调范式的解释)
  • [4 提示范式的解释](#4 提示范式的解释)
  • [5 评估的解释](#5 评估的解释)
  • [6 研究挑战](#6 研究挑战)
  • [7 结论](#7 结论)

摘要

大型语言模型(llm)在自然语言处理方面已经展示了令人印象深刻的能力。然而,它们的内部机制仍然不清楚,这种透明度的缺乏给下游应用带来了不必要的风险。因此,理解和解释这些模型对于阐明它们的行为、局限性和社会影响至关重要。在本文中,我们介绍了可解释性技术的分类,并提供了用于解释基于Transformer的语言模型的方法的结构化概述。我们根据LLM的训练范式对技术进行分类:传统的基于微调的范式和基于提示的范式。对于每个范式,我们总结了生成个体预测的局部解释和整体模型知识的全局解释的目标和主要方法。我们还讨论了用于评估生成的解释的度量,并讨论了如何利用解释来调试模型和提高性能。最后,与传统的机器学习模型相比,我们研究了LLM时代解释技术的关键挑战和新兴机遇。

1 引言

2 LLM的训练范式

3 传统微调范式的解释

4 提示范式的解释

5 评估的解释

6 研究挑战

7 结论

在本文中,我们对LLM的可解释性技术进行了全面概述。我们总结了基于模型训练范式的局部和全局解释方法。我们还讨论了使用解释来改进模型、评估和关键挑战。未来的主要发展选择包括开发适合不同LLM的解释方法,评估解释的可信度,以及提高人类的可解释性。随着LLM的不断发展,可解释性将变得极其重要,以确保这些模型透明、公平和有益。我们希望这一调查为这个新兴的研究领域提供一个有用的组织,并突出未来工作的开放性问题。

相关推荐
RockHopper20254 分钟前
一种面向服务LLM应用系统的显式世界模型架构原理
人工智能·llm·世界模型·显式模型
tap.AI7 分钟前
(一)初识 Stable Diffusion 3.5 —— 下一代多模态架构详解
人工智能·stable diffusion
Master_oid9 分钟前
机器学习26:增强式学习(Deep Reinforcement Learn)①
人工智能·学习·机器学习
鲨莎分不晴16 分钟前
从 0 实现一个 Offline RL 算法 (以 IQL 为例)
人工智能·深度学习·机器学习
rayufo18 分钟前
深度学习图像复原论文《SwinIR: Image Restoration Using Swin Transformer》解读及其代码实现
人工智能·深度学习·transformer
万俟淋曦19 分钟前
【论文速递】2025年第42周(Oct-12-18)(Robotics/Embodied AI/LLM)
人工智能·ai·机器人·大模型·论文·robotics·具身智能
hero_heart21 分钟前
opencv和摄影测量坐标系的转换
人工智能·opencv·计算机视觉
Java后端的Ai之路28 分钟前
【分析式AI】-时间序列模型一文详解
人工智能·aigc·时间序列·算法模型·分析式ai
AI即插即用31 分钟前
即插即用系列 | CMPB PMFSNet:多尺度特征自注意力网络,打破轻量级医学图像分割的性能天花板
网络·图像处理·人工智能·深度学习·神经网络·计算机视觉·视觉检测
love530love32 分钟前
在 PyCharm 中配置 x64 Native Tools Command Prompt for VS 2022 作为默认终端
ide·人工智能·windows·python·pycharm·prompt·comfyui