论文略读:Uncovering Hidden Representations in Language Models

202502 arxiv

说一下主要结论吧

  • 对于下游任务,语言模型的中间层在所有架构和任务中始终优于最后一层
    • 这挑战了使用最后一层表示的传统观点。
  • 不同的架构表现出不同的信息压缩模式。自回归模型在中间层存在瓶颈,而双向模型则保持更均匀的趋势
      • BERT通过双向编码整个输入,通常在各层之间保持较高的熵值,这表明压缩较少
        • 模型可以一次看到所有的token,因此不需要丢弃太多信息
      • 只有解码器的Pythia展示出一个明显的中层熵值下降
        • 反映出其自回归目标在网络中部倾向于过滤或剪枝非本地细节
        • 因此,Pythia的"最佳状态"通常位于中间深度,在这里它平衡了必要的上下文和压缩
      • Mamba通过状态空间方法处理序列,导致其在深度上的曲线更为平坦和均匀
        • 它既不像BERT那样保持大量信息,也不像Pythia的中间层那样进行激烈的压缩
  • 较大的decoder-only模型表现出更明显的中间压缩
    • 这表明它们在提炼相关特征方面的能力增强
  • 不同Transformer子组件对于信息压缩的影响不一样
    • 通过在每个子层后测量熵值,发现残差连接驱动了中间网络压缩
      • 在残差之前的子层(例如预注意力、原始注意力或MLP预残差输出)通常表现出较轻微的压缩;它们的表示仍然保留了大部分原始变异性。
      • 残差子层则表现出明显的熵值下降,反映出显著的信息过滤。
      • ------>表明残差连接作为一种正则化器或"噪声过滤器",有助于平滑隐藏表示中的虚假成分
  • 连锁思维(CoT)微调使模型能够在整个层中保持更丰富的上下文
    • CoT微调促使模型在其隐藏层中保持更多的上下文,从而能够更好地进行多步推理
相关推荐
码农小白AI24 分钟前
AI报告审核进入技术驱动时代:IACheck如何从规则引擎走向深度学习,构建检测报告审核“技术矩阵”
人工智能·深度学习
song1502653729831 分钟前
视觉检测设备:自动识别缺陷、尺寸、瑕疵、装配错误,一键全检
人工智能·计算机视觉·视觉检测
智能化咨询34 分钟前
(163页PPT)某著名企业K3生产制造售前营销指导方案P164(附下载方式)
大数据·人工智能
Zzj_tju41 分钟前
大语言模型技术指南:SFT、RLHF、DPO 怎么串起来?对齐训练与关键参数详解
人工智能·深度学习·语言模型
金智维科技官方42 分钟前
RPA技术赋能电信运营商话单稽核:金智维如何驱动高精度自动化转型
人工智能·自动化·数字化·rpa·智能体·电信
2501_948114241 小时前
2026模型能力分化加剧:多模型聚合架构的技术解析与工程落地思考
人工智能·ai·chatgpt·架构
新知图书2 小时前
LangGraph中的记忆存储
人工智能·langgraph·智能体设计·多智能体设计
冬奇Lab2 小时前
Claude Code 实战经验分享(上篇):从启动到并发协同
人工智能·ai编程·claude
minhuan2 小时前
多SKILL协同推理:双慢病联合决策:SKILL架构下糖尿病与高血压的协同诊疗体系.147
人工智能·慢病管理智能体·多skill协同推理·skill架构分析·双慢病决策
我叫张土豆2 小时前
从 SSE 到 Streamable HTTP:AI 时代的协议演进之路
人工智能·网络协议·http