OpenAI新研究破解GPT-4大脑,分解1600万个特征打开“黑匣子”,Ilya 、Jan Leike也参与了!

https://cdn.openai.com/papers/sparse-autoencoders.pdf

这份论文探讨了稀疏自编码器(SAE)在语言模型中的应用,旨在从语言模型中提取可解释的特征。论文的主要贡献包括:
1. 训练方法

  • 提出了一种训练大型稀疏自编码器的新方法,该方法能够有效地控制稀疏性,并减少"死"潜在特征的数量。
  • 使用了 TopK 激活函数,直接控制潜在特征的活跃数量,简化了模型调优,并改善了重建-稀疏性权衡。
  • 引入了辅助损失函数,用于减少"死"潜在特征的数量。
    2. 规模定律
  • 系统地研究了稀疏自编码器的规模定律,包括潜在特征数量、稀疏性和语言模型规模之间的关系。
  • 发现了清晰的规模定律,并训练了一个包含 1600 万潜在特征的 SAE,用于 GPT-4 激活。
    3. 特征质量评估
  • 引入了一系列新的指标,用于评估潜在特征的质量,包括:
    • 下游损失:评估 SAE 重建的潜在特征对语言模型行为的影响。
    • 探测损失:评估 SAE 是否能够恢复假设的特征。
    • 可解释性:评估潜在特征的激活模式是否可以解释。
    • 消融稀疏性:评估消融单个潜在特征对下游 logits 的影响是否稀疏。
  • 发现大型稀疏自编码器通常在这些指标上表现更好。
    4. TopK 激活函数
  • 解释了 TopK 激活函数如何避免激活收缩,并优于其他激活函数。
  • 研究了 TopK 激活函数的渐进恢复特性,并提出了 Multi-TopK 方法来改善其泛化能力。
    5. 未来方向
  • 讨论了稀疏自编码器的局限性,并提出了未来的改进方向,例如:
    • 使用更灵活的潜在特征数量约束。
    • 改进优化方法。
    • 研究更有效的特征质量评估指标。
    • 探索将 MoE 与自编码器结合的方法。
    • 研究 GPT-4 中发现的复杂特征。
      总结
      这份论文为训练大型稀疏自编码器并评估其特征质量提供了重要的见解和方法。稀疏自编码器在语言模型的可解释性研究中具有巨大的潜力,并为理解语言模型的内部机制提供了新的工具。
相关推荐
晚霞的不甘5 小时前
小智AI音箱:智能语音交互的未来之选
人工智能·交互·neo4j
java1234_小锋5 小时前
Transformer 大语言模型(LLM)基石 - Transformer架构介绍
深度学习·语言模型·llm·transformer
飞Link5 小时前
【网络与 AI 工程的交叉】多模态模型的数据传输特点:视频、音频、文本混合通道
网络·人工智能·音视频
yLDeveloper5 小时前
一只菜鸟学深度学习的日记:填充 & 步幅 & 下采样
深度学习·dive into deep learning
老蒋新思维5 小时前
创客匠人峰会实录:知识变现的场景化革命 —— 创始人 IP 如何在垂直领域建立变现壁垒
网络·人工智能·tcp/ip·重构·知识付费·创始人ip·创客匠人
老蒋新思维5 小时前
创客匠人峰会深度解析:智能体驱动知识变现的数字资产化路径 —— 创始人 IP 的长期增长密码
人工智能·网络协议·tcp/ip·重构·知识付费·创始人ip·创客匠人
为爱停留5 小时前
Spring AI实现RAG(检索增强生成)详解与实践
人工智能·深度学习·spring
像风没有归宿a6 小时前
2025年人工智能十大技术突破:从AGI到多模态大模型
人工智能
噜~噜~噜~6 小时前
显式与隐式欧拉法(Explicit Euler and Implicit Euler)的个人理解
深度学习·显式欧拉法·隐式欧拉法·动力学系统
深鱼~6 小时前
十分钟在 openEuler 上搭建本地 AI 服务:LocalAI 快速部署教程
人工智能