腾讯:专家激活替代LLM在MoE的路由分配

📖标题:Autonomy-of-Experts Models

🌐来源:arXiv, 2501.13074

🌟摘要

🔸混合专家(MoE)模型主要使用路由器将令牌分配给特定的专家模块,只激活部分参数,通常优于密集模型。我们认为,路由器的决策和专家的执行之间的分离是一个关键但被忽视的问题,导致了次优的专家选择和无效的学习。

🔸为了解决这个问题,我们提出了专家自主(AoE),这是一种新的MoE范式,专家自主选择自己来处理输入。AoE基于这样一种观点,即专家意识到自己有能力有效地处理代币,这种意识反映在其内部激活的规模上。在AoE中,路由器被删除;相反,专家会预先计算输入的内部激活,并根据其激活规范进行排名。只有顶尖的专家继续前进,而其他人则放弃了。通过低秩权重因子分解减少了预计算激活的开销。这种自我评估然后进行合作伙伴比较的方法确保了改进的专家选择和有效的学习。

🔸我们预训练了具有700M到4B个参数的语言模型,证明了AoE以相当的效率优于传统的MoE模型。

🛎️文章简介

🔸研究问题:传统混合专家模型(MoE)中路由器决策与专家执行之间存在分离,导致专家选择不理想和学习效果不佳。

🔸主要贡献:论文提出了自主专家模型(AoE),通过让专家自主决定是否处理输入,解决了传统MoE模型中的专家选择问题,并在下游任务中表现出色。

📝重点思路

🔸初步实验:通过移除预训练MoE模型中的路由器,探索并验证了模型中的专家能够通过其内部激活范数处理特定输入。

🔸AoE方法开发:基于初步实验的发现,改进专家架构,提出了自主专家模型(AoE),通过让所有专家处理每个输入并缓存其内部激活,然后根据激活范数排名选择前K个专家继续处理输入,其余专家终止处理,使专家能够自主决定是否处理输入。

🔸实验验证:通过一系列消融实验和对比实验,验证AoE方法的有效性和优越性。

🔸模型训练:使用RedPajama数据集训练AoE模型,采用AdamW优化器,设置学习率、批量大小等超参数。

🔸性能评估:在多个广泛使用的任务上评估AoE模型的性能,包括零样本和三样本测试。

🔎分析总结

🔸专家选择改进:AoE模型通过专家内部激活范数进行专家选择,显著提高了专家选择的准确性和效率。

🔸下游任务表现:AoE模型在下游任务中表现优于传统MoE模型,特别是在复杂任务上表现出更强的泛化能力。

🔸负载均衡:AoE模型在负载均衡方面表现优异,减少了专家负载不均的问题。

🔸训练效率:AoE模型在训练效率上接近传统MoE模型,同时减少了内存使用和计算开销。

🔸专家自评一致性:AoE模型中的专家在训练过程中逐渐形成一致的自评标准,减少了专家选择的不确定性。

💡个人观点

论文的核心在于取消MoE的路由器,让每个专家模块自行计算输入的激活范数,以此选择是否分配。

🧩附录

相关推荐
IT_陈寒13 分钟前
SpringBoot自动配置的坑差点让我加班到天亮
前端·人工智能·后端
亿信华辰软件16 分钟前
睿治Agent数据治理平台重磅发布:数据治理大脑+全栈Agent,以AI重构数据治理全流程
大数据·人工智能
源码老李18 分钟前
独立游戏AI音乐指南:用Suno AI让游戏拥有灵魂
人工智能·游戏·ai编程
:mnong32 分钟前
AI 编程理论与实践 — 课程大纲
人工智能
Luca_kill37 分钟前
深度解析 DeerFlow:字节跳动开源的长时程 AI 超级智能体架构
人工智能·智能体·大模型应用·ai架构·deerflow
PNP Robotics1 小时前
领军军者|PNP机器人包文涛:以具身智能定义机器人的“生命直觉”
人工智能·深度学习·学习·机器学习·机器人
stereohomology1 小时前
2026年人工智能技术趋势浅度解析
人工智能
2601_958320571 小时前
【小白易懂版】OpenClaw 飞书机器人绑定配置详细教程(含安装包)
人工智能·机器人·飞书·open claw·小龙虾·open claw安装
AI创界者1 小时前
《2026 视觉革命:深度测评 GPT-Image-2,基于 DMXAPI 实现 4K 超分与批量生图实战》
人工智能
云上码厂1 小时前
2023年之前物理信息神经网络PINN papers
人工智能·深度学习·神经网络