(ICLR 2019)APPNP传播用 PageRank,不用神经网络!

论文阅读:

https://arxiv.org/pdf/1810.05997

本篇文章核心贡献可以用一句话来总结把 GNN 的 message passing 解耦,先用 MLP 做预测,再用 Personalized PageRank (PPR) 把预测在图上扩散

这句核心话是什么意思?

传统 GNN = "学习 + 传播" 绑在一起,而APPNP = "学习(MLP)" 和 "传播(PPR)" 分开做。传统 GNN 的邻居传播为: ,特征变换为:,神经网络学习权重为:,这就意味着学习和传播是捆绑在一起的,每加一个 GCN 层,就是再做一次:邻居传播、参数学习、非线性激活;这也就导致了如果想扩大邻域,就只能"加层",但加层会导致oversmoothing、训练难、参数多。

而APPNP 解决了 GCN 的两个大痛点:

  • GCN 层数一深就 oversmoothing(节点表示变得一样)。随着层数深 → 相当于不断做邻居平均(Laplacian smoothing), 层数太深 → 所有节点 embedding 趋于一样, 这称为 oversmoothing。
  • GCN 的可用层数通常只有 2--3 层,因此GCN 只能看到很小的邻域(2-hop)。
  • GCN 想扩大感受野必须加层、参数变多、训练变难。

如何解决问题?

GCN 的传播本质是 random walk,随机游走走太远就会变成全图 stationary distribution(与起点无关)。 为解决这个问题,论文把 random walk 换成Personalized PageRank (PPR):

本质上加了"回跳(teleport)"机制,以 (1−α) 的概率走向邻居,以 α 的概率跳回根节点 i,**PPR 即使传播无限次,仍然保持节点的"个性化中心性",不会失焦,**这正好解决 GCN 的 oversmoothing!

APPNP真正被使用的模型

用 Power Iteration(幂迭代)近似 PPR:

参考:

https://blog.csdn.net/fnoi2014xtx/article/details/107567629

https://blog.csdn.net/gitblog_00008/article/details/139916344

相关推荐
wxdlfkj6 小时前
基于LTP高精度激光位移传感与自适应图像处理的零部件表面微损伤非接触检测系统解决方案
人工智能·深度学习·计算机视觉
小真zzz6 小时前
2025–2026年度AIPPT工具排行榜:ChatPPT VS Gamma VS Beautiful.ai VS Tome VS 笔灵PPT
人工智能·powerpoint·ppt·aippt
深度之眼6 小时前
Nature:物理信息深度学习前沿创新思路
人工智能·深度学习·pinn
自然语6 小时前
三维场景管理类位姿抖动优化计划
人工智能·数码相机·算法
柠萌f6 小时前
易元AI 2026 升级:让投放素材生产流,更智能、更规模化
人工智能
智界前沿6 小时前
告别随机生成!AIGC 视频广告级精度为工业视频注入可视化新动能
人工智能·aigc
大模型实验室Lab4AI6 小时前
从 0 到 1 落地智能家居 AI 交互:LLaMA Factory & Qwen3-4B 微调实战指南
人工智能·microsoft
程序员老周6666 小时前
10.一文学会GPU与cuda原理,并从其原理来理解FlashAttention
人工智能·深度学习·语言模型·大模型·transformer·gpu算力·cuda
RockHopper20256 小时前
工业AMR场景融合设计原理5——约束体系的价值
人工智能·系统架构·智能制造·具身智能·amr·工业amr
AI工具测评大师6 小时前
怎么有效降低英文文本的GPTZero AI检测率?3步有效降低AI率方法与工
人工智能·深度学习·自然语言处理·ai写作·ai自动写作