论文略读:ASurvey of Large Language Models for Graphs

2024 KDD

  • 归纳了四种主要的graph+大模型
    • GNNs as Prefix
    • LLMs as Prefix
    • LLMs-Graphs Integration
    • LLMs-Only

1 GNNs as Prefix

1.1 节点级 Token 化

  • 将图结构中的每个节点单独输入到 LLM 中
  • 使 LLM 能够深入理解细粒度的节点级结构信息,并准确辨别不同节点间的关联与差异
  • 最大限度地保留每个节点的特有结构特征

1.2 图级 Token 化

  • 将graph综合成一个统一的图表示,喂给大模型

2 LLMs as Prefix

2.1 LLM作为嵌入器

  • 借助大模型在语言总结和建模方面的卓越能力,为 GNNs 生成富有意义和效果的嵌入,从而提升其训练效果

2.2 LLM作为label

  • LLM生成的信息不直接作为 GNNs 的输入数据,而是构成了更为精细的优化监督信号

3 LLMs-Graphs Intergration

3.1 GNNs 与 LLMs 的融合

  • 通常 GNNs 专注于处理结构化数据,而 LLMs 则擅长处理文本数据,这导致两者具有不同的特征空间
  • 为了解决这一问题,并促进两种数据模态对 GNNs 和 LLMs 学习的共同增益,一些方法采用对比学习或期望最大化(EM)迭代训练等技术,以对齐两个模型的特征空间

3.2 GNNs 与 LLMs 之间的对齐

  • 尽管表示对齐实现了两个模型的共同优化和嵌入级别的对齐,但在推理阶段它们仍是独立的
  • 为了实现 LLMs 和 GNNs 之间更紧密的集成,一些研究聚焦于设计更深层次的模块架构融合,例如将 LLMs 中的变换器层与 GNNs 中的图神经层相结合
  • 通过共同训练 GNNs 和 LLMs,可以在图任务中为两个模块带来双向的增益

3.3 基于LLM的图agent

  • 构建基于 LLMs 的自主智能体,以处理人类给出的或与研究相关的任

4 LLMs-only

4.1 无需微调的方法

设计 LLMs 能够理解的prompt

4.2 需要微调的方法

将图转换为特定方式的序列,并通过微调方法对齐图 token 序列和自然语言 token 序列

5 未来研究方向

5.1 多模态图与大型语言模型(LLMs)的融合

5.2 提升效率与降低计算成本

5.3 应对多样化的图任务

5.4 构建用户友好的图智能体

相关推荐
郝学胜-神的一滴2 分钟前
深度学习:CNN 与 RNN——解锁多模态处理能力
人工智能·python·rnn·深度学习·神经网络·cnn
CoderJia程序员甲5 分钟前
GitHub 热榜项目 - 日榜(2026-02-28)
人工智能·ai·大模型·github·ai教程
3DVisionary7 分钟前
汽车玻璃曲面偏差难控?蓝光3D扫描仪精准把关整车装配面差
人工智能·数码相机·计算机视觉·热失控·xtdic·xtom·动力电池测试
DevSecOps选型指南9 分钟前
直击AI全生命周期安全治理,悬镜正式发布原创多模态AIST新品
人工智能·安全·自然语言处理
jason_renyu9 分钟前
Windows平台高权限软件安全运行指南:虚拟机VMware与系统沙箱完整配置教程
人工智能·openclaw·windows安装虚拟机·vmware安装配置·windows沙箱使用说明
无心水14 分钟前
【OpenClaw:实战部署】6、一触即达:OpenClaw 统一接入飞书/钉钉/WhatsApp,打造你的随身AI指挥中心
人工智能·钉钉·飞书
颇有几分姿色14 分钟前
算力调度平台(四):训练项目容器化,构建专属训练镜像
人工智能
智能交通技术18 分钟前
iTSTech:世界模型的发展——在自动驾驶中的应用 2026
人工智能·机器学习·自动驾驶
爱打代码的小林18 分钟前
基于 Qwen2.5-1.5B 模型实现电影评论情感分类
人工智能·大模型
智算菩萨19 分钟前
元推理(Meta-Reasoning):让模型学会判断何时需要更深思考
人工智能·深度学习·机器学习·ai