gnn

不会&编程13 天前
论文阅读·深度学习·transformer·gnn
论文阅读:A Generalization of Transformer Networks to Graphs论文:https://arxiv.org/pdf/2012.09699.pdf 代码:https://github.com/graphdeeplearning/graphtransformer
shuaixio1 个月前
gnn·自注意力机制·mlp·vectornet·子图构建·全局图构建
【VectorNet】vectornet网络学习笔记读取轨迹和地图数据,将其转换为向量化表示对每个向量化的polyline实体,使用子图网络(MLP+GNN)进行局部子图编码,并输出局部特征
只是有点小怂3 个月前
gnn
【TORCH】torch.normal()中的size参数在 torch.normal() 函数中,size 参数用于指定生成张量的形状。torch.normal() 函数用于从正态(高斯)分布中生成随机数。函数的基本形式是:
只是有点小怂3 个月前
gnn
【PYG】Cora数据集简介Planetoid 类是 PyTorch Geometric 中用于加载和处理著名的基准数据集(如 Cora、CiteSeer 和 PubMed)的一个工具。这些数据集是文献引用网络,每个节点表示一篇论文,每条边表示论文之间的引用关系。使用 Planetoid 类可以方便地加载这些数据集,并进行必要的预处理,如特征归一化。
只是有点小怂3 个月前
gnn
【PYG】简单分析Planetoid()中存储Cora数据集边的数量你提到的边数差异可能涉及到数据的具体细节和处理方式。为了更好地理解这些差异,我们可以通过以下几个步骤来详细检查和分析 Cora 数据集中的边数据。
只是有点小怂3 个月前
gnn
【PYG】Planetoid中边存储的格式,为什么打印前十条边用edge_index[:, :10]edge_index 是 PyTorch Geometric 中常用的表示图边的张量。它通常是一个形状为 [2, num_edges] 的二维张量,其中 num_edges 表示图中边的数量。每一列表示一条边,包含两个节点的索引。
盼小辉丶4 个月前
深度学习·图神经网络·gnn
图神经网络实战(12)——图同构网络(Graph Isomorphism Network, GIN)Weisfeiler-Leman (WL) 测试提供了一个理解图神经网络 (Graph Neural Networks, GNN) 表达能力的框架,利用该框架我们比较了不同的 GNN 层,在本节中,我们将利用 WL 测试结果尝试设计比图卷积网络 (Graph Convolutional Network, GCN)、图注意力网络 (Graph Attention Networks,GAT) 和 GraphSAGE 更强大的 GNN 架构——图同构网络 (Graph Isomorphism Network,
人工智能培训咨询叶梓5 个月前
人工智能·深度学习·神经网络·机器学习·语言模型·gnn·人工智能培训
秒懂图神经网络(GNN)图神经网络(GNN)是一种深度学习模型,专门为处理图结构数据而设计。在现实世界中,许多数据都可以通过图来表示,比如社交网络中人与人之间的联系、分子结构中的原子连接等。图由顶点(或称为节点)和边组成,顶点代表实体,边代表实体之间的关系。
Karen_Yu_5 个月前
人工智能·神经网络·gin·gnn
【intro】Graph Isomorphism Network(GIN)https://arxiv.org/pdf/1810.00826图神经网络(gnn)是一种有效的图表示学习框架。gnn采用邻域聚合方案,通过递归聚合和变换相邻节点的表示向量来计算节点的表示向量。已经提出了许多GNN变体,并在节点和图分类任务上取得了最先进的结果。然而,尽管gnn彻底改变了图表示学习,但人们对其表示特性和局限性的理解有限。->一个理论框架,用来分析GNN捕获不同图结构的能力。
盼小辉丶5 个月前
pytorch·图神经网络·gnn
图神经网络实战(9)——GraphSAGE详解与实现GraphSAGE 是专为处理大规模图而设计的图神经网络 (Graph Neural Networks, GNN) 架构。在科技行业,可扩展性是推动系统增长的关键驱动力。因此,系统的设计本质上就是为了容纳数百万用户。与图卷积网络 (Graph Convolutional Network, GCN) 和图注意力网络 (Graph Attention Networks,GAT) 相比,这种能力要求从根本上改变 GNN 模型的工作方式。因此,GraphSAGE 自然成为 Uber Eats 和 Pinteres
盼小辉丶6 个月前
pytorch·深度学习·神经网络·图神经网络·gnn
图神经网络实战(6)——使用PyTorch构建图神经网络图数据集通常比简单的连接集合更加丰富,因为节点和边可以具有表示分数、颜色、单词等特征。包含这些额外信息在输入数据中对于生成最佳嵌入至关重要。由于节点和边的特征与非图数据集具有相似的结构,这意味着经典技术如神经网络可以应用于这些数据。在本节中,我们将使用 Cora 和 Facebook Page-Page 数据集,首先将它们视为表格数据集,观察香草神经网络 (vanilla neural networks) 在节点特征上的表现如何。然后,尝试在神经网络中加入拓扑信息,实现图神经网络 (Graph Neura
鲸可落8 个月前
论文阅读·人工智能·语言模型·chatgpt·llm·gnn·图对比学习
【论文阅读】LLM4GCL: CAN LARGE LANGUAGE MODEL EM-POWER GRAPH CONTRASTIVE LEARNING?图对比学习( GCL)在使用无标签数据的预训练图神经网络上被证明是有效的方法,最近几年也提出了许多新的图对比学习方法,但是,当处理文本属性图(TAGs)时表现出局限性。
一只水熊虫1 年前
人工智能·神经网络·图神经网络·gnn·因果结构
图神经网络论文笔记(一)——北邮:基于学习解纠缠因果子结构的图神经网络去偏作者 :范少华研究方向 :图神经网络论文标题 :基于学习解纠缠因果子结构的图神经网络去偏论文链接 :https://arxiv.org/pdf/2209.14107.pdf         https://doi.org/10.48550/arXiv.2209.14107
斯曦巍峨1 年前
深度学习·预训练·gnn
预训练GNN:GPT-GNN Generative Pre-Training of Graph Neural Networks本文提出了一种自监督属性图生成任务来预训练GNN,使得其能捕图的结构和语义属性。作者将图的生成分为两个部分:属性生成和边生成,即给定观测到的边,生成节点属性;给定观测到的边和生成的节点属性,生成剩余的边。通过这种方式使得模型能捕获每个节点属性和结构之间的依赖关系。对于每个节点,GPT-GNN可以同时计算其属性生成和边生成损失。另外,为了使得GPT-GNN可以处理大图,作者采用了子图采样技术,并提出自适应嵌入队列来缓解负采样带来的不准确损失。