gnn

Che_Che_4 小时前
人工智能·网络安全·gnn·二进制相似度检测
Cross-Inlining Binary Function Similarity Detection注:在阅读该论文时顺便参考了作者团队的分享视频:【ICSE 2024论文预讲会-第二期-下午-哔哩哔哩】 https://b23.tv/XUVAPy3 在这个视频的末尾最后一个
litble12 天前
笔记·神经网络·信号处理·图神经网络·gnn·gcn·傅里叶变换
图神经网络(GNN)入门笔记(1)——图信号处理与图傅里叶变换时域(Time Domain)是我们生活中常见的信号表示方式,以横轴为时间,纵轴为信号该时刻的强度(幅度),就可以得到一张时域图。打个比方,通过每时每刻的震动强度可以得到音频的时域图,或者画一张每小时的车流量,或者每日的降水量的图,也是时域图。 频域(Frequency Domain)则是一种数学上描述信号的方式。在频域中,唯一存在的波形是正弦波(Sine Wave,此处指代余弦和正弦这样的简谐波总称),通过不断叠加不同周期的正弦波,我们认为我们可以拟合所有的时域信号。画成图的话,频域是横轴为频率,纵轴为
医学小达人13 天前
nlp·图神经网络·gnn·图计算·分子图分类·整图分类模型·hiv分子图分类
Python 分子图分类,GNN Model for HIV Molecules Classification,HIV 分子图分类模型;整图分类问题,代码实战一、分子图分子图(molecular graph)是一种用来表示分子结构的图形方式,其中原子被表示为节点(vertices),化学键被表示为边(edges)。对于HIV(人类免疫缺陷病毒),分子图可以用来详细描述其复杂的化学结构和相互作用,这对于理解HIV的生物学特性和开发治疗药物至关重要。
HERODING771 个月前
prompt·图论·gnn·图prompt
【论文精读】RELIEF: Reinforcement Learning Empowered Graph Feature Prompt Tuning“pre-train, prompt”的范式最近在图表征领域展现了其泛化性和数据高效性。一开始的图prompt tuning方法为GNN特定的训练策略设定,限制了其应用性,因此,通用的prompt方法通过直接将prompt输入到图的表征空间,去除了对预训练策略的依赖从而受到欢迎。然而,如何加以及加多少prompt是当前领域所存在的问题,受到NLP中充分预训练的模型处理下游任务时需要更少条件信号的启发,本文主张将必要且轻量的prompt策略性地加入到某些节点中,以增强下游任务的性能。这涉及到一个组合优化的问
Cyril_KI1 个月前
pytorch·时间序列预测·gnn·时空预测
PyTorch搭建GNN(GCN、GraphSAGE和GAT)实现多节点、单节点内多变量输入多变量输出时空预测前面已经写了很多关于时间序列预测的文章:前边已经有两篇文章讲解了如何利用PyG搭建GNN以及GNN-LSTM进行时间序列预测,这两部分内容都只是针对多变量进行预测,即将每个变量当成一个节点,然后利用皮尔逊相关系数构建变量间的邻接矩阵。
不会&编程2 个月前
论文阅读·深度学习·transformer·gnn
论文阅读:A Generalization of Transformer Networks to Graphs论文:https://arxiv.org/pdf/2012.09699.pdf 代码:https://github.com/graphdeeplearning/graphtransformer
shuaixio3 个月前
gnn·自注意力机制·mlp·vectornet·子图构建·全局图构建
【VectorNet】vectornet网络学习笔记读取轨迹和地图数据,将其转换为向量化表示对每个向量化的polyline实体,使用子图网络(MLP+GNN)进行局部子图编码,并输出局部特征
只是有点小怂5 个月前
gnn
【TORCH】torch.normal()中的size参数在 torch.normal() 函数中,size 参数用于指定生成张量的形状。torch.normal() 函数用于从正态(高斯)分布中生成随机数。函数的基本形式是:
只是有点小怂5 个月前
gnn
【PYG】Cora数据集简介Planetoid 类是 PyTorch Geometric 中用于加载和处理著名的基准数据集(如 Cora、CiteSeer 和 PubMed)的一个工具。这些数据集是文献引用网络,每个节点表示一篇论文,每条边表示论文之间的引用关系。使用 Planetoid 类可以方便地加载这些数据集,并进行必要的预处理,如特征归一化。
只是有点小怂5 个月前
gnn
【PYG】简单分析Planetoid()中存储Cora数据集边的数量你提到的边数差异可能涉及到数据的具体细节和处理方式。为了更好地理解这些差异,我们可以通过以下几个步骤来详细检查和分析 Cora 数据集中的边数据。
只是有点小怂5 个月前
gnn
【PYG】Planetoid中边存储的格式,为什么打印前十条边用edge_index[:, :10]edge_index 是 PyTorch Geometric 中常用的表示图边的张量。它通常是一个形状为 [2, num_edges] 的二维张量,其中 num_edges 表示图中边的数量。每一列表示一条边,包含两个节点的索引。
盼小辉丶5 个月前
深度学习·图神经网络·gnn
图神经网络实战(12)——图同构网络(Graph Isomorphism Network, GIN)Weisfeiler-Leman (WL) 测试提供了一个理解图神经网络 (Graph Neural Networks, GNN) 表达能力的框架,利用该框架我们比较了不同的 GNN 层,在本节中,我们将利用 WL 测试结果尝试设计比图卷积网络 (Graph Convolutional Network, GCN)、图注意力网络 (Graph Attention Networks,GAT) 和 GraphSAGE 更强大的 GNN 架构——图同构网络 (Graph Isomorphism Network,
人工智能培训咨询叶梓6 个月前
人工智能·深度学习·神经网络·机器学习·语言模型·gnn·人工智能培训
秒懂图神经网络(GNN)图神经网络(GNN)是一种深度学习模型,专门为处理图结构数据而设计。在现实世界中,许多数据都可以通过图来表示,比如社交网络中人与人之间的联系、分子结构中的原子连接等。图由顶点(或称为节点)和边组成,顶点代表实体,边代表实体之间的关系。
Karen_Yu_6 个月前
人工智能·神经网络·gin·gnn
【intro】Graph Isomorphism Network(GIN)https://arxiv.org/pdf/1810.00826图神经网络(gnn)是一种有效的图表示学习框架。gnn采用邻域聚合方案,通过递归聚合和变换相邻节点的表示向量来计算节点的表示向量。已经提出了许多GNN变体,并在节点和图分类任务上取得了最先进的结果。然而,尽管gnn彻底改变了图表示学习,但人们对其表示特性和局限性的理解有限。->一个理论框架,用来分析GNN捕获不同图结构的能力。
盼小辉丶7 个月前
pytorch·图神经网络·gnn
图神经网络实战(9)——GraphSAGE详解与实现GraphSAGE 是专为处理大规模图而设计的图神经网络 (Graph Neural Networks, GNN) 架构。在科技行业,可扩展性是推动系统增长的关键驱动力。因此,系统的设计本质上就是为了容纳数百万用户。与图卷积网络 (Graph Convolutional Network, GCN) 和图注意力网络 (Graph Attention Networks,GAT) 相比,这种能力要求从根本上改变 GNN 模型的工作方式。因此,GraphSAGE 自然成为 Uber Eats 和 Pinteres
盼小辉丶8 个月前
pytorch·深度学习·神经网络·图神经网络·gnn
图神经网络实战(6)——使用PyTorch构建图神经网络图数据集通常比简单的连接集合更加丰富,因为节点和边可以具有表示分数、颜色、单词等特征。包含这些额外信息在输入数据中对于生成最佳嵌入至关重要。由于节点和边的特征与非图数据集具有相似的结构,这意味着经典技术如神经网络可以应用于这些数据。在本节中,我们将使用 Cora 和 Facebook Page-Page 数据集,首先将它们视为表格数据集,观察香草神经网络 (vanilla neural networks) 在节点特征上的表现如何。然后,尝试在神经网络中加入拓扑信息,实现图神经网络 (Graph Neura
鲸可落10 个月前
论文阅读·人工智能·语言模型·chatgpt·llm·gnn·图对比学习
【论文阅读】LLM4GCL: CAN LARGE LANGUAGE MODEL EM-POWER GRAPH CONTRASTIVE LEARNING?图对比学习( GCL)在使用无标签数据的预训练图神经网络上被证明是有效的方法,最近几年也提出了许多新的图对比学习方法,但是,当处理文本属性图(TAGs)时表现出局限性。
一只水熊虫1 年前
人工智能·神经网络·图神经网络·gnn·因果结构
图神经网络论文笔记(一)——北邮:基于学习解纠缠因果子结构的图神经网络去偏作者 :范少华研究方向 :图神经网络论文标题 :基于学习解纠缠因果子结构的图神经网络去偏论文链接 :https://arxiv.org/pdf/2209.14107.pdf         https://doi.org/10.48550/arXiv.2209.14107
斯曦巍峨1 年前
深度学习·预训练·gnn
预训练GNN:GPT-GNN Generative Pre-Training of Graph Neural Networks本文提出了一种自监督属性图生成任务来预训练GNN,使得其能捕图的结构和语义属性。作者将图的生成分为两个部分:属性生成和边生成,即给定观测到的边,生成节点属性;给定观测到的边和生成的节点属性,生成剩余的边。通过这种方式使得模型能捕获每个节点属性和结构之间的依赖关系。对于每个节点,GPT-GNN可以同时计算其属性生成和边生成损失。另外,为了使得GPT-GNN可以处理大图,作者采用了子图采样技术,并提出自适应嵌入队列来缓解负采样带来的不准确损失。