5、Pytorch 实现简单图卷积GCN,数据集Cora分类任务

cora数据集- 下载地址

https://linqs-data.soe.ucsc.edu/public/lbc/cora.tgz

1、Cora数据集是什么?

Cora 数据集由 2708 篇科学出版物组成,分为七类之一。

引文网络由 5429 个链接组成。

数据集中的每个出版物都由一个 0/1 值的单词向量描述,表示字典中不存在/存在相应的单词。该词典由 1433 个独特的单词组成。

数据集下有两个文件

cora.cites

cora.cites共5429行, 每一行有两个论文编号,表示第一个编号的论文先写,第二个编号的论文引用第一个编号的论文。

cora.content

cora.content共有2708行,每一行代表一个样本点,即一篇论文。如下所示,每一行由三部分组成,分别是论文的编号,如31336;论文的词向量,一个有1433位的二进制;论文的类别,如Neural_Networks。

下面分别截图给大家看一下

2、python代码查看Cora形式

首先我们来看看数据集的形式,输出一下

复制代码
from torch_geometric.datasets import Planetoid

# 加载Cora数据集
dataset = Planetoid(root='data/Cora', name='Cora')
data = dataset[0]  # 获取图数据

print("数据集信息:")
print(f"节点数: {data.num_nodes}")
print(f"边数: {data.num_edges}")
print(f"类别数: {dataset.num_classes}")
print(f"特征维度: {dataset.num_node_features}")

那么执行的输出情况如下:

3、实现GCN

不说废话,直接放代码

我这里直接写成了一万伦次,大家根据设备可以调整。

复制代码
import torch
import torch.nn.functional as F
from torch_geometric.nn import GCNConv
from torch_geometric.datasets import Planetoid

# 检查 CUDA 是否可用
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

# 加载Cora数据集
dataset = Planetoid(root='data/Cora', name='Cora')
data = dataset[0].to(device)  # 将图数据移动到 CUDA 设备

class GCN(torch.nn.Module):
    def __init__(self, in_channels, hidden_channels, out_channels):
        super(GCN, self).__init__()
        self.conv1 = GCNConv(in_channels, hidden_channels)
        self.conv2 = GCNConv(hidden_channels, out_channels)

    def forward(self, x, edge_index):
        # 第一层卷积 + ReLU
        x = F.relu(self.conv1(x, edge_index))
        # 第二层卷积 + LogSoftmax
        x = self.conv2(x, edge_index)
        return F.log_softmax(x, dim=1)

# 初始化模型并将其移动到 CUDA 设备
model = GCN(dataset.num_node_features, 16, dataset.num_classes).to(device)
optimizer = torch.optim.Adam(model.parameters(), lr=0.01, weight_decay=5e-4)

def train():
    model.train()
    optimizer.zero_grad()
    out = model(data.x, data.edge_index)  # 前向传播
    loss = F.nll_loss(out[data.train_mask], data.y[data.train_mask])  # 计算损失
    loss.backward()
    optimizer.step()
    return loss.item()

def test():
    model.eval()
    out = model(data.x, data.edge_index)
    pred = out.argmax(dim=1)  # 预测类别
    accs = []
    for mask in [data.train_mask, data.val_mask, data.test_mask]:
        correct = (pred[mask] == data.y[mask]).sum()
        acc = int(correct) / int(mask.sum())
        accs.append(acc)
    return accs

# 训练过程
# 根据自己情况,修改训练epoch
for epoch in range(10000):
    loss = train()
    train_acc, val_acc, test_acc = test()
    if epoch % 10 == 0:
        print(f"Epoch: {epoch}, Loss: {loss:.4f}, Train Acc: {train_acc:.4f}, Val Acc: {val_acc:.4f}, Test Acc: {test_acc:.4f}")

4、结果如何

训练结果如下:

相关推荐
wheeldown17 分钟前
【数学建模】数据预处理入门:从理论到动手操作
python·数学建模·matlab·python3.11
YF云飞44 分钟前
数据仓库进化:Agent驱动数智化新范式
数据仓库·人工智能·ai
多打代码44 分钟前
2025.09.05 用队列实现栈 & 有效的括号 & 删除字符串中的所有相邻重复项
python·算法
@CLoudbays_Martin111 小时前
为什么动态视频业务内容不可以被CDN静态缓存?
java·运维·服务器·javascript·网络·python·php
ningmengjing_1 小时前
理解损失函数:机器学习的指南针与裁判
人工智能·深度学习·机器学习
程序猿炎义1 小时前
【NVIDIA AIQ】自定义函数实践
人工智能·python·学习
小陈phd1 小时前
高级RAG策略学习(四)——上下文窗口增强检索RAG
人工智能·学习·langchain
居然JuRan2 小时前
阿里云多模态大模型岗三面面经
人工智能
THMAIL2 小时前
深度学习从入门到精通 - BERT与预训练模型:NLP领域的核弹级技术详解
人工智能·python·深度学习·自然语言处理·性能优化·bert
nju_spy2 小时前
Kaggle - LLM Science Exam 大模型做科学选择题
人工智能·机器学习·大模型·rag·南京大学·gpu分布计算·wikipedia 维基百科