0


图卷积神经网络GCN及其Pytorch实现

一、前言

ICLR作为机器学习方向的顶会,最近看了ICLR2023 Openreview的论文投稿分析,通过2022和2023年论文关键词、标题高频词等信息的可视化比较。根据前十的关键词频率排名频率来看,基本上和去年保持一致,大火的领域依旧大火。但是可以明显看到前五名关键词的频率差距逐渐减少。 有意思的是representation learning这一关键词终于又重回前三,再次为「国际学习表征会议」(ICLR)正名。graph neural network这一关键词则是掉了一名,与representation learning交换了位置,但相比于去年的频率仍然火爆。GCN作为GNN的变种,依然是一个发论文的热门。
Keyword20222023reinforcement learning11deep learning22representation learning43graph neural network34transformer55federate learning76self-supervised learning67contrastive learning108robustness99generative model810
从排名变化上来看,尽管graph neural network在关键词频率排名降低了一名,但是在标题中graph却涨了一名。
Title20222023representation11graph32data63reinforcement24transformer75training56image107efficient98language159federate1410

二、图的概念

在讨论GNN之前,我们先来了解一下什么是。在计算机科学中,图是由节点和边两部分组成的一种数据结构。图G可以通过节点集合V和它包含的边E来进行描述。如下图所示:

三、GNN图神经网络

GNN全称----图神经网络,它是一种直接作用于图结构上的神经网络。我们可以把图中的每一个节点 V 当作个体对象,而每一条边 E 当作个体与个体间的某种联系,所有节点组成的关系网就是最后的图 U。

二元组的定义
图G是一个有序二元组(V,E),其中V称为顶集(Vertices Set),E称为边集(Edges set),E与V不相交。它们亦可写成V(G)和E(G)。
E的元素都是二元组,用(x,y)表示,其中x,y∈V。

三元组的定义
图G是指一个三元组(V,E,I),其中V称为顶集,E称为边集,E与V不相交;I称为关联函数,I将E中的每一个元素映射到 。如果e被映射到(u,v),那么称边e连接顶点u,v,而u,v则称作e的端点,u,v此时关于e相邻。同时,若两条边i,j有一个公共顶点u,则称i,j关于u相邻。

我们利用图神经网络的目的就是整合特征

GNN的主要目的就是用图结构提取特征,最终是做节点分类还是关联预测由我们自己决定。

四、GNN与CNN、RNN的区别

都是提取特征的神经网络,那为什么要利用图模型来提取呢?CNN的卷积和RNN的递归方式不行吗?
答案还真不行,或者说十分麻烦。

因为GNN面向的输入对象其实都是结构不规则、不固定的数据结构,而CNN面向的图像数据和RNN面向的文本数据的格式都是固定的,所以自然不能混为一谈。因此,面对本身结构、彼此关系都不固定的节点特征,必须需要借助图结构来表征它们的内在联系。

五、GNN原理

5.1 邻接矩阵

首先引入邻接矩阵(Adjacency Matrix)的概念,它来表示节点与节点间的连接关系,即Edge的关系,矩阵的具体样式如下图所示:

5.2 聚合操作

GNN的输入一般是每个节点的起始特征向量和表示节点间关系的邻接矩阵,有了这两个输入信息,接下来就是聚合操作了。所谓的聚合,其实就是将周边与节点 Vi 有关联的节点{Va , Vb , . . .}加权到Vi上,当作一次特征更新。同理,对图中的每个节点进行聚合操作,更新所有图节点的特征。

聚合操作的方式多种多样,可根据任务的不同自由选择,如下图所示:

当然对这个图节点进行完了一次聚合操作后,还需要再进行一波 w 的加权,这里的 w 需要网络自己学习。

5.3 多层迭代

CNN,RNN都可以有多个层,那么GNN也当然可以。一次图节点聚合操作与 w ww 加权,可以理解为一层,后面再重复进行聚合、加权,就是多层迭代了。一般GNN只要3~5层即可,所以训练GNN对算力要求很低。如下图所示:

六、GCN图卷集神经网路

论文:Semi-Supervised Classification with Graph Convolutional Networks(ICLR2017)

https://arxiv.org/abs/1609.02907)

GCN,图卷积神经网络,实际上跟CNN的作用一样,就是一个特征提取器,只不过它的对象是图数据。GCN精妙地设计了一种从图数据中提取特征的方法,从而让我们可以使用这些特征去对图数据进行节点分类(node classification)、图分类(graph classification)、边预测(link prediction),还可以顺便得到图的嵌入表示(graph embedding),可见用途广泛。因此现在人们脑洞大开,让GCN到各个领域中发光发热。

GCN的核心部分是什么样子:

假设我们手头有一批图数据,其中有N个节点(node),每个节点都有自己的特征,我们设这些节点的特征组成一个N×D维的矩阵X,然后各个节点之间的关系也会形成一个N×N维的矩阵A,也称为邻接矩阵(adjacency matrix)。X和A便是我们模型的输入。

如下图:

Labeled graph(标签图),图的路径和节点标签

Degree matrix(度矩阵) ,每个节点的度,即与每个节点连接的节点数量

Adjacency matrix(邻接矩阵),每个节点连接的节点位置

Laplacian matrix(拉普拉斯矩阵),类比离散拉普拉斯算子定义图上拉普拉斯算子为节点与邻居节点特征信息f差异的和

L = D - A

GCN也是一个神经网络层,它的层与层之间的传播方式是:

这个公式中:

  • A波浪=A+I,I是单位矩阵
  • D波浪是A波浪的度矩阵(degree matrix),公式为
  • H是每一层的特征,对于输入层的话,H就是X
  • σ是非线性激活函数

我们先不用考虑为什么要这样去设计一个公式。我们现在只用知道:

这个部分,是可以事先算好的,因为D波浪由A计算而来,而A是我们的输入之一。

所以对于不需要去了解数学原理、只想应用GCN来解决实际问题的人来说,你只用知道:哦,这个GCN设计了一个牛逼的公式,用这个公式就可以很好地提取图的特征。这就够了,毕竟不是什么事情都需要知道内部原理,这是根据需求决定的。

为了直观理解,我们用论文中的一幅图:

上图中的GCN输入一个图,通过若干层GCN每个node的特征从X变成了Z,但是,无论中间有多少层,node之间的连接关系,即A,都是共享的。

假设我们构造一个两层的GCN,激活函数分别采用ReLU和Softmax,则整体的正向传播的公式为:

最后,我们针对所有带标签的节点计算cross entropy损失函数:

就可以训练一个node classification的模型了。由于即使只有很少的node有标签也能训练,作者称他们的方法为半监督分类。

当然,你也可以用这个方法去做graph classification、link prediction,只是把损失函数给变化一下即可。

最终的层特征传播公式:

因为即使不训练,完全使用随机初始化的参数W,GCN提取出来的特征就以及十分优秀了!这跟CNN不训练是完全不一样的,后者不训练是根本得不到什么有效特征的。

我们看论文原文:

然后作者做了一个实验,使用一个俱乐部会员的关系网络,使用随机初始化的GCN进行特征提取,得到各个node的embedding,然后可视化:

可以发现,在原数据中同类别的node,经过GCN的提取出的embedding,已经在空间上自动聚类了。而这种聚类结果,可以和DeepWalk、node2vec这种经过复杂训练得到的node embedding的效果媲美了。

说的夸张一点,比赛还没开始,GCN就已经在终点了。还没训练就已经效果这么好,那给少量的标注信息,GCN的效果就会更加出色。

其他关于GCN的点滴:

  1. 对于很多网络,我们可能没有节点的特征,这个时候可以使用GCN吗?答案是可以的,如论文中作者对那个俱乐部网络,采用的方法就是用单位矩阵 I 替换特征矩阵 X
  2. 我没有任何的节点类别的标注,或者什么其他的标注信息,可以使用GCN吗?当然,就如前面讲的,不训练的GCN,也可以用来提取graph embedding,而且效果还不错。
  3. GCN网络的层数多少比较好?论文的作者做过GCN网络深度的对比研究,在他们的实验中发现,GCN层数不宜多,2-3层的效果就很好了。

七、GCN的Pytorch实现

7.1 数据集介绍

1. 数据集结构
论文中所使用的数据集合是Cora数据集下载地址https://linqs-data.soe.ucsc.edu/public/lbc/cora.tgz

总共有三部分构成:cora.content cora.cites 和README。

README: 对数据集内容的描述;

cora.content: 里面包含有每一篇论文各自独立的信息;

该文件总共包含2078行,每一行代表一篇论文,由论文编号、论文词向量(1433维)和论文的类别三个部分组成

cora.cites: 里面包含有各论文之间的相互引用记录

该文件总共包含5429行,每一行是两篇论文的编号,表示右边的论文引用左边的论文。

2. 数据集内容分析
该数据集总共有2078个样本,而且每个样本都为一篇论文。根据README可知,所有的论文被分为了7个类别,分别为:

基于案列的论文 Case_Based

基于遗传算法的论文 Genetic_Algorithms

基于神经网络的论文 Neural_Networks

基于概率方法的论文 Probabilistic_Methods

基于强化学习的论文 Reinforcement_Learning

基于规则学习的论文 Rule_Learning

理论描述类的论文 Theory

此外,为了区分论文的类别,使用一个1433维的词向量,对每一篇论文进行描述,该向量的每个元素都为一个词语是否在论文中出现,如果出现则为“1”,否则为“0”。

7.2 代码详解

代码总览(后面会上传到github上)

1. utils.py

  1. import numpy as np
  2. import scipy.sparse as sp
  3. import torch
  4. #特征独热码处理
  5. def encode_onehot(labels):
  6. # 将所有的标签整合成一个不重复的列表
  7. classes = set(labels) # set() 函数创建一个无序不重复元素集
  8. '''enumerate()函数生成序列,带有索引i和值c。
  9. 这一句将string类型的label变为int类型的label,建立映射关系
  10. np.identity(len(classes)) 为创建一个classes的单位矩阵
  11. 创建一个字典,索引为 label, 值为独热码向量(就是之前生成的矩阵中的某一行)'''
  12. classes_dict = {c: np.identity(len(classes))[i, :] for i, c in
  13. enumerate(classes)}
  14. # 为所有的标签生成相应的独热码
  15. # map() 会根据提供的函数对指定序列做映射。
  16. # 这一句将string类型的label替换为int类型的label
  17. labels_onehot = np.array(list(map(classes_dict.get, labels)),
  18. dtype=np.int32)
  19. return labels_onehot
  20. #数据加载和处理
  21. def load_data(path="../data/cora/", dataset="cora"):
  22. """Load citation network dataset (cora only for now)"""
  23. print('Loading {} dataset...'.format(dataset))
  24. #数据包含id,features和labels
  25. idx_features_labels = np.genfromtxt("{}{}.content".format(path, dataset),
  26. dtype=np.dtype(str))
  27. #节点的特征,维度为 2708 * 1433,类型为 np.ndarray
  28. features = sp.csr_matrix(idx_features_labels[:, 1:-1], dtype=np.float32)
  29. #节点的标签,总共包括7个类别,类型为 np.ndarray
  30. labels = encode_onehot(idx_features_labels[:, -1])
  31. # build graph
  32. #节点的id
  33. idx = np.array(idx_features_labels[:, 0], dtype=np.int32)
  34. #每个id进行编号
  35. idx_map = {j: i for i, j in enumerate(idx)}
  36. #
  37. edges_unordered = np.genfromtxt("{}{}.cites".format(path, dataset),
  38. dtype=np.int32)
  39. edges = np.array(list(map(idx_map.get, edges_unordered.flatten())),
  40. dtype=np.int32).reshape(edges_unordered.shape) #map会根据提供的函数对指定序列做映射,flatten()就是降到一维
  41. adj = sp.coo_matrix((np.ones(edges.shape[0]), (edges[:, 0], edges[:, 1])),
  42. shape=(labels.shape[0], labels.shape[0]),
  43. dtype=np.float32)
  44. # build symmetric adjacency matrix
  45. adj = adj + adj.T.multiply(adj.T > adj) - adj.multiply(adj.T > adj)
  46. features = normalize(features)
  47. adj = normalize(adj + sp.eye(adj.shape[0]))
  48. idx_train = range(140)
  49. idx_val = range(200, 500)
  50. idx_test = range(500, 1500)
  51. features = torch.FloatTensor(np.array(features.todense()))
  52. labels = torch.LongTensor(np.where(labels)[1])
  53. adj = sparse_mx_to_torch_sparse_tensor(adj)
  54. idx_train = torch.LongTensor(idx_train)
  55. idx_val = torch.LongTensor(idx_val)
  56. idx_test = torch.LongTensor(idx_test)
  57. return adj, features, labels, idx_train, idx_val, idx_test
  58. #特征归一化函数
  59. def normalize(mx):
  60. """Row-normalize sparse matrix""" #对稀疏矩阵进行正则化处理
  61. rowsum = np.array(mx.sum(1)) #会得到一个(2708,1)的矩阵
  62. r_inv = np.power(rowsum, -1).flatten() #数组元素求-1次方
  63. # 在计算倒数的时候存在一个问题,如果原来的值为0,则其倒数为无穷大,因此需要对r_inv中无穷大的值进行修正,更改为0
  64. r_inv[np.isinf(r_inv)] = 0.
  65. r_mat_inv = sp.diags(r_inv)
  66. mx = r_mat_inv.dot(mx)
  67. return mx
  68. #精度计算函数
  69. def accuracy(output, labels):
  70. # 使用type_as(tesnor)将张量转换为给定类型的张量
  71. preds = output.max(1)[1].type_as(labels)
  72. # 记录等于preds的label eq:equal
  73. correct = preds.eq(labels).double()
  74. correct = correct.sum()
  75. return correct / len(labels)
  76. #将scipy稀疏矩阵转换为Torch稀疏张量
  77. def sparse_mx_to_torch_sparse_tensor(sparse_mx):
  78. """Convert a scipy sparse matrix to a torch sparse tensor."""
  79. """
  80. numpy中的ndarray转化成pytorch中的tensor : torch.from_numpy()
  81. pytorch中的tensor转化成numpy中的ndarray : numpy()
  82. """
  83. sparse_mx = sparse_mx.tocoo().astype(np.float32)
  84. indices = torch.from_numpy(
  85. np.vstack((sparse_mx.row, sparse_mx.col)).astype(np.int64))
  86. values = torch.from_numpy(sparse_mx.data)
  87. shape = torch.Size(sparse_mx.shape)
  88. return torch.sparse.FloatTensor(indices, values, shape)

2. models.py

  1. import torch.nn as nn
  2. import torch.nn.functional as F
  3. from pygcn.layers import GraphConvolution
  4. class GCN(nn.Module):
  5. def __init__(self, nfeat, nhid, nclass, dropout):
  6. super(GCN, self).__init__()
  7. self.gc1 = GraphConvolution(nfeat, nhid) #卷积层1:输入的特征为nfeat,维度是2708,输出的特征为nhid,维度是16
  8. self.gc2 = GraphConvolution(nhid, nclass) #卷积层2:输入的特征为nhid,维度是16,输出的特征为nclass,维度是7(即类别的结果)
  9. self.dropout = dropout
  10. def forward(self, x, adj): #forward是向前传播函数,最终得到网络向前传播的方式为:relu–>fropout–>gc2–>softmax
  11. x = F.relu(self.gc1(x, adj))
  12. x = F.dropout(x, self.dropout, training=self.training)
  13. x = self.gc2(x, adj)
  14. return F.log_softmax(x, dim=1)

3. layers.py

  1. import math
  2. import torch
  3. from torch.nn.parameter import Parameter
  4. from torch.nn.modules.module import Module
  5. #layers中主要定义了图数据实现卷积操作的层,类似于CNN中的卷积层,只是一个层而已
  6. class GraphConvolution(Module):
  7. """
  8. Simple GCN layer, similar to https://arxiv.org/abs/1609.02907
  9. """
  10. #GraphConvolution作为一个类,首先需要定义其相关属性。主要定义了其输入特征in_feature、输出特征out_feature两个输入,
  11. # 以及权重weight和偏移向量bias两个参数,同时调用了其参数初始化的方法
  12. def __init__(self, in_features, out_features, bias=True):
  13. super(GraphConvolution, self).__init__()
  14. self.in_features = in_features
  15. self.out_features = out_features
  16. self.weight = Parameter(torch.FloatTensor(in_features, out_features))
  17. if bias:
  18. self.bias = Parameter(torch.FloatTensor(out_features))
  19. else:
  20. self.register_parameter('bias', None)
  21. self.reset_parameters()
  22. #为了让每次训练产生的初始参数尽可能的相同,从而便于实验结果的复现,可以设置固定的随机数生成种子
  23. def reset_parameters(self):
  24. stdv = 1. / math.sqrt(self.weight.size(1)) #标准偏差
  25. self.weight.data.uniform_(-stdv, stdv)
  26. if self.bias is not None:
  27. self.bias.data.uniform_(-stdv, stdv)
  28. #此处主要定义的是本层的前向传播,通常采用的是 A ∗ X ∗ W A * X * WA∗X∗W的计算方法。由于A是一个sparse变量,因此其与X进行卷积的结果也是稀疏矩阵
  29. def forward(self, input, adj):
  30. support = torch.mm(input, self.weight)
  31. output = torch.spmm(adj, support)
  32. if self.bias is not None:
  33. return output + self.bias
  34. else:
  35. return output
  36. #__repr__()方法是类的实例化对象用来做“自我介绍”的方法,默认情况下,它会返回当前对象的“类名+object at+内存地址”,
  37. # 而如果对该方法进行重写,可以为其制作自定义的自我描述信息
  38. def __repr__(self):
  39. return self.__class__.__name__ + ' (' \
  40. + str(self.in_features) + ' -> ' \
  41. + str(self.out_features) + ')'

4. train.py

  1. from __future__ import division
  2. from __future__ import print_function
  3. import time
  4. import argparse
  5. import numpy as np
  6. import torch
  7. import torch.nn.functional as F
  8. import torch.optim as optim
  9. from pygcn.utils import load_data, accuracy
  10. from pygcn.models import GCN
  11. import matplotlib.pyplot as plt
  12. # Training settings
  13. parser = argparse.ArgumentParser()
  14. parser.add_argument('--no-cuda', action='store_true', default=False,
  15. help='Disables CUDA training.')
  16. parser.add_argument('--fastmode', action='store_true', default=False,
  17. help='Validate during training pass.')
  18. parser.add_argument('--seed', type=int, default=42, help='Random seed.')
  19. parser.add_argument('--epochs', type=int, default=200,
  20. help='Number of epochs to train.')
  21. parser.add_argument('--lr', type=float, default=0.01,
  22. help='Initial learning rate.')
  23. parser.add_argument('--weight_decay', type=float, default=5e-4,
  24. help='Weight decay (L2 loss on parameters).')
  25. parser.add_argument('--hidden', type=int, default=16,
  26. help='Number of hidden units.')
  27. parser.add_argument('--dropout', type=float, default=0.5,
  28. help='Dropout rate (1 - keep probability).')
  29. args = parser.parse_args()
  30. args.cuda = not args.no_cuda and torch.cuda.is_available()
  31. np.random.seed(args.seed)
  32. torch.manual_seed(args.seed)
  33. if args.cuda:
  34. torch.cuda.manual_seed(args.seed)
  35. # Load data
  36. adj, features, labels, idx_train, idx_val, idx_test = load_data()
  37. # Model and optimizer
  38. model = GCN(nfeat=features.shape[1],
  39. nhid=args.hidden,
  40. nclass=labels.max().item() + 1,
  41. dropout=args.dropout)
  42. optimizer = optim.Adam(model.parameters(),
  43. lr=args.lr, weight_decay=args.weight_decay)
  44. if args.cuda:
  45. model.cuda()
  46. features = features.cuda()
  47. adj = adj.cuda()
  48. labels = labels.cuda()
  49. idx_train = idx_train.cuda()
  50. idx_val = idx_val.cuda()
  51. idx_test = idx_test.cuda()
  52. def train():
  53. loss_history = []
  54. val_acc_history = []
  55. t = time.time()
  56. model.train()
  57. if not args.fastmode:
  58. # Evaluate validation set performance separately,
  59. # deactivates dropout during validation run.
  60. model.eval()
  61. output = model(features, adj)
  62. t_total = time.time()
  63. for epoch in range(args.epochs):
  64. optimizer.zero_grad()
  65. output = model(features, adj)
  66. loss_train = F.nll_loss(output[idx_train], labels[idx_train])
  67. acc_train = accuracy(output[idx_train], labels[idx_train])
  68. loss_train.backward()
  69. optimizer.step()
  70. loss_val = F.nll_loss(output[idx_val], labels[idx_val])
  71. acc_val = accuracy(output[idx_val], labels[idx_val])
  72. loss_history.append(loss_val.item())
  73. val_acc_history.append(acc_val.item())
  74. print('Epoch: {:04d}'.format(epoch+1),
  75. 'loss_train: {:.4f}'.format(loss_train.item()),
  76. 'acc_train: {:.4f}'.format(acc_train.item()),
  77. 'loss_val: {:.4f}'.format(loss_val.item()),
  78. 'acc_val: {:.4f}'.format(acc_val.item()),
  79. 'time: {:.4f}s'.format(time.time() - t))
  80. print("Optimization Finished!")
  81. print("Total time elapsed: {:.4f}s".format(time.time() - t_total))
  82. return loss_history,val_acc_history
  83. def test():
  84. model.eval()
  85. output = model(features, adj)
  86. # test_mask_logits = output[mask]
  87. loss_test = F.nll_loss(output[idx_test], labels[idx_test])
  88. acc_test = accuracy(output[idx_test], labels[idx_test])
  89. print("Test set results:",
  90. "loss= {:.4f}".format(loss_test.item()),
  91. "accuracy= {:.4f}".format(acc_test.item()))
  92. #绘制loss和acc曲线
  93. def plot_loss_with_acc(loss_history, val_acc_history):
  94. fig = plt.figure()
  95. ax1 = fig.add_subplot(111)
  96. ax1.plot(range(len(loss_history)), loss_history,
  97. c=np.array([255, 71, 90]) / 255.)
  98. plt.ylabel('Loss')
  99. ax2 = fig.add_subplot(111, sharex=ax1, frameon=False)
  100. ax2.plot(range(len(val_acc_history)), val_acc_history,
  101. c=np.array([79, 179, 255]) / 255.)
  102. ax2.yaxis.tick_right()
  103. ax2.yaxis.set_label_position("right")
  104. plt.ylabel('ValAcc')
  105. plt.xlabel('Epoch')
  106. plt.title('Training Loss & Validation Accuracy')
  107. plt.show()
  108. # Train model
  109. loss, val_acc = train()
  110. plot_loss_with_acc(loss, val_acc)
  111. #Testing
  112. test()
  113. # 绘制测试数据的TSNE降维图
  114. output = model(features, adj)
  115. output = output.cpu()
  116. output = output[idx_test].detach().numpy()
  117. print(output)
  118. print(output.shape)
  119. from sklearn.manifold import TSNE
  120. tsne = TSNE()
  121. out = tsne.fit_transform(output)
  122. fig = plt.figure()
  123. labels_test = labels[idx_test].detach().cpu().numpy()
  124. for i in range(7):
  125. indices = labels_test == i
  126. # print(indices)
  127. x, y = out[indices].T
  128. plt.scatter(x, y, label=str(i))
  129. plt.legend()
  130. plt.show()

5. 代码运行结果

(1)loss和acc训练曲线

200epochs训练之后,Test set results: **loss= 0.6594 accuracy= 0.8360 **

(2)测试数据的TSNE降维图

参考文献:

  1. ICLR 2023 Open Review投稿文章一览,投稿量暴涨46%,「Diffusion」、「Mask」关键词成为新热点 - 知乎

  2. GNN的理解与研究_江南綿雨的博客-CSDN博客_gnn

  3. 跳出公式,看清全局,图神经网络(GCN)原理详解_kisssfish的博客-CSDN博客_gcn原理

  4. pytorch框架下—GCN代码详细解读_MelvinDong的博客-CSDN博客_gcn代码解读

  5. GNN学习笔记(四):Cora数据集读取与分析_花锄的博客-CSDN博客_cora数据


本文转载自: https://blog.csdn.net/weixin_43734080/article/details/127448525
版权归原作者 Dr.sky_ 所有, 如有侵权,请联系我们删除。

“图卷积神经网络GCN及其Pytorch实现”的评论:

还没有评论