最近因需要调研了一下目前图卷积网络的一些研究进展,主要侧重于其理论研究及其在大规模推荐系统中的应用。现在总结一下看过的一些论文,以备后查。以下论文均为2018年发表。

1 《Stochastic Training of Graph Convolutional Networks with Variance Reduction

图形卷积网络(GCN)是用于图形结构数据的一种强大的深度神经网络。 然而,GCN从其邻居递归地计算节点的表示,使得感受野大小随着层数呈指数增长。 先前通过对邻居节点二次采样进而减小感受野的大小的尝试没有收敛保证,并且它们每个节点的感受野大小仍然保持在数百。 这篇论文提出了一种基于控制变量的算法,该算法允许对任意小的邻居大小进行采样。 此外,该论文给出了算法收敛到GCN的局部最优的新理论保证。实证结果表明,论文中的算法与每个节点仅使用两个邻居的精确算法拥有类似的收敛,且在大型Reddit数据集上的运行时间仅为先前的邻居采样算法的七分之一。

2 《Large-Scale Learnable Graph Convolutional Networks

卷积神经网络(CNN)在类似网格的数据(如图像)上取得了巨大成功,但在学习更通用的数据(类似于图)时面临巨大挑战。在CNN中,可训练的本地过滤器可以自动提取高维特征。基于过滤器的计算需要感受野中存在固定数量的有序单元。但是,在一般图中,相邻单元的数量既不固定,也不是有序的,从而阻碍了卷积运算的应用。在这里,我们通过提出可学习的图卷积层(LGCL)来解决这些挑战。 LGCL基于值排序自动为每个特征选择固定数量邻居节点,以便将图数据转换为一维的网格结构,从而能够在通用图上使用常规卷积运算。为了在大规模图上进行模型训练,我们提出了一种子图训练方法,以减少现有方法对图卷积所带来的过多内存和计算资源需求。我们实验结果表明,对于转导和归纳学习环境中的节点分类任务,我们的方法可以在Cora, Citeseer, Pubmed citation network 和 protein-protein interaction network datasets数据集上实现更好的性能,且性能稳定。结果还表明,与现有方法相比,使用子图训练策略的方法更有效。

3 《Confidence-based Graph Convolutional Networks for Semi-Supervised Learning

基于置信度的半监督学习图卷积网络

预测图中节点的属性是各个领域应用的重要问题。基于图的半监督学习(SSL)方法旨在通过将一小部分节点标记为种子来解决该问题,然后利用图结构来预测图中其余节点的标签分数。最近,图形卷积网络(GCN)在基于图形的SSL任务上取得了令人印象深刻的性能。除了标签分数之外,还希望具有与它们相关联的置信度分数。不幸的是,之前没有探讨过GCN背景下的置信度估计。在本文中,我们填补了这一重要空白,并提出了ConfGCN,它基于GCN中设置的关于标签的置信度估计标签得分。 ConfGCN使用这些估计的置信度来确定邻域聚合期间一个节点对另一个节点的影响,从而获得各向异性能力。
通过对标准基线的广泛分析和实验,我们发现ConfGCN能够明显优于最先进的基线。本文公开了ConfGCN的源代码,以鼓励可重复的研究。

4 《Graph Convolutional Neural Networks for Web-Scale Recommender Systems

这篇文章主要讲了GCN在推荐系统中的应用。思路就是由 item和 user 组成的二分图(边只发生在 item 和 user 之间)。首先由各节点生成各自的初始向量(不同类型的节点的初始向量生成方法不同,如 item 和 user)。然后根据每个节点找到数量为 k 的邻居节点,如果没有节点的邻居节点数量<k,那么可以使用随机游走的方式获得 k 个。然后将节点 v 的 k个邻居节点的向量拼接(论文中说实验表明,拼接比相加效果更好),和节点 v 做卷积,得到节点 v 的向量表达。

5 《FastGCN: Fast Learning with Graph Convolutional Networks via Importance Sampling》 Submitted on 30 Jan 2018

最近由Kipf和Welling提出的图卷积网络(GCN)是一个有效的用于半监督学习的图模型。然而,该模型最初设计为在训练和测试数据存在的情况下学习。此外,跨层的递归邻域扩展对于使用大而密集的图数据进行训练提出了时间和内存上的挑战。为了放宽对测试数据同时可用性的要求,我们将图卷积解释为概率测度下嵌入函数的积分变换。这种解释允许使用蒙特卡罗方法来一致地估计积分,这反过来引出了我们在这项工作中提出的批量训练方案-FastGCN。通过增强重要性采样,FastGCN不仅可以有效地进行训练,而且可以很好地推广。我们展示了一套全面的实验来证明其与GCN、相关模型相比的有效性。特别是在训练效率提高了几个数量级的情况下,预测仍保持相对准确。

6 《Multi-dimensional Graph Convolutional Networks)》 ICLR 2018

卷积神经网络(CNN)在基于图像和视频等常规网格数据的表示学习上表现了强大的能力。最近,人们越来越关注将CNN应用于高度不规则的图形或网络数据。一些专注于图层次的表示学习,而另一些专注于节点层次的表示学习。已经证明这些方法可以提高任务的性能,例如图分类和节点分类。这些方法中的大多数都是针对一维的图设计的,其中一对节点只能通过一种关系连接。然而,许多真实世界的图具有多种类型的关系,并且它们可以自然地建模为多维图,每种类型的关系作为维度。多维图带来了维度之间更丰富的相关性,这对被设计用于单维图的GCN提出了巨大的挑战。在本文中,我们研究了多维图的卷积网络问题,并提出了一种多维卷积神经网络模型mGCN,旨在捕获在多维图中学习节点表示的丰富信息。对真实世界多维图的综合实验证明了所提出框架的有效性。