什么限制了GNN的能力?首篇探究GNN普适性与局限性的论文出炉!

640?wx_fmt=png


做者 | Andreas Loukas程序员

译者 | 凯隐算法

责编 | Jane数据库

出品 | AI科技大本营(ID: rgznai100)微信


【导读】GNN是目前机器学习领域的热门网络之一,肯多研究与技术分享相比不可知的深度学习网络模型,GNN 有哪些吸引咱们的优点及硬核实力。然而,GNN 是完美的吗?有什么缺点?在何种状况下,GNN 是没法发挥其能力的?近日,在 arXiv 上发布了一篇论文,专门研究探讨了 GNN 在普适性与学习局限性等问题。网络

 

640?wx_fmt=png


本文主要从计算能力有限的角度,来研究GNN在消息传递分布式系统中的图灵普适性和局限性,并获得了两个与图论问题可否解决(impossibility statements)有关的结论:app

 

(1)在必定的充足条件下,GNN是具备图灵普适性的;机器学习

(2)而在深度和广度被限制的条件下,GNN的性能会有必定的局限性。异步

 

应用第一个结论,能够对一些图论优化问题设置更低的计算复杂度下界,第二个结论则说明在深度和广度的乘积不超过图的大小时,GNN是没法解决其余的一些问题的。分布式

 

专业术语函数

 

为了方便你们后续阅读理解文章,咱们先把文中涉及的几个专业问题作简单阐述:

 

一、图灵普适性(Turing universal)

 

一个具备图灵普适性的图灵机(Universal Turing machine)可以模拟任何图灵机在任何输入下的状况。

 

二、一致性问题(Consensus)

 

即在分布式计算或者多代理(multi-agent)系统中,如何在发生进程故障的状况下保持系统的可靠性(reliability)。这一般须要进程就计算过程当中的一些数值或数值操做达成一致,包括如何将提交到数据库,如何识别leader进程,状态机复制(一种故障容忍机制),原子广播等操做。

 

三、不可能结果(Impossibility result)

 

这是分布式领域的专业术语,在一个彻底异步的消息传递分布式系统中,若是一个进程有故障,那么一致性问题是没法获得解决的,在此基础上,有两个比较著名的 impossibility result:FLP和CAP,详见[1][2]。本文中提出了关于GNN的两个结论都是属于GNN的 impossibility results。简单来讲,就是在必定的限制条件下问题可否被解决,那么任务的impossibility result就只有两种状况:能和不能。

 

四、GNN的深度和广度(depth and width)

 

深度就是网络层数,广度就是每层的感知域,也就是每一个节点的能获取到信息的邻接节点的范围。

 

模型普适性的研究

 

机器学习中的一个基本任务是研究哪些内容是一个模型(网络)能学习到,而哪些是不能学习到的,也就是研究模型的普适性,研究其可否解决大部分任务。过去的一些研究经过不变函数或者等效函数来对网络进行等效近似,从而在函数层面研究什么是一个模型能学习到的内容。

 

一般理论认为,在有充足的训练数据和合适的学习优化算法的状况下,普适性网络可以解决大部分给定的任务,然而这种理解是不全面的,由于在实际应用时要知足充足训练数据和合适优化算法是比较困难的,这种无限制的普适性网络是不能做为实际部署时的网络设计参考的。

 

所以,能够从问题的对立面,即研究模型的局限性,来间接地研究其普适性,也就是在特定的任务中,特定的限制条件下网络不能学习到的内容。这有助于了解模型和特定任务之间的关系,从而知晓任务可否被解决(impossibility results),进而帮助咱们调整模型的参数。例如,在图分类任务中,咱们但愿模型能学习到同一类图的共同特征,不一样类图的区别特征,然而若是GNN模型自己的深度和广度不足以学习到足够的特征,那么这个问题就是impossible的,所以就须要进一步的调整深度和广度。

 

文章主要贡献

 

本文所研究的特定任务是图论中的一些优化任务,特定限制条件是 GNN 的深度和广度,将深度和广度与理论计算机科学中的复杂度等度量联系起来,再将计算复杂度做为这些优化任务的完成下界(从 impossible 变为 possible 的最低复杂度要求),从而获得GNN的深度和广度对具体任务的影响,以及对GNN普适性的影响。具体地,关于普适性的研究有如下两个结论。

 

一、GNN 的图灵普适性

 

在足够的条件下,GNN 能以图灵机的形式对任意输入函数进行运算,且不限于网络结构。经过创建 GNN 和经典分布式计算模型 LOCAL 之间的图灵等效,来间接的研究其普适性。这里的足够条件是:

 

(1)有足够的层数

(2)每一层都有足够的广度

(3)节点之间能够相互独立(ids)

(4)每一层计算的函数有足够的表现力

 

640?wx_fmt=png


二、GNN 的学习能力局限性

 

正如前面提到的,在深度和广度都被限制的状况下,GNN是没法表现出其图灵普适性,即应用在具体任务上时,没法解决这个任务。那么如何肯定可否完成任务的下界呢?仍是经过 LOCAL。任务或问题的 impossiblility result 能够在GNN和LOCAL之间以必定的形式相互转换,所以研究任务在 GNN下可否完成和在LOCAL下可否完成是等效的,进而能够在LOCAL模型下为完成任务的计算复杂度要求设置下界。具体的,文章中提到了四种类型的任务(问题定义详见原论文)

 

(1)检测(detecting)图G中是否含有特定长度的环(cycle of specific length)


(2)验证(verifying)图G的给定子图是否连通(connected),是否具备环(cycle),是否为生成树(spanning tree,具有树结构,没有环),是否为二分图(bipartite,顶点集合能够分为两个子集,全部边的两个顶点分属于这两个子集),是否为简单路径(simple path,与图的哈密顿循环有关)


(3)计算(computing)两个顶点间的最短路径(shortest path between two vertices),图的最小割(minimum cut),以及最小生成树(the minimum spanning tree)


(4)求图的最大独立集(maximum independent),最小顶点覆盖(minimum vertex cover),或图的顶点着色问题(chromatic coloring)

 

以上问题都是属于图论中的传统优化问题,虽然不是如今主流研究的顶点分类,图分类问题,但两者之间有密不可分的联系。这些问题的具体计算复杂度下界为:

 

640?wx_fmt=png

 

总结

 

本文首次对GNN模型提出了 impossible 问题,并经过等效计算的方法,以计算复杂度的形式,给出了 GNN 在部分图论任务中impossible results下界与网络宽度和广度的关系,在必定程度上说明了 GNN 的性能会受到网络自己的宽度和广度的限制。

 

因为原文中的数学推导过于复杂,所以这里我只介绍文章的基本思想。GNN做为目前机器学习领域的热门研究之一,已经被应用于各类各样的任务,一般在应用一个网络的同时,也要同步地去研究这个网络的内在本质,从而更好的理解,改进它,进而帮助咱们在实际应用网络时更好的设置网络的参数,这篇文章就是一个很好的例子。

 

【参考文献】

[1] https://en.wikipedia.org/wiki/Consensus_(computer_science)

[2] Fischer, M. J.; Lynch, N. A.; Paterson, M. S. (1985). "Impossibility of distributed consensus with one faulty process" (PDF). Journal of the ACM. 32 (2): 374–382. doi:10.1145/3149.214121.

 

原文连接: 

https://arxiv.org/abs/1907.03199


(*本文为 AI科技大本营编译文章,转载请联系1092722531


精彩推荐


“只讲技术,拒绝空谈”2019 AI开发者大会将于9月6日-7日在北京举行,这一届AI开发者大会有哪些亮点?一线公司的大牛们都在关注什么?AI行业的风向是什么?2019 AI开发者大会,倾听大牛分享,聚焦技术实践,和万千开发者共成长。


目前,大会盲订票限量发售中~扫码购票,领先一步!


640?wx_fmt=png

推荐阅读


640?wx_fmt=png 你点的每一个“在看”,我都认真当成了喜欢