NeurIPS 2022 您所在的位置:网站首页 python画graph NeurIPS 2022

NeurIPS 2022

2023-03-12 08:45| 来源: 网络整理| 查看: 265

0 分享至

用微信扫码二维码

分享至好友和朋友圈

本文旨在简要介绍近期发表在 NeurIPS 2022 Datasets and Benchmarks Track 上的一个图神经网络架构搜索(GNAS)的节点分类 Benchmark,同时也是 GNAS 的第一个 Benckmark。

论文地址: https://openreview.net/pdf?id=bBff294gqLp 代码地址: https://github.com/THUMNLab/NAS-Bench-Graph

一、背景

神经网络架构搜索(NAS)作为自动机器学习(AutoML)的一个重要组成部分,旨在自动的搜索神经网络结构。NAS的研究最早可以追溯到上世纪八十年代,随着算力的提升和神经网络的发展,自动搜索神经网络逐渐成为深度学习的的热门方向之一。NAS的研究主要分为三个方面:搜索空间,搜索算法,以及评估策略。

1.1 搜索空间

搜索空间与探究的问题息息相关,在计算机视觉中,NAS的搜索空间常常是一些CNN相关,如3x3卷积或5x5卷积。在图神经网络中,从宏观来说,我们可以搜索GNN的层数等,从微观来说,我们可以搜索GNN的message passing和aggregation function等。下图是一些代表的GNN搜索空间 (同质图,图分类,图推荐,以及异质图)。

如何针对不同实际问题,设计好的搜索空间是 GNAS 领域最重要的问题之一。

1.2 搜索算法

在搜索算法上,NAS 本质上要解决的是针对搜索空间的组合优化问题,比较典型的有强化学习(RL),进化算法(EA)贝叶斯优化(BO)以及将搜索空间连续化的可微搜索(Differentiable Search)等等。

1.3 评估策略

早期 NAS 方法直接以验证集上实际指标的来评估搜索出来模型的好坏,但是从头训练一个模型得到验证集上的性能比较昂贵,于是研究者开始使用代理指标(Proxy Metric)去替代真实的验证集性能,这些代理指标通常不需要太多计算开销。如何找到高效且接近真实验证集性能的代理指标也是 NAS 值得研究的问题。

1.4 NAS Benchmark

NAS Benchmark(如 NAS-Bench-101,NAS-Bench-201 等)主要思想是在搜索空间中穷尽搜索子网络,将子网的结构以及对应的验证集精度记录下来,形成一个表,研究人员使用的时候只需要通过查表就可以得到对应的验证集精度,这样就不需要重新训练和测试,降低了对计算资源的依赖,同时也为 NAS 的研究者提供公平比较。但是在 Graph 领域还没有类似的工作,本文是 Graph NAS Benchmark 的第一个工作。

二、方法介绍

2.1 搜索空间

本文在搜索的宏观架构上使用了以下九种结构:

每个节点有九种可选组合:GCN, GAT, GraphSAGE, GIN, ChebNet, ARMA, k-GNN, Identity(残差连接)以及 FC(Fully Connected Layer,不使用图结构),作者移除了同构的架构图产生了一个包含 26,206 种 GNN 的搜索空间。

2.2 数据集

本文在如下九个常见的节点分类数据集进行了实验:

2.3 分析2.3.1 性能分布

本文可视化了所有数据集与推理延迟的关系,如下图,其中红色的部分代表着模型性能和模型推理延迟(一般来说模型越大延迟越高)的帕累托前沿(Pareto Front):

作者发现尽管高性能的架构最终效果都差不多,但是越大的模型总是能获得更高的性能,并且作者计算了模型性能与模型大小的相关系数,发现是正相关的,因此我们在设计 GNN 时需要做出模型大小和效果的权衡。

2.3.2 架构分布

作者选择了表现 top 5% 的一个结构对宏观操作和 GNN 类型做了频率统计绘制了如下图。

从图(a)中我们可以看出 Cora、Citeeer 和 PubMed 倾向于选择两层 GNN,即 E、F、G 和 H(见 2.1);PudMed 和 CS 也更喜欢选择在其他数据集中很难选择的 1 层的 GNN 如 I;Physics, Photo 和 Computers 数据集在选择上更均匀。ogbn-arXiv 和 ogbn-proteins 更喜欢选择更深的 GNN。

从图(b)中我们可以看出 GCN 和 GAT 几乎在所有数据集中选择频率最高;GIN 和 k-GNN 在理论上更接近 WL-test,但他们只在相对较小的数据集(Cora、Citeeer 和 PubMed)中容易被选中,作者给出的解释是这些 GNN 在聚合的过程中使用了大量 sum 聚合,不适用于大规模图中的节点级任务。

2.3.3 跨任务

作者选取不同数据集中 top 5% 的架构做了任务之间的相关性比较(其中重复率代表着 top 5% 的结构在两个不同间重叠的部分),并可视化如下图:

从图中可以看出 Cora、Citeeer 和 PubMed 通显示出很强的相关性。Physics, Photo, Computers 和 ogbn-arXiv 的相关性也很高。即使 Pearson 和 Kendall 很大,但前 5% 的重叠率也不高。也就是说我们在不同数据集之间直接迁移最有架构可能在另外一个数据集并不是最优。

2.3.4 搜索实验

本文做了以下搜索实验,有以下发现:

1. 所有搜索算法都优于前 5% 架构,表明从搜索的角度来说这些搜索算法都是有效的;

2. 没有一种搜索算法能在所有数据集上获胜。

与其他搜索相比,随机搜索仍然是一个强大的 baseline,甚至在两个数据集上表现最好,结果表明,我们需要对 GraphNAS 的进一步研究。

2.3.5 使用

本文所提供的 Benchmark 易于使用,下面是一个 python 代码的使用例子:

三、总结

这个工作作为第一个 GNAS 的 Benchmark,本文对 GNAS 领域的社区发展做出了贡献。同时本文从搜索出的结构出发,在不同的角度给出了设计节点级别的 GNN 的指导,对设计节点级别 GNN 做出了一定的贡献。但是本文也有其局限性,对于图级别的任务和异质图的任务,本文没有进行探索,我们期待在将来看到更多的相关工作。

参考

[1] Zhenyi Wang, Huan Zhao, and Chuan Shi. 2022. Profiling the Design Space for Graph Neural Networks Based Collaborative Filtering. In WSDM. 1109–1119.

[2] Jiaxuan You, Zhitao Ying, and Jure Leskovec. 2020. Design space for graph neural networks. NeurIPS 33 (2020).

[3] Chris Ying, Aaron Klein, Eric Christiansen, Esteban Real, Kevin Murphy, and Frank Hutter. Nas-bench-101: Towards reproducible neural architecture search. In ICML, pages 7105–7114. PMLR, 2019.

[4] Xuanyi Dong and Yi Yang. Nas-bench-201: Extending the scope of reproducible neural architecture search. In ICLR, 2019.

[5] T. Elsken, J. H. Metzen, F. Hutter, Neural architecture search: A survey, arXiv preprint arXiv:1808.05377

[6] Tianyu Zhao, Cheng Yang, Yibo Li, Quan Gan, Zhenyi Wang, Fengqi Liang, Huan Zhao, Yingxia Shao, Xiao Wang, and Chuan Shi† . 2022. Space4HGNN: A Novel, Modularized and Reproducible Platform to Evaluate Heterogeneous Graph Neural Network. In SIGIR 2022

作者:梁峰绮 文章来源:公众号【北邮Gamma Lab】

Illustration by Sushama Patel from IconScout

-TheEnd-

多家技术企业招聘来啦!

多家技术企业招聘来啦!有求必应的小将收集到来自TechBeat技术社群内技术企业的招人需求,包含来自微软亚研、腾讯、小红书等企业算法工程师等正式及实习岗位,欢迎有需求的大家向这些公司投递简历哦!

扫描了解详情~

关于我“门”

将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务、将门技术社群以及将门创投基金。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

[email protected]

点击右上角,把文章分享到朋友圈

⤵一键送你进入TechBeat快乐星球

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/ 返回网易首页 下载网易新闻客户端


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有