Distance Encoding: Designing Provably More Powerful Graph Neural Networks

2022 · 03 · 19 15:30
天津市,市辖区,南开区
天津大学
  • 会议详情
  • 基本信息

讲座主题:

Distance Encoding: Designing Provably More Powerful Graph Neural Networks

距离编码:设计能被验证的更强大的图神经网络

主讲人姓名及介绍:

Yanbang Wang is a Master Student of Computer Science at Stanford University, ***, ***, data mining, computational social science, ***, ***, ICLR, WWW, LAK, IEEE TVCG, ***, respectively.

王彦邦曾是斯坦福大学计算机科学专业的一名硕士研究生,现在是美国康奈尔大学的一名在读博士。他的研究兴趣包括图机器学习、数据挖掘、计算社会科学以及大数据分析。他目前在斯坦福大学社交网络分析组(SNAP)工作,由Jure Leskovec教授指导。他在各类国际顶级会议和期刊(如:NeurIPS, ICLR, WWW, LAK, IEEE TVCG, SSHA等)上发表了多篇文章。他分别于2018年和2020年在麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)和伊利诺伊大学厄巴纳-香槟分校数据挖掘研究组(UIUC DMG)做访问学生研究员。

报告摘要:

Learning representations of sets of nodes in a graph is crucial for applications ranging from node-***, Graph Neural Networks (GNNs) ***, the expressive power of GNNs is limited by the 1-Weisfeiler-Lehman (WL) ***-related features, Distance Encoding (DE), which helps GNNs break the limit efficiently and achieve state-of-the-***

学习图中节点集的表示对节点角色发现、链接预测以及分子分类等一系列任务都是至关重要的。近年来,图神经网络(GNNs)在图表示学习方面取得了巨大的成功。然而,图神经网络的表达能力受到1-Weisfeiler-Lehman (WL)测试的限制,因此图神经网络可能会为实际上非常不同的子结构生成相同的表示。本次报告将介绍并分析一种与结构相关的特征,即距离编码(DE),该编码帮助图神经网络有效突破限制并在许多不同的图表示学习任务中达到最好的表现。此外,本次报告还将简要介绍基于距离编码(DE)理念近期所取得的一些进展。