Oversmoothing is a common phenomenon in a wide range of Graph Neural Networks (GNNs) and Transformers, where performance worsens as the number of layers increases. Instead of characterizing oversmoothing from the view of complete collapse in which representations converge to a single point, we dive into a more general perspective of dimensional collapse in which representations lie in a narrow cone. Accordingly, inspired by the effectiveness of contrastive learning in preventing dimensional collapse, we propose a novel normalization layer called ContraNorm. Intuitively, ContraNorm implicitly shatters representations in the embedding space, leading to a more uniform distribution and a slighter dimensional collapse. On the theoretical analysis, we prove that ContraNorm can alleviate both complete collapse and dimensional collapse under certain conditions. Our proposed normalization layer can be easily integrated into GNNs and Transformers with negligible parameter overhead. Experiments on various real-world datasets demonstrate the effectiveness of our proposed ContraNorm. Our implementation is available at https://github.com/PKU-ML/ContraNorm.


翻译:超平滑是一种普遍出现在各种图神经网络(GNNs)和Transformer中的现象,随着层数的增加,性能变差。我们并不将超平滑的特征视为完全崩溃,即表示收敛于一个点,而是从更一般化的维度崩溃的角度进行探究,即表示在一个狭窄的锥体内。因此,受到对比学习在防止维度崩溃方面的有效性启发,我们提出了一种新的规范化层,称为ContraNorm。直观上,ContraNorm在嵌入空间中隐式地破坏了表示,导致更均匀的分布和更轻微的维度崩溃。在理论分析上,我们证明了在某些条件下,ContraNorm可以缓解完全崩溃和维度崩溃。我们提出的规范化层可以很容易地与GNNs和Transformer结合使用,参数开销可以忽略不计。在各种真实世界数据集上的实验表明了我们提出的ContraNorm的有效性。我们的实现可以在https://github.com/PKU-ML/ContraNorm 中获得。

0
下载
关闭预览

相关内容

专知会员服务
32+阅读 · 2021年7月15日
专知会员服务
90+阅读 · 2021年6月29日
专知会员服务
53+阅读 · 2021年6月14日
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月14日
VIP会员
相关VIP内容
专知会员服务
32+阅读 · 2021年7月15日
专知会员服务
90+阅读 · 2021年6月29日
专知会员服务
53+阅读 · 2021年6月14日
相关资讯
浅聊对比学习(Contrastive Learning)
极市平台
2+阅读 · 2022年7月26日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员