Transformers已经成为机器学习的重要主力,有着众多的应用。这就需要制定可靠的方法来增加其透明度。人们提出了多种基于梯度信息的可解释性方法。我们表明,Transformers中的梯度仅反映局部函数,因此不能可靠地识别输入特征对预测的贡献。我们认为引起这种不可靠解释的主要原因是注意力头和LayerNorm,并提出了一种通过这些层传播的更稳定的方式。我们的建议可以被视为对已建立的LRP方法的适当扩展,在理论上和经验上都证明了该方法克服了简单的基于梯度的方法的缺陷,并在广泛的Transformer模型和数据集上实现了最先进的解释性能。

https://proceedings.mlr.press/v162/ali22a.html

成为VIP会员查看完整内容
16

相关内容

【ICML2022】结构感知Transformer的图表示学习
专知会员服务
49+阅读 · 2022年6月17日
【ICML2022】深度神经网络中的特征学习与信号传播
专知会员服务
26+阅读 · 2022年6月2日
专知会员服务
34+阅读 · 2021年8月16日
专知会员服务
37+阅读 · 2021年5月15日
专知会员服务
82+阅读 · 2021年5月10日
IJCAI'21 | 理解GNN的"弱点"
图与推荐
0+阅读 · 2021年11月26日
赛尔笔记 | 可解释的自然语言处理方法简介
哈工大SCIR
3+阅读 · 2021年5月28日
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关VIP内容
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
49+阅读 · 2022年6月17日
【ICML2022】深度神经网络中的特征学习与信号传播
专知会员服务
26+阅读 · 2022年6月2日
专知会员服务
34+阅读 · 2021年8月16日
专知会员服务
37+阅读 · 2021年5月15日
专知会员服务
82+阅读 · 2021年5月10日
相关资讯
IJCAI'21 | 理解GNN的"弱点"
图与推荐
0+阅读 · 2021年11月26日
赛尔笔记 | 可解释的自然语言处理方法简介
哈工大SCIR
3+阅读 · 2021年5月28日
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
相关论文
Arxiv
15+阅读 · 2020年2月5日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
15+阅读 · 2018年4月5日
微信扫码咨询专知VIP会员