NLP has a rich history of representing our prior understanding of language in the form of graphs. Recent work on analyzing contextualized text representations has focused on hand-designed probe models to understand how and to what extent do these representations encode a particular linguistic phenomenon. However, due to the inter-dependence of various phenomena and randomness of training probe models, detecting how these representations encode the rich information in these linguistic graphs remains a challenging problem. In this paper, we propose a new information-theoretic probe, Bird's Eye, which is a fairly simple probe method for detecting if and how these representations encode the information in these linguistic graphs. Instead of using classifier performance, our probe takes an information-theoretic view of probing and estimates the mutual information between the linguistic graph embedded in a continuous space and the contextualized word representations. Furthermore, we also propose an approach to use our probe to investigate localized linguistic information in the linguistic graphs using perturbation analysis. We call this probing setup Worm's Eye. Using these probes, we analyze BERT models on their ability to encode a syntactic and a semantic graph structure, and find that these models encode to some degree both syntactic as well as semantic information; albeit syntactic information to a greater extent.


翻译:NLP在以图表形式代表我们先前对语言的理解方面有着丰富的历史。最近关于分析背景化文本表达方式的工作侧重于手动设计的探测模型,以了解这些表达方式如何和在何种程度上对特定语言现象进行编码。然而,由于各种现象的相互依存性以及培训探测模型的随机性,发现这些表达方式如何将语言图中的丰富信息编码成这些语言图中的问题仍是一个具有挑战性的问题。在本文件中,我们建议使用一个新的信息理论探测器,即Bird's Eye,这是一个相当简单的探测方法,用来检测这些表达方式是否和如何对这些语言图中的信息进行编码。我们的探测器不是使用分类仪的性能,而是对连续空间内嵌入的语言图与背景化的表达方式之间的相互信息进行研究和估计。此外,我们还建议采用一种方法,利用我们的探测方法来调查语言图中本地化的语言信息。我们称之为这个探测设置线眼。我们用这些探测器,用这些探测器来分析这些模型是否有能力将合成合成方法和精密度的图像结构结构,我们用这些模型来分析这些模型作为较深层次的图表结构。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【2020新书】C++20 特性 第二版,A Problem-Solution Approach
专知会员服务
60+阅读 · 2020年4月26日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
129+阅读 · 2020年4月25日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
ICLR 2020会议的16篇最佳深度学习论文
AINLP
5+阅读 · 2020年5月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
已删除
德先生
53+阅读 · 2019年4月28日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
Asynchronous games on Petri nets and ATL
Arxiv
0+阅读 · 2021年7月14日
Arxiv
13+阅读 · 2019年11月14日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Arxiv
5+阅读 · 2019年6月5日
Arxiv
3+阅读 · 2019年3月29日
VIP会员
相关资讯
ICLR 2020会议的16篇最佳深度学习论文
AINLP
5+阅读 · 2020年5月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
已删除
德先生
53+阅读 · 2019年4月28日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】图上的表示学习综述
机器学习研究会
15+阅读 · 2017年9月24日
Top
微信扫码咨询专知VIP会员