Cognitively inspired NLP leverages human-derived data to teach machines about language processing mechanisms. Recently, neural networks have been augmented with behavioral data to solve a range of NLP tasks spanning syntax and semantics. We are the first to exploit neuroscientific data, namely electroencephalography (EEG), to inform a neural attention model about language processing of the human brain. The challenge in working with EEG data is that features are exceptionally rich and need extensive pre-processing to isolate signals specific to text processing. We devise a method for finding such EEG features to supervise machine attention through combining theoretically motivated cropping with random forest tree splits. After this dimensionality reduction, the pre-processed EEG features are capable of distinguishing two reading tasks retrieved from a publicly available EEG corpus. We apply these features to regularise attention on relation classification and show that EEG is more informative than strong baselines. This improvement depends on both the cognitive load of the task and the EEG frequency domain. Hence, informing neural attention models with EEG signals is beneficial but requires further investigation to understand which dimensions are the most useful across NLP tasks.


翻译:认知启发的自然语言处理利用人类衍生的数据来教导机器理解语言处理机制。近年来,神经网络已通过行为数据增强,以解决涵盖句法和语义的一系列自然语言处理任务。本研究首次利用神经科学数据——即脑电图(EEG),为神经注意力模型提供关于人脑语言处理的信息。处理脑电图数据的挑战在于其特征异常丰富,需要大量预处理以分离特定于文本处理的信号。我们设计了一种方法,通过将理论驱动的数据裁剪与随机森林树分裂相结合,寻找能够监督机器注意力的脑电图特征。经过降维处理后,预处理后的脑电图特征能够区分从公开脑电图语料库中检索到的两种阅读任务。我们将这些特征应用于关系分类中的注意力正则化,并证明脑电图数据比强基线模型更具信息量。这种改进既取决于任务的认知负荷,也取决于脑电图的频域特征。因此,用脑电图信号指导神经注意力模型具有优势,但需要进一步研究以确定哪些维度在自然语言处理任务中最具普适性。

0
下载
关闭预览

相关内容

【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
专知会员服务
39+阅读 · 2021年6月11日
注意力机制模型最新综述
专知会员服务
271+阅读 · 2019年10月20日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【ICML2024】揭示大脑中视觉-语言整合的多模态网络
专知会员服务
29+阅读 · 2024年6月21日
专知会员服务
39+阅读 · 2021年6月11日
注意力机制模型最新综述
专知会员服务
271+阅读 · 2019年10月20日
相关资讯
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
算法与数学之美
13+阅读 · 2019年1月23日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员