Causal discovery is fundamental for multiple scientific domains, yet extracting causal information from real world data remains a significant challenge. Given the recent success on real data, we investigate whether TabPFN, a transformer-based tabular foundation model pre-trained on synthetic datasets generated from structural causal models, encodes causal information in its internal representations. We develop an adapter framework using a learnable decoder and causal tokens that extract causal signals from TabPFN's frozen embeddings and decode them into adjacency matrices for causal discovery. Our evaluations demonstrate that TabPFN's embeddings contain causal information, outperforming several traditional causal discovery algorithms, with such causal information being concentrated in mid-range layers. These findings establish a new direction for interpretable and adaptable foundation models and demonstrate the potential for leveraging pre-trained tabular models for causal discovery.


翻译:因果发现是多个科学领域的基础,然而从现实世界数据中提取因果信息仍是一项重大挑战。鉴于近期在真实数据上的成功,我们研究了TabPFN——一种基于Transformer的表格基础模型,该模型在由结构因果模型生成的合成数据集上进行了预训练——是否在其内部表示中编码了因果信息。我们开发了一个适配器框架,利用可学习的解码器和因果标记,从TabPFN的冻结嵌入中提取因果信号,并将其解码为用于因果发现的邻接矩阵。我们的评估表明,TabPFN的嵌入包含因果信息,其表现优于多种传统因果发现算法,且此类因果信息集中在中层网络。这些发现为可解释和可适应基础模型开辟了新方向,并展示了利用预训练表格模型进行因果发现的潜力。

0
下载
关闭预览

相关内容

DeepSeek模型综述:V1 V2 V3 R1-Zero
专知会员服务
116+阅读 · 2月11日
【机器推理可解释性】Machine Reasoning Explainability
专知会员服务
35+阅读 · 2020年9月3日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
LibRec 每周算法:DeepFM
LibRec智能推荐
14+阅读 · 2017年11月6日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Arxiv
0+阅读 · 12月17日
Arxiv
0+阅读 · 12月15日
Arxiv
0+阅读 · 12月8日
Arxiv
0+阅读 · 11月18日
Arxiv
0+阅读 · 11月7日
VIP会员
相关资讯
ICLR'21 | GNN联邦学习的新基准
图与推荐
12+阅读 · 2021年11月15日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
LibRec 每周算法:DeepFM
LibRec智能推荐
14+阅读 · 2017年11月6日
相关论文
Arxiv
0+阅读 · 12月17日
Arxiv
0+阅读 · 12月15日
Arxiv
0+阅读 · 12月8日
Arxiv
0+阅读 · 11月18日
Arxiv
0+阅读 · 11月7日
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员