深度神经网络的可解释性通过基于概念的模型提供了一种有前景的方式来通过人类可理解的概念解释模型行为。一条平行的研究方向专注于将数据分布解缠为其潜在生成因素,从而解释数据生成过程。虽然这两个方向都得到了广泛关注,但很少有工作在解释概念方面着重于生成因素,以统一数学上解缠的表示和人类可理解的概念作为下游任务的解释。在本文中,我们提出了一种新方法CoLiDR - 它利用解缠表示学习框架来学习相互独立的生成因素,并随后学习通过一种新颖的聚合/分解模块将这些表示聚合成可理解的人类概念。在具有已知和未知潜在生成因素的数据集上进行了实验。我们的方法成功地将解缠的生成因素聚合成概念,同时保持了与基于概念的最新方法的对等性。对学习到的聚合过程进行的定量和视觉分析展示了我们的方法相比常用的基于概念的模型在四个具有挑战性的数据集上的优势。最后,我们的工作可以推广到任意数量的概念和生成因素,使其足够灵活,适用于各种类型的数据。

成为VIP会员查看完整内容
18

相关内容

CoLiDR: 使用聚合解缠表示进行概念学习
专知会员服务
15+阅读 · 2024年8月21日
【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
33+阅读 · 2023年6月9日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
CoLiDR: 使用聚合解缠表示进行概念学习
专知会员服务
15+阅读 · 2024年8月21日
【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
33+阅读 · 2023年6月9日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
25+阅读 · 2023年3月17日
微信扫码咨询专知VIP会员