最近提出了一些查询和评分来解释ML模型上的个人预测。考虑到ML模型需要灵活、可靠和易于应用的可解释性方法,我们预计需要开发声明性语言来自然地指定不同的可解释性查询。我们以一种有原则的方式来实现这一点,将这种语言根植于一个名为FOIL的逻辑中,该逻辑允许表达许多简单但重要的可解释性查询,并可能作为更具表现力的可解释性语言的核心。我们研究了FOIL查询在两类ML模型上的计算复杂性,这两类模型通常被认为是容易解释的: 策树和OBDDs。由于ML模型的可能输入的数量在其维数上是指数级的,因此FOIL评估问题的可处理性是微妙的,但可以通过限制模型的结构或被评估的FOIL片段来实现。我们还提出了一个用高级声明性语言包装的FOIL的原型实现,并进行了实验,表明这种语言可以在实践中使用。

https://www.zhuanzhi.ai/paper/2a8c253e156bd0c5f2599cbe2ec78d16

成为VIP会员查看完整内容
22

相关内容

专知会员服务
18+阅读 · 2021年9月17日
专知会员服务
39+阅读 · 2021年6月11日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
62+阅读 · 2021年6月7日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
52+阅读 · 2020年10月25日
零基础概率论入门:最大似然估计
论智
12+阅读 · 2018年1月18日
用于神经网络机器翻译的全并行文本生成
Arxiv
0+阅读 · 2021年11月30日
VIP会员
相关VIP内容
专知会员服务
18+阅读 · 2021年9月17日
专知会员服务
39+阅读 · 2021年6月11日
【NAACL2021】长序列自然语言处理, 250页ppt
专知会员服务
62+阅读 · 2021年6月7日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
52+阅读 · 2020年10月25日
微信扫码咨询专知VIP会员