The imsets of \citet{studeny2006probabilistic} are an algebraic method for representing conditional independence models. They have many attractive properties when applied to such models, and they are particularly nice for working with directed acyclic graph (DAG) models. In particular, the `standard' imset for a DAG is in one-to-one correspondence with the independences it induces, and hence is a label for its Markov equivalence class. We present a proposed extension to standard imsets for maximal ancestral graph (MAG) models, using the parameterizing set representation of \citet{hu2020faster}. By construction, our imset also represents the Markov equivalence class of the MAG. We show that for many such graphs our proposed imset is \emph{perfectly Markovian} with respect to the graph thus providing a scoring criteria by measuring the discrepancy for a list of independences that define the model; this gives an alternative to the usual BIC score. Unfortunately, for some models the representation does not work, and in certain cases does not represent any independences at all. We prove that it does work for \emph{simple} MAGs where there are only heads of size less than three, as well as for a large class of purely bidirected models. We also show that of independence models that do represent the MAG, the one we give is the simplest possible, in a manner we make precise. Further we refine the ordered local Markov property, which relates to finding the best imsets representing general MAGs.


翻译:\ citet{ studenny2006 probablitic} 的设置是代表有条件独立模型的一种代数法。 当应用到这些模型时, 它们有许多有吸引力的属性, 并且它们对于使用定向环形图( DAG) 模型特别好。 特别是, DAG 的“ 标准” 设置是与其产生的独立的一对一对应的, 因而是其 Markov 等值类的标签。 我们提议扩展 标准, 以代表最大祖传图形( MAG) 模型 的标准 。 使用\ citet{ hu2020faster} 的参数化集表示这些模型。 通过构建, 我们的顶值还代表了 MAG 的 等值 。 对于许多这样的图形, 我们提议的设置的“ 标准” 是 与它所引发的独立的一对一对一对一, 因此, 我们只能用一个标准来测量一个定义模型的 ; 这给通常的 BIC 评分。 不幸的是, 对于一些模型来说, 代表不起作用, 在某些模型中, 我们的比 MAG 更能代表任何的大小。

0
下载
关闭预览

相关内容

专知会员服务
61+阅读 · 2020年3月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年10月2日
Arxiv
27+阅读 · 2020年6月19日
VIP会员
相关VIP内容
相关资讯
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
8+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员