Experimental studies are a cornerstone of Machine Learning (ML) research. A common and often implicit assumption is that the study's results will generalize beyond the study itself, e.g., to new data. That is, repeating the same study under different conditions will likely yield similar results. Existing frameworks to measure generalizability, borrowed from the casual inference literature, cannot capture the complexity of the results and the goals of an ML study. The problem of measuring generalizability in the more general ML setting is thus still open, also due to the lack of a mathematical formalization of experimental studies. In this paper, we propose such a formalization, use it to develop a framework to quantify generalizability, and propose an instantiation based on rankings and the Maximum Mean Discrepancy. We show how our framework offers insights into the number of experiments necessary for a generalizable study, and how experimenters can benefit from it. Finally, we release the genexpy Python package, which allows for an effortless evaluation of the generalizability of other experimental studies.


翻译:实验研究是机器学习(ML)研究的基石。一个常见且往往隐含的假设是,研究结果将在研究本身之外(例如对新数据)具有泛化性。也就是说,在不同条件下重复同一研究很可能产生相似的结果。现有用于衡量泛化性的框架,借鉴自因果推断文献,无法捕捉ML研究结果的复杂性和研究目标。因此,在更一般的ML设置中衡量泛化性的问题仍然开放,部分原因也在于缺乏对实验研究的数学形式化。在本文中,我们提出了这样一种形式化,利用它开发了一个量化泛化性的框架,并提出了一个基于排序和最大均值差异的实例化方法。我们展示了我们的框架如何为进行泛化性研究所需的实验数量提供见解,以及实验者如何从中受益。最后,我们发布了genexpy Python包,该包允许对其他实验研究的泛化性进行便捷评估。

0
下载
关闭预览

相关内容

科学语言建模:大型语言模型在分子科学中的量化综述
专知会员服务
31+阅读 · 2024年2月8日
【NeurIPS2023】因果成分分析
专知会员服务
41+阅读 · 2023年11月13日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
科学语言建模:大型语言模型在分子科学中的量化综述
专知会员服务
31+阅读 · 2024年2月8日
【NeurIPS2023】因果成分分析
专知会员服务
41+阅读 · 2023年11月13日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员