In this paper we derive sharp lower and upper bounds for the covariance of two bounded random variables when knowledge about their expected values, variances or both is available. When only the expected values are known, our result can be viewed as an extension of the Bhatia-Davis Inequality for variances. We also provide a number of different ways to standardize covariance. For a binary pair random variables, one of these standardized measures of covariation agrees with a frequently used measure of dependence between genetic variants.


翻译:在本文中,当了解了两个封闭的随机变量的预期值、差异或两者同时存在时,我们得出了两个封闭的随机变量的共差的下下限和上限。当只知道预期值时,我们的结果可以被视为Bhatia-Davis差异不平等的延伸。我们还提供了一些不同的方法来规范共差。对于双对随机变量,这些标准化的共差计量方法之一同意遗传变量之间经常使用的依赖度。

0
下载
关闭预览

相关内容

【WWW2021】张量时间序列网络
专知会员服务
44+阅读 · 2021年4月20日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年8月19日
Arxiv
0+阅读 · 2021年8月18日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员