In this note we study the benefits of splitting variables variables for reducing the variance of linear functions of the regression coefficient estimate. We show that splitting combined with shrinkage can result in estimators with smaller mean squared error compared to popular shrinkage estimators such as Lasso, ridge regression and garrote.


翻译:在本说明中,我们研究了分解变量对减少回归系数估计线性功能差异的好处。 我们发现,分解与缩水相结合,与拉索、山脊回归和加罗特等流行的缩水估计值相比,可能导致误差较小的平均平方差估计值。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
LASSO回归与XGBoost:融合模型预测房价
论智
32+阅读 · 2018年8月8日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
A Sketch-Based System for Semantic Parsing
Arxiv
4+阅读 · 2019年9月12日
VIP会员
相关资讯
LASSO回归与XGBoost:融合模型预测房价
论智
32+阅读 · 2018年8月8日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
Top
微信扫码咨询专知VIP会员