In this paper, we propose an interference exploitation symbol-level precoding (SLP) method for multi-level modulations via an in-block power allocation scheme to greatly reduce the signaling overhead. Existing SLP approaches require the symbol-level broadcast of the rescaling factor to the users for correct demodulation, which hinders the practical implementation of SLP. The proposed approach allows a block-level broadcast of the rescaling factor as done in traditional block-level precoding, greatly reducing the signaling overhead for SLP without sacrificing the performance. Our derivations further show that the proposed in-block power allocation enjoys an exact closed-form solution and thus does not increase the complexity at the base station (BS). In addition to the significant alleviation of the signaling overhead validated by the effective throughput result, numerical results demonstrate that the proposed power allocation approach also improves the error-rate performance of the existing SLP. Accordingly, the proposed approach enables the practical use of SLP in multi-level modulations.


翻译:在本文中,我们建议通过区块内电力分配办法,对多级调制器采用干扰符号预编码法(SLP),以大幅降低信号管理费用;现有的SLP办法要求向用户进行代号级的调整因数广播,以正确降压,这妨碍了SLP的实际实施。提议的办法允许像传统的区块预编码那样,对调制因数进行区块级广播,大大降低SLP的信号管理费用,同时又不牺牲性能。我们的推算进一步表明,拟议的区块电力分配办法具有精确的封闭式解决办法,因此不会增加基地站的复杂程度。除了大幅减轻有效吞吐结果所验证的信号性管理费用外,数字结果表明,拟议的电力分配办法还提高了现有SLP的误率性能。因此,拟议的办法使SLP在多级调制中能够实际使用。

0
下载
关闭预览

相关内容

再缩放是一个类别不平衡学习的一个基本策略。当训练集中正、反例数据不均等时,令m+表示正例数,m-表示反例数,并且需对预测值进行缩放调整。
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
Arxiv
6+阅读 · 2018年2月7日
VIP会员
相关VIP内容
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
相关论文
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Efficient and Effective $L_0$ Feature Selection
Arxiv
5+阅读 · 2018年8月7日
Arxiv
6+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员