Extremely large aperture arrays operating in the near-field regime unlock additional spatial resources, which can be exploited to simultaneously serve multiple users even when they share the same angular direction. This work investigates the distance-domain degrees of freedom (DoF), defined as the DoF when a user varies only its distance to the base station and not the angle. To obtain the distance-domain DoF, we study a line-of-sight (LoS) channel with a source representing a base station and an observation region representing users, where the source is a large two-dimensional transmit (Tx) array with arbitrary shape and the observation region is an arbitrarily long linear receive (Rx) array with collinearly aligned elements located at different distances from the Tx array. We assume that both the Tx and Rx arrays have continuous apertures with an infinite number of elements and infinitesimal spacing, which establishes an upper bound for the distance-domain DoF in the case of a finite number of elements. First, we analyze an ideal case where the Tx array is a single piece and the Rx array is on the broadside of the Tx array. By reformulating the channel as an integral operator with a Hermitian convolution kernel, we derive a closed-form expression for the distance-domain DoF via the Fourier transform. Our analysis shows that the distance-domain DoF is predominantly determined by the extreme boundaries of both the Tx and Rx arrays rather than their detailed interior structure. We further extend the framework to non-broadside configurations by employing a projection method that converts the problem to an equivalent broadside case. Finally, we extend the analytical framework to modular arrays and show the distance-domain DoF gain over a single-piece array under a fixed total physical length.


翻译:暂无翻译

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员