In a recent breakthrough [BGM23, GZ23, AGL23], it was shown that Reed-Solomon codes, defined over random evaluation points, are list decodable with \emph{optimal} list size with high probability, i.e., they attain the \emph{Singleton bound for list decoding} [ST20, Rot22, GST22]. We extend this result to a large subclass of \emph{polynomial ideal codes}, which includes several well-studied families of error-correcting codes such as Reed-Solomon codes, folded Reed-Solomon codes, and multiplicity codes. Our results imply that a large subclass of polynomial ideal codes with random evaluation points over exponentially large fields achieve the Singleton bound for list-decoding exactly; while such codes over quadratically-sized fields approximately achieve it. Combining this with the {efficient} list-decoding algorithms for polynomial ideal codes of [BHKS21], our result implies as a corollary that a large subclass of polynomial ideal codes (over random evaluation points) is \emph{efficiently} list decodable with {optimal} list size. To the best of our knowledge, this gives the first family of codes that can be {efficiently} list decoded with {optimal} list size (for all list sizes), as well as the first family of {linear} codes of rate $R$ that can be {efficiently} list decoded up to a radius of $1 -R-\epsilon$ with list size that is {polynomial} (and even linear) in $1/\epsilon$. Moreover, the result applies to natural families of codes with algebraic structure such as folded Reed-Solomon or multiplicity codes (over random evaluation points). Our proof follows the general framework of [BGM23, GZ23], where the main new ingredients are a \emph{duality theorem} for polynomial ideal codes, as well as a new \emph{algebraic folded GM-MDS theorem} (extending the algebraic GM-MDS theorem of [YH19, Lov21]), which may be of independent interest.


翻译:暂无翻译

0
下载
关闭预览

相关内容

FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
34+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
STRCF for Visual Object Tracking
统计学习与视觉计算组
15+阅读 · 2018年5月29日
Focal Loss for Dense Object Detection
统计学习与视觉计算组
12+阅读 · 2018年3月15日
IJCAI | Cascade Dynamics Modeling with Attention-based RNN
KingsGarden
13+阅读 · 2017年7月16日
From Softmax to Sparsemax-ICML16(1)
KingsGarden
74+阅读 · 2016年11月26日
相关基金
国家自然科学基金
13+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员