Gagie and Nekrich (2009) gave an algorithm for adaptive prefix-free coding that, given a string $S [1..n]$ over the alphabet $\{1, \ldots, \sigma\}$ with $\sigma = o (n / \log^{5 / 2} n)$, encodes $S$ in at most $n (H + 1) + o (n)$ bits, where $H$ is the empirical entropy of $S$, such that encoding and decoding $S$ take $O (n)$ time. They also proved their bound on the encoding length is optimal, even when the empirical entropy is high. Their algorithm is impractical, however, because it uses complicated data structures. In this paper we give an algorithm with the same bounds, except that we require $\sigma = o (n^{1 / 2} / \log n)$, that uses no data structures more complicated than a lookup table. Moreover, when Gagie and Nekrich's algorithm is used for optimal adaptive alphabetic coding it takes $O (n \log \log n)$ time for decoding, but ours still takes $O (n)$ time.


翻译:Gagie 和 Nekrich (2009年) 给出了适应性前无字编码的算法,根据字母1美元1美元1美元的字符串,ldots,\sigma $= o(n/ log=5/ 2n)$的字符串[1. n]美元,将美元最多(H+1) + o(n) 位数编码为美元,其中H$是美元的经验性辛特质,因此,编码和解码美元需要10美元(n)的时间。它们也证明了在编码长度上的约束是最佳的,即使实验性昆虫高,它们的算法也是不切实际的,因为它使用复杂的数据结构。在本文中,我们给出了一个相同界限的算法,但我们需要$(n+1/ 2}/ log n) 美元,它使用的数据结构比外观表更为复杂。此外,当Gagie和Nekrich的编码算法用于最佳适应性字母(美元)时,它们的算法是用来进行最佳的。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年7月3日
专知会员服务
19+阅读 · 2020年9月6日
MIT新书《强化学习与最优控制》
专知会员服务
282+阅读 · 2019年10月9日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Implicit Maximum Likelihood Estimation
Arxiv
7+阅读 · 2018年9月24日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员