Evolution of JPEG上研究此文档时,我在上述文档的7.3节中遇到了“八个的定律”。



我的问题是

这“八法则”到底是什么?

  • 历史上是否进行过一项研究,对一个样本中的许多图像进行了评估,得出 8x8 图像块包含足够的冗余数据以支持使用DCT的压缩技术的结论?在8M(4Kx4K)之类的非常大的图像尺寸迅速成为大多数数字图像/视频中的规范后,这种假设仍然有效吗?
  • 将宏块限制为8x8的另一个历史原因可能是较大的宏块的计算上禁止的图像数据大小。对于现代的超标量架构(例如CUDA),该限制不再适用。

  • 之前存在类似的问题-123。但是他们都没有去理会这个神秘的基本“八个的定律”的任何细节/链接/引用。


    1.原始研究的引用文献/摘录/详细信息将受到高度赞赏,因为我想对具有大型图像的现代数据集进行重复测试,以测试最佳8x8宏块的有效性。

    2.如果最近进行了类似的研究,也欢迎提及该研究。

    3.我知道SmartScalecontroversial1没有任何明显的潜在好处,最多只能与jpeg标准2的其他向后兼容扩展相媲美。我的目标是了解选择8x8作为DCT块大小(在jpeg图像压缩标准下)的原始原因是否仍然有意义,因此我需要知道八个
    定律是什么。

    最佳答案

    我的理解是,《八法则》只是幽默地引用了以下事实:Baseline JPEG算法规定8x8是其唯一的块大小。

    P.S.换句话说,“八法则”是一种通过引入历史观点来解释为什么“所有其他尺寸的DCT都参照8x8 DCT进行缩放”的一种方式-缺乏对其他尺寸的支持。原始标准及其事实上的实现

    下一个要问的问题:为什么八点? (请注意,尽管这是一个有效的问题,但这不是当前讨论的主题,即使在历史上选择了另一个值,例如“十法则”或“三十二法则”,该主题也仍将是有意义的。)对此的答案是:由于问题的计算复杂度随着O(N^2)的增长而增加(除非采用FCT类算法,但随着O(N log N)的增长而变慢,但难以在嵌入式平台的原始硬件上实现,因此适用性受到限制),因此块大小更大很快变得不切实际。这就是为什么选择8x​​8的原因,其尺寸要小到足以在各种平台上使用,但又要足够大以允许对不同频率的量化级别进行不太粗略的控制。

    由于该标准显然已经scratch了痒,整个生态圈很快就围绕着它发展,包括针对8x8优化的实现,这是它们唯一支持的块大小。一旦生态圈就位,就不可能在不破坏现有实现的情况下更改区块大小。由于这是非常不希望的,因此对DCT/量化参数的任何调整都必须与仅8x8的解码器保持兼容。我认为这一考虑必须是所谓的“八法之律”。

    虽然不是专家,但我看不出更大的块大小有什么帮助。首先,一个块中值的动态范围平均会增加,需要更多的位来表示它们。其次,从“全部”(由方框表示)到“像素”的频率的相对量化必须保持相同(毕竟这是由人类的感知偏差决定的),量化将变得更加平滑,仅此而已,对于相同的压缩级别,潜在的质量提升可能不会引起注意。

    关于math - 什么是 "Law of the Eight"?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/18266983/

    10-12 00:35