我正在使用C++ HDF API编写HDF5文件,并与H5py Python库进行一些比较。

在H5py Python库中,当使用压缩算法(例如GZIP或LZF)时,默认情况下会应用autochunking

相同条件适用于HDF5 C++ API吗?如果是这样,当将压缩算法(例如GZIP)应用于数据集时,我如何证明块是自动创建的。

最佳答案

根据https://www.hdfgroup.org/HDF5/faq/compression.html:



而且您必须手动执行此操作:

1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.

关于python - 在HDF5 C++ API中使用GZIP压缩时,默认情况下是否启用自动分块?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/37912496/

10-12 22:09