我从 friend 那里收到了这个 .h5 文件,我需要将其中的数据用于一些工作。所有数据均为数值。这是我第一次使用这些类型的文件。我在这里找到了许多关于阅读这些文件的问题和答案,但我找不到一种方法来获得文件包含的组或文件夹的较低级别。
该文件包含两个主要文件夹,即 X 和 Y
X 包含一个名为 0 的文件夹,其中包含两个名为 A 和 B 的文件夹。
Y 包含十个名为 1-10 的文件夹。
我要读取的数据在 A,B,1,2,..,10
例如我开始

f = h5py.File(filename, 'r')
f.keys()

现在 f 返回 [u'X', u'Y'] 两个主要文件夹

然后我尝试使用 read_direct 读取 X 和 Y 但我收到错误

AttributeError:“组”对象没有属性“read_direct”

我尝试为 X 和 Y 创建一个对象,如下所示
obj1 = f['X']

obj2 = f['Y']

然后如果我使用命令
obj1.shape
obj1.dtype

我收到一个错误

AttributeError: 'Group' 对象没有属性 'shape'

我可以看到这些命令不起作用,因为我在 X 和 Y 上使用 then,这些文件夹不包含数据,但包含其他文件夹。

所以我的问题是如何深入到名为 A, B,1-10 的文件夹来读取数据

即使在文档 http://docs.h5py.org/en/latest/quick.html 中,我也找不到方法来做到这一点

最佳答案

您需要向下遍历 HDF5 层次结构,直到到达数据集。组没有形状或类型,数据集有。

假设您事先不知道您的层次结构,您可以使用递归算法通过迭代器以 group1/group2/.../dataset 的形式生成所有可用数据集的完整路径。下面是一个例子。

import h5py

def traverse_datasets(hdf_file):

    def h5py_dataset_iterator(g, prefix=''):
        for key in g.keys():
            item = g[key]
            path = f'{prefix}/{key}'
            if isinstance(item, h5py.Dataset): # test for dataset
                yield (path, item)
            elif isinstance(item, h5py.Group): # test for group (go down)
                yield from h5py_dataset_iterator(item, path)

    for path, _ in h5py_dataset_iterator(hdf_file):
        yield path

例如,您可以迭代您感兴趣的所有数据集路径和输出属性:
with h5py.File(filename, 'r') as f:
    for dset in traverse_datasets(f):
        print('Path:', dset)
        print('Shape:', f[dset].shape)
        print('Data type:', f[dset].dtype)

请记住,默认情况下,HDF5 中的数组不会完全在内存中读取。您可以通过 arr = f[dset][:] 读入内存,其中 dset 是完整路径。

关于python - 将嵌套的.h5组读入numpy数组,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/51548551/

10-12 23:06