h5py разбивает структурированные структурированные массивы numpy на фрагменты

Я получаю данные с датчиков и сохраняю их в файлах HDF5, используя h5py. Данные датчика поступают в виде байтового объекта, я использую numpy для преобразования его в структурированный массив. Затем я записываю структурированный массив в файл HDF5. Все это работает так, как задумано.

Теперь я хочу прочитать данные из файла HDF5, и меня интересуют только некоторые его части. Например, если я хочу прочитать только один столбец. Проблема в том, что при прямой записи структурированного массива numpy в файл HDF5 все данные записываются как единый блок, например, с формой (10,). Размер фрагмента по умолчанию установлен на (256,). Это означает, что я прочитал 256 строк и все столбцы данных для каждого фрагмента. Однако это становится очень медленным, когда количество столбцов увеличивается.

Есть ли способ изменить данные или изменить параметры фрагментации, чтобы я мог читать один столбец данных вместо целого блока в каждом фрагменте?

Минимальный пример того, что я использую, показан ниже:

import h5py
import ctypes
import numpy as np

class SensorStruct(ctypes.Structure):
    _pack_ = 4
    _fields_ = [('tc_time',ctypes.c_int64),
                ('pc_time',ctypes.c_double),
                ('nSample', ctypes.c_ushort),
                ('fMean', ctypes.c_float),
                ('fLowerbound', ctypes.c_float),
                ('fUpperbound', ctypes.c_float)]

def CreateFile(filename):
    #Create a new HDF5 file
    with h5py.File(filename, 'w', libver='latest') as f:
        f.swmr_mode = True

def AddDataset(filename, dsetname, struct):
    #Add a dataset to an existing HDF5 file
    with h5py.File(filename, 'r+', libver='latest', swmr=True) as f:
        f.create_dataset(dsetname, 
                         dtype = struct, 
                         shape = (0,), #Shape will update each time data is added
                         maxshape = (60480000,),
                         chunks = True, #Need to modify this somehow
                         compression = 'gzip')

def WriteData(filename, data):
    #Append an existing dataset with new data
    with h5py.File(filename, 'r+', libver='latest', swmr=True) as f:
        dset = f[dsetname]

        length = dset.shape[0]
        maxlength = dset.maxshape[0]

        newlength = length + len(data)
        if newlength < maxlength:
            dset.resize((newlength,))
            dset[length:newlength] = data

filename = 'TESTFILE.h5'
dsetname = 'Sensor1'
struct_dt = np.dtype(SensorStruct)

#Rawdata comes in from a sensor every few seconds, returns as bytes object
rawdata1 = b"\x15\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x00\x00\x00\x00'u\x1fA\xf4Q\x01AbY?A\x16\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x01\x00\x00\x00\x1c\xe4&A[\x85\x0bA\x97\x96=A\x17\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x02\x00\x00\x00\xf6\x8b\x02A\xe5\xd5\xd5@\xc1Y\x1bA\x18\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x03\x00\x00\x00 \xec9A?W\x17A\xd0vRA\x19\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x04\x00\x00\x00\xf2\t/A\x83U\x19A\r&[A\x1a\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x05\x00\x00\x00s\x8a\x18A\xb0\x19\x04A\xc6\xb51A\x1b\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x06\x00\x00\x00P\xb6>A6\xc5 A)erA\x1c\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x07\x00\x00\x00\xe5e\x11A\x17\x9c\xff@^\xbf5A\x1d\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\x08\x00\x00\x00*\xbe\x19At\xd5\x04AN\x919A\x1e\xcd[\x07\x00\x00\x00\x00 x\x81BA\x02\xd7A\t\x00\x00\x00\xa2* A(-\x03AE\xedFA"
rawdata2 = b'\x1f\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\n\x00\x00\x00\xb6\x89&A\xd7\x8f\x07A\xe9\x00SA \xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0b\x00\x00\x00\x91I\xfd@*\\\xdc@<\x17!A!\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0c\x00\x00\x00,q\x12A\x81\x1f\xfa@\x81\xfe(A"\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\r\x00\x00\x00\x04@\x1cA\x03p\x05A\x05\xb03A#\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0e\x00\x00\x00\xad\x89:A8h#A\xab\x88SA$\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x0f\x00\x00\x00I\x0f\xf5@\x15\xaa\xca@Rk\x0cA%\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x10\x00\x00\x00\xab\xeb\x1dA\x86 \x05A\x1807A&\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x11\x00\x00\x00Q\xda3A\xdc\xa6\x1cAT)ZA\'\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x12\x00\x00\x00U\xb3=A\xae\xcb\x1aA\xebmQA(\xcd[\x07\x00\x00\x00\x00 x\x01EA\x02\xd7A\x13\x00\x00\x00\x8f\x82\x0cA\x11\x15\xf3@$]&A'
data1 = np.frombuffer(rawdata1, dtype=SensorStruct)
data2 = np.frombuffer(rawdata2, dtype=SensorStruct)

CreateFile(filename)
AddDataset(filename, dsetname, SensorStruct)
WriteData(filename, data1)
WriteData(filename, data2)

Здесь я пытаюсь прочитать один столбец данных:

import time
t0 = time.time()

with h5py.File(filename, 'r', libver='latest', swmr=True) as f:
    dset = f[dsetname]

    #Optimize chunking so I can read one column
    #My real dataset contains hundreds of columns and milions of rows
    #So this minimal example may look slightly trivial
    print('Chunksize: {}'.format(dset.chunks))
    t = dset['pc_time']

print('Reading the time column took {} seconds'.format(time.time()-t0))

person Alex    schedule 06.12.2018    source источник
comment
Я думал, что фрагментация задается при создании файла, а не при чтении, но я не заострял на этом внимание. Для более быстрого доступа к полям вам, вероятно, следует поместить их в отдельные наборы данных,   -  person hpaulj    schedule 06.12.2018
comment
Да, фрагментация определяется при создании набора данных, поэтому я также загрузил часть, в которой я создаю файл. Я все еще могу редактировать его сейчас.   -  person Alex    schedule 06.12.2018


Ответы (1)


In [551]: dt = np.dtype([('a',int),('b','uint8'),('c','float32'),('d','float64')])
In [552]: x = np.ones(10, dt)
In [553]: x.dtype
Out[553]: dtype([('a', '<i8'), ('b', 'u1'), ('c', '<f4'), ('d', '<f8')])
In [554]: x.itemsize
Out[554]: 21
In [555]: x.__array_interface__
Out[555]: 
{'data': (40185408, False),
 'strides': None,
 'descr': [('a', '<i8'), ('b', '|u1'), ('c', '<f4'), ('d', '<f8')],
 'typestr': '|V21',
 'shape': (10,),
 'version': 3}

Каждая запись этого массива занимает 21 байт, 'V21'.

In [557]: f = h5py.File('vtype.h5','w')
In [558]: ds = f.create_dataset('data', data=x)
In [559]: ds
Out[559]: <HDF5 dataset "data": shape (10,), type "|V21">
In [560]: ds.dtype
Out[560]: dtype([('a', '<i8'), ('b', 'u1'), ('c', '<f4'), ('d', '<f8')])

В h5dump этот набор данных отображается как

  DATATYPE  H5T_COMPOUND {
     H5T_STD_I64LE "a";
     H5T_STD_U8LE "b";
     H5T_IEEE_F32LE "c";
     H5T_IEEE_F64LE "d";
  }

Документы по фрагментации показывают кортеж фрагментации с тем же количеством элементов, что и форма массива.

http://docs.h5py.org/en/stable/high/dataset.html#chunked-storage

Здесь я создал массив 1d, поэтому фрагментация, если она указана, применяется только к этому измерению, а не к составному типу данных.

Для массивов numpy доступ к одному полю структурированного массива относительно быстр, сравним с доступом к столбцу 2d-массива или стенду вдоль 1d-массива. Это вид.

Но загрузка из набора данных h5 — это копия. В этом небольшом примере загрузка ds[:] выполняется быстрее, чем ds['a']. И ds[:n]['a'] быстрее, чем ds['a'][:n].

Я не понимаю, как эти тайминги сравниваются с доступом к столбцу простого двумерного массива. И я не знаю, зависят ли тайминги от размера dtype.

person hpaulj    schedule 06.12.2018