zoukankan      html  css  js  c++  java
  • 当你的数据集是hdf5格式的文件时,肿么办?

    最近,自己构建了一个卷积神经网络,从网上下载到的数据集是hdf5格式的,希望用这个数据集来训练一下自己构建的这个神经网络。

    1. 什么是hdf5?

    HDF5是二进制数据格式,用于在磁盘上存储巨大的数值数据集(数据太大无法存储在内存中),同时便于对数据集的行进行遍历和计算。HDF5中的数据是分层存储的,类似于文件系统存储数据的方式。它可以存储两类数据对象;
    1.dataset:类比于文件系统中的文件,可以操作list/ndarray的方式老操作它
    2.group:类比于文件系统的文件夹,可以用操作dict的方式来操作它

    数据是定义在group中,group类似层次容器的结构,可以包含零个或多个group或dataset的实例,以及支持元数据(metadata)。一旦定义了一个group,就可以在group中创建一个dataset。dataset可以理解为是一个多维数组(例如一个NumPy数组),注意:同一个多维数组中数据类型是相同的(整数、浮点数、unicode等)。图3.2显示了一个包含具有多个dataset的group的HDF5文件示例。本文我们将编写一个定制的Python类,使我们能够有效地接受输入数据并将其写入HDF5数据集。

    图3.2

    HDF5是用C编写的,但是,通过使用h5py模块(h5py.org),我们可以使用Python编程语言访问底层的C语言API。h5py之所以如此出色,是因为它易于与数据交互。我们可以在HDF5数据集中存储大量数据,并以类似于numpy的方式操作数据。例如,我们可以使用标准的Python语法访问和分割存储在磁盘上的tb级别数据集中的行,像加载到内存中操作一样简单。由于特殊的数据结构,这些分片和行访问速度非常快。当使用HDF5和h5py时,你可以将数据看作一个巨大的NumPy数组,虽然数据太大无法加载到内存中,但是仍然可以像在内存一样的访问和操作数据。

    这个标准库最主要的一点在于开发者对它的积极维护以及在向下兼容方面花费的巨大精力。标准库的向下兼容不仅仅是API的兼容,亦包括文件格式的兼容,这意味着以HDF5格式存储的数据集本质上是可移植性的,可以被使用不同编程语言(如C、MATLAB和Java)的其他开发人员访问。

    2. 如何使用hdf5?

    上面我们已经知道了什么是hdf5文件以及他需要用h5py库来处理,但是,如何把数据送到神经网络中训练呢?

    data_path = ""
    import h5py
    
    with h5py.File("{}".format(data_path),"r") as f:
        col_list = []
        f.visit(col_list.append)
        print("{}文件的group包括:{}
    ".format(data_path, col_list))
        for i in col_list:
            data_i = f["{}".format(i)]
    

    此时,我们已经将hdf5文件中的各个group用不同的变量保存起来,那么下来该怎么做呢?本人没有理解hdf5文件的精髓(由于数据太大的情况下,电脑无法同时将数据加载到电脑的运行内存上,所以出现了hdf5文件来解决这个问题),把提取出的各个group写到了txt文件中,结果原本5G左右的数据一下飙升到30G左右,因此,我们需要直接将该文件递交给深度神经网络来训练。上述代码说明了如何访问以及提取各个group接下来说说如何使用。

    # 上面的操作形式让我们想起了使用open()函数对txt文件的操作,没错,我们还可以用另外一种形式对文件进行操作,这种方法在jupyter notebook环境中更是棒棒的
    
    hdf5_file = h5py.File("{}".format(data_path),"r")
    col_list = []
    hdf5_file.visit(col_list.append)
    print("{}文件的group包括:{}
    ".format(data_path, col_list))
    for i in col_list:
        data_i = hdf5_file["{}".format(i)]
    # 假设该hdf5文件中含有的group有"X"、"Y",且"X"表示训练数据,"Y"表示标签
    # 使用zip()函数将二者合在一起,用于训练集、测试集的划分,或许还有别的办法,希望读者能够提供
    data = list(zip(data_X,data_Y))
    
    from sklearn.model_selection import train_test_split
    train,test = train_test_spilt(data)
    
    x_train,y_train = zip(*train)
    x_test,y_test = zip(*test)
    
    # 理论上上述命令操作之后已经构建成功了训练集、测试集,但是当把他们导入模型时,出了问题
    # 报错:TypeError:Error when checking input data: it should be numpy array, or list/dict.Found:(array(****************))
    # 大致是这么个意思,由于之前的问题解决了,搜索的网页没有保留
    # 该问题的主要原因是经过zip操作之后,将原来的array格式的数据变成了元组形式,我们主要把他们变回去就好了
    
    x_train_lst = list(x_train)
    y_train_lst = list(y_train)
    
    x_test_lst = list(x_test)
    y_test_lst = list(y_test)
    
    # 这样就可以了,可以把他们送入模型中
    from keras.models import Model
    from keras.layers import Input
    
    # 最简单的模型
    input = Input((max_len,))
    output = Dense()(input)
    
    model = Model(inputs=input, outputs=output)
    model.compile(optimizer="adam",loss="MSE",metrics=["accuracy"])
    
    history = model.fit(x_train, y_train,
              batch_size=batch_size,
              epochs=epochs,
              callbacks=my_callbacks,
              validation_data=(x_test, y_test))
    
    # 完成,关闭hdf5文件
    hdf5_file.close()
    

    对于keras构建模型,可以看这篇文章,keras构建1D卷积神经网络

  • 相关阅读:
    PHP 5.5.0 Alpha5 发布
    Ubuntu Touch 只是另一个 Android 皮肤?
    MariaDB 10 已经为动态列提供文档说明
    Percona Toolkit 2.1.9 发布,MySQL 管理工具
    Oracle Linux 6.4 发布
    Ruby 2.0.0 首个稳定版本(p0)发布
    Apache Pig 0.11.0 发布,大规模数据分析
    Node.js 0.8.21 稳定版发布
    红薯 MySQL 5.5 和 5.6 默认参数值的差异
    Django 1.5 正式版发布,支持 Python 3
  • 原文地址:https://www.cnblogs.com/damin1909/p/12848478.html
Copyright © 2011-2022 走看看